《大數(shù)據(jù)平臺搭建與配置管理》期末試題試卷及答案AB卷2套_第1頁
《大數(shù)據(jù)平臺搭建與配置管理》期末試題試卷及答案AB卷2套_第2頁
《大數(shù)據(jù)平臺搭建與配置管理》期末試題試卷及答案AB卷2套_第3頁
《大數(shù)據(jù)平臺搭建與配置管理》期末試題試卷及答案AB卷2套_第4頁
《大數(shù)據(jù)平臺搭建與配置管理》期末試題試卷及答案AB卷2套_第5頁
已閱讀5頁,還剩16頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

大數(shù)據(jù)平臺搭建與配置管理第21頁共21頁《大數(shù)據(jù)平臺搭建與配置管理》期末試題期末試題(閉卷A)題號一二三四五六七八九十成績滿分30202030100得分【本套試卷共有4大題,計66小題】一、選擇題(20題,每題1.5分,共30分)1、以下哪一位是Hadoop的作者()。A.MatrinFowlerB.DougcuttingC.KentBeckD.GraceHopper2、以下哪個命令可以終止一個用戶的所有進程()。A.killB.killallC.skillD.skillall3、用“rm-i”,系統(tǒng)會提示什么來讓你確認()。A.是否真的刪除B.是否有寫的權(quán)限C.命令行的每個選項D.文件的位置4、HDFS默認Block大小是()。A.32MBB.64MBC.128MBD.256MB5、下列哪項通常是集群的最主要瓶頸()。A.CPUB.網(wǎng)絡C.磁盤IOD.內(nèi)存6、以下與HDFS類似的框架是()。A.NTFSB.FAT32C.GFSD.EXT37、有關(guān)MapReduce的輸入輸出,說法錯誤的是()。A.鏈接多個MapReduce作業(yè)時,序列文件是首選格式B.FileInputFormat中實現(xiàn)的getSplits()可以把輸入數(shù)據(jù)劃分為分片,分片數(shù)目和大小任意定義C.想完全禁止輸出,可以使用NullOutputFormatD.每個reduce需將它的輸出寫入自己的文件中,輸出無需分片8、對HDFS內(nèi)的文件進行操作,以下說法正確的是()。A.HDFS提供了Shell的操作接口B.不允許對文件進行列表查看C.文件操作命令與Linux不相似D.采用Windows系統(tǒng)對文件進行操作9、列關(guān)于HDFS為存儲MapReduce并行切分和處理的數(shù)據(jù)做的設(shè)計,錯誤的是?()A.FSDataInputStream擴展了DataInputStream以支持隨機讀B.為實現(xiàn)細粒度并行,輸入分片(InputSplit)應該越小越好C.一臺機器可能被指派從輸入文件的任意位置開始處理一個分片D.輸入分片是一種記錄的邏輯劃分,而HDFS數(shù)據(jù)塊是對輸入數(shù)據(jù)的物理分割10、ZooKeeper允許分布式進程通過共享的()相互協(xié)調(diào)。A.鎖B.表C.分層命名空間D.內(nèi)存11、名稱空間由()組成。A.磁盤寄存器B.表C.內(nèi)存寄存器D.數(shù)據(jù)寄存器12、下面哪些概念是HBase框架中使用的?()A.HadoopB.GridFSC.ZookeeperD.EXT313、Hive中創(chuàng)建()的目的就是在查詢一個表中某列值時提升速度。A.行B.列C.索引D.表14、Hive可處理大量數(shù)據(jù),它最重視的性能是可測量性,延展性,什么和對于輸入格式的寬松匹配性。()A.較低恢復性B.容錯性C.快速查詢D.低延遲15、對數(shù)據(jù)倉庫的操作,一般不包括哪些方面?()A.數(shù)據(jù)抽取B.數(shù)據(jù)爬取C.數(shù)據(jù)轉(zhuǎn)換D.數(shù)據(jù)裝載16、下面對HBase的描述哪些是正確的?()A.不是開源的B.是面向列的C.是分布式的D.是一種NoSQL數(shù)據(jù)庫17、HBase依賴()提供強大的計算能力。A.ZookeeperB.ChubbyC.RPCD.MapReduce18、面哪些概念是HBase框架中使用的?()A.HDFSB.GridFSC.ZookeeperD.EXT319、以下不是Storm特點的是?()A.整合性B.可靠的消息處理C.可擴展性D.高吞吐量20、Storm支持什么?()A.容錯和水平擴展B.復雜的APIC.高吞吐量D.跨平臺二、填空題(20題,每題1分,共10分)21、網(wǎng)絡管理兩個重要任務分別是:和。22、Linux內(nèi)核引導時,從文件中讀取要加載的文件系統(tǒng)。23、指令可以顯示目錄的大小。24、ResourceManager默認的WebUI訪問端口號為:。25、負責HDFS數(shù)據(jù)存儲。26、格式化HDFS系統(tǒng)的命令為。27、在MapReduce中,一個存儲在分布式文件系統(tǒng)中的大規(guī)模數(shù)據(jù)集會被切分成許多獨立的28、Reduce函數(shù)的任務就是將輸入的一系列具有的鍵值對以某種方式組合起來。29、MapReduce框架會為每個輸入一個數(shù)據(jù)子集。30、ZooKeeper是集群的,監(jiān)視著集群中各個節(jié)點的狀態(tài)根據(jù)節(jié)點提交的反饋進行下一步合理操作。31、Zookeeper主要負責調(diào)度。32、ZK提供了一定的可以用來獲取一個順序增長的,可以在集群環(huán)境下使用的ID。33、利用SQL語句進行數(shù)據(jù)的、、。34、Hive查詢有一定的延時,常被用來進行和。35、大Hive不支持響應速度。36、HBase性能優(yōu)化包含、、、。37、HFile數(shù)據(jù)格式中的Magic字段用于:。38、rowkey是一個二進制碼流,最大長度是,內(nèi)部存儲為字節(jié)數(shù)組。39、Storm將和組成的網(wǎng)絡抽象成Topology。40、FieldsGrouping:按照分組,保證相同字段的分配到同一個Task中。三、判斷題,正確填“T”,錯誤填“F”(20題,每題1分,共20分)41、如果命令在前臺運行,那么用戶在此進程結(jié)束錢不能繼續(xù)使用當前的shell()。42、在用戶請求訪問的資源共享中包含“guestonly=yes”參數(shù),那么用戶就會以“guestaccount=”參數(shù)指定的身份連接,而不再使用用戶的其他身份()。43、一個文件名字為cc.z,可以用tar命令來解壓縮()。44、Ganglia不僅可以進行監(jiān)控,也可以進行告警()。45、Hadoop支持數(shù)據(jù)的隨機寫()。46、每個Map槽就是一個線程()。47、為了讓Reduce可以并行處理Map的結(jié)果,需要對Map的輸出進行一定的分區(qū)、排序、合并、歸并。()48、Map任務得到的中間結(jié)果交給Reduce處理,這個過程稱之為Shuffle過程。()49、不同Reduce任務之間不會發(fā)生任何信息交換。()50、delete或setData不需要明確更新的Znode的版本號。()51、watch事件是可以重復使用的觸發(fā)器。()52、分布式應用可以在給定時間(同時)在網(wǎng)絡中的多個系統(tǒng)上運行。()53、Hive有主鍵或自增鍵。()54、對于SQL而言,DML就是增刪改查詢的SQL語句。()55、創(chuàng)建外部表時,僅僅只是記錄數(shù)據(jù)所在的位置。()56、HBase是Apache的Hadoop項目的子項目,利用HadoopHDFS作為其文件存儲系統(tǒng),適合于非結(jié)構(gòu)化數(shù)據(jù)存儲。()57、對于HBase系統(tǒng)的使用場景,需要進行多表聯(lián)合查詢。()58、使用Shell命令create在HBase系統(tǒng)中添加新表操作。()59、Bolts可以將處理后的Tuple作為新的Streams發(fā)送給其他Bolts。()60、Stream每一個源頭都被抽象為Bolts。()四、簡答題(6題,每題5分,共30分)61、試論述分布式文件系統(tǒng)設(shè)計的需求。答:62、分布式文件系統(tǒng)通過哪兩個節(jié)點實現(xiàn)較高水平擴展?答:63、請闡述HBase和BigTable的底層技術(shù)的對應關(guān)系。答:64、HBase中的行鍵、列鍵以及時間戳的概念是什么?答:65、HBase與傳統(tǒng)數(shù)據(jù)庫的關(guān)系?答:66、HStore的工作原理是什么?答:《大數(shù)據(jù)平臺搭建與配置管理》期末標答期末標答A(閉卷)題號一二三四五六七八九十成績滿分30202030100得分一、選擇題(20題,每題1.5分,共30分)1-5:BCAAC 6-10:CBABC11-15:DCCBB16-20:(BCD)D(AC)DA二、填空題(20題,每題1分,共20分)21、監(jiān)控 控制22、/etc/fstad23、du24、5007025、datanode26、hdfsnamenode-format27、小數(shù)據(jù)塊28、相同鍵29、Map任務30、管理者31、分布式任務32、接口33、查詢、匯總、分析34、靜態(tài)數(shù)據(jù)分析挖掘35、實時查詢36、讀優(yōu)化、寫優(yōu)化、配置優(yōu)化、JVM優(yōu)化37、存儲隨機數(shù),防止數(shù)據(jù)損壞38、64KB39、SpoutsBolts40、字段Tuple三、判斷題(20題,每題1分,共20分)41-45:TTFFF46-50:FTTTF51-55:FTFTT56-60:TFTTF四、簡答題(6題,每題5分,共60分)61、答:62、答:分布式文件系統(tǒng)在物理結(jié)構(gòu)上是由計算機集群中的多個節(jié)點構(gòu)成的,這些節(jié)點分為兩類,一類叫“主節(jié)點”或者也被成為“名稱節(jié)點”,另一類叫“從節(jié)點”或者也被成為“數(shù)據(jù)節(jié)點”。63、答:64、答:略。65、答:66、答:每個Store對應了表中的一個列族的存儲。每個Store包括一個MenStore緩存和若干個StoreFile文件。MenStore是排序的內(nèi)存緩沖區(qū),當用戶寫入數(shù)據(jù)時,系統(tǒng)首先把數(shù)據(jù)放入MenStore緩存,當MenStore緩存滿時,就會刷新到磁盤中一個StoreFile文件中,當單個StoreFile文件大小超過一定的閾值時,就會觸發(fā)文件分裂操作?!洞髷?shù)據(jù)平臺搭建與配置管理》期末試題期末試題(閉卷B)題號一二三四五六七八九十成績滿分30202030100得分【本套試卷共有4大題,計66小題】一、選擇題(20題,每題1.5分,共30分)1、對文件進行歸檔的命令是()。A.gzipB.tarC.dumpD.dd2、如何刪除/tmp下的所有文件及子目錄()。A.del/tmp/*B.rm-rf/tmpC.rm-Ra/tmp/*D.rm-rf/tmp/*3、從后臺啟動進程,應在命令的結(jié)尾加上符號()。A.&B.@C.#D.$4、請問以下哪個命令組成是錯誤的()。A.sbin/stop-dfs.shB.sbin/hdfsdfsadmin-reportC.bin/hadoopnamenode-formatD.bin/hadoopfs-cat/hadoopdata/my.txt5、下面關(guān)于使用hive的描述中不正確的是()。A.hive中的join查詢只支持等值鏈接,不支持非等值連接B.hive默認倉庫路徑為/user/hive/warehouse/C.hive的表一共有兩種類型,內(nèi)部表和外部表D.hive支持數(shù)據(jù)刪除和修改6、關(guān)于HDFS集群中的DataNode的描述不正確的是()。A.DataNode之間都是獨立的,相互之間不會有通信B.存儲客戶端上傳的數(shù)據(jù)的數(shù)據(jù)塊C.一個DataNode上存儲的所有數(shù)據(jù)塊可以有相同的D.響應客戶端的所有讀寫數(shù)據(jù)請求,為客戶端的存儲和讀取數(shù)據(jù)提供支撐7、對Hadoop中JobTacker的工作角色,以下說法不正確的是()。A.作業(yè)調(diào)度B.分配任務C.監(jiān)控CPU運行效率D.監(jiān)控任務執(zhí)行進度8、下列關(guān)于MapReduce說法不正確的是()A.MapReduce是一種計算框架B.MapReduce來源于google的學術(shù)論文C.MapReduce程序只能用java語言編寫D.MapReduce隱藏了并行計算的細節(jié),方便使用9、查看HDFS系統(tǒng)運行狀態(tài)的Shell命令,以下正確的是()。A.hdfs-reportB.dfsadmin-reportC.hadoop–reportD.hdfsdfsadmin-report10、Zookeeper使用()協(xié)議來提供一致性。A.ALIB.GUNC.TCPD.ZAB11、以下和Zookeeper框架類似的是?()A.ChubbyB.JavaC.KafkaD.Protobuf12、通過一次選舉過程,被選舉的機器節(jié)點被稱為()。A.管理者B.LeaderC.執(zhí)行者D.Znode13、從語法上看,以下語句,哪個是正確的?()A.createtabletb1(idint,namestring);B.altertabletb4addcolumns(ageint,sexboolean);C.createtabletb2liketb1;D.createtabletb4asselect*fromtb2;14、開發(fā)hive遠程服務程序,不需要添加哪些依賴包?()A.hadooplibB.hivelibC.jdbc連接包mysql-connector-java-5.1.26.jarD.webservice相關(guān)lib包15、下Hive中時間類型有哪些?()A.TimeB.DateC.DatetimeD.Times16、LSM結(jié)構(gòu)的數(shù)據(jù)首先存儲在()。A.內(nèi)存中B.磁盤中C.行中D.單元中17、HBase依賴()提供強大的計算能力。A.ProtobufB.JavaC.KafkaD.MapReduce18、散列就是讓()分散在集群的各個機器上,盡量不要讓它集中在一個地方。A.rowkeyB.keyvalueC.行號D.列族19、Worker節(jié)點根據(jù)()來決定啟動或停止Worker進程。A.NimbusB.StreamsC.TopoD.Supervisor20、Storm可方便地與()進行整合。A.隊列系統(tǒng)、數(shù)據(jù)庫系統(tǒng)B.分布式系統(tǒng)C.KafkaD.以上都不是二、填空題(20題,每題1分,共10分)21、安裝JDK后,Java的開發(fā)工具在目錄。22、類的定義包括聲明和聲明。23、為了能使用Java中已經(jīng)提供的類,我們需要用import語句來引入所需要的類。語句importjava.io.*;中引入了包的所有類。24、HDFS采用了的簡單文件模型。25、HDFS主要面向而設(shè)計的,采用讀取具有很高的。26、在傳統(tǒng)的文件系統(tǒng)中,為了提高磁盤的讀寫效率,一般以為單位。27、在Map任務全部結(jié)束之前,這些溢寫文件會被成一個大的文件。28、每個Map任務都會被分配一個緩存,Map的輸出結(jié)果不是立即寫入,而是首先寫入。29、在寫入緩存之前,key和value值都會被成字節(jié)數(shù)組。30、客戶端維護連接,通過該連接發(fā)送請求,獲取響應,獲取監(jiān)視事件以及發(fā)送心跳。31、ZooKeeper框架最初是在上構(gòu)建的。32、在集群中運行的每臺機器被稱為。33、數(shù)據(jù)庫中的存在于和數(shù)據(jù)庫同名的HDFS目錄中。34、Hive的目錄由參數(shù)來指定。35、用戶可以通過選項來忽略異常。36、為了方便在HBase上進行數(shù)據(jù)處理,為HBase提供了高效、便捷的RDBMS數(shù)據(jù)導入功能。37、表在水平方向由一個或多個組成。38、HBase采用、、和進行索引。39、Spout作為Storm中的。40、是Storm中對數(shù)據(jù)進行的抽象。三、判斷題,正確填“T”,錯誤填“F”(20題,每題1分,共20分)41、在使用硬鏈接時,我們可以使用硬鏈接跨越不同的文件系統(tǒng)與另一個目錄連接()。42、如果用戶擁有目錄的寫許可,則該用戶可以創(chuàng)建、刪除或修改目錄中的任何文件或子目錄,甚至屬于其他用戶的文件和子目錄()。43、在系統(tǒng)日志文件/var/log/wtmp中保存了所有的用戶登錄、退出信息,以及系統(tǒng)的啟動、停機記錄()。44、HDFS可以實現(xiàn)磁盤配額和文件訪問權(quán)限等功能。()45、數(shù)據(jù)存取策略包括數(shù)據(jù)存放、數(shù)據(jù)寫入。()46、HDFS提供了一個API可以確定一個數(shù)據(jù)節(jié)點所屬的機架ID。()47、如果沒有指定輸出目錄或者它已經(jīng)存在,作業(yè)就不會被提交,并返回錯誤。()48、ClientNode通過調(diào)用JobTracker的submitJob()方法,告知JobTracker準備執(zhí)行作業(yè)。()49、任務或作業(yè)的信息不包括狀態(tài)消息。()50、在Zookeeper中,znode是一個跟Unix文件系統(tǒng)路徑相似的節(jié)點。()51、Zookeeper使用Watcher察覺事件信息。()52、HBase內(nèi)置有ZooKeeper,也可以使用外部ZooKeeper。()53、0.13版本以上的Hive不具有半連接。()54、Hive支持的子查詢時放在FROM子句中的。()55、Hive支持任意層次的子查詢。()56、Zookeeper中保存了-ROOT-表的地址和Master的地址。(T)57、Region服務器是HBase中最核心的模塊。(T)58、HBase自身具備數(shù)據(jù)復制和維護數(shù)據(jù)副本的功能。(F)59、Bolt是Storm中的消息源。(F)60、一個Spout或Bolt都會有一個Task線程來運行。(F)四、簡答題(6題,每題5分,共30分)61、試論述HLog的工作原理。答:62、HBase的數(shù)據(jù)分區(qū)機制是什么?答:63、試論述關(guān)系數(shù)據(jù)庫在哪些方面無法滿足Web2.0應用的需求。答:64、NoSQL數(shù)據(jù)庫的四大類型是什么?答:65、什么是軟無硬狀態(tài)?答:66、MapReduce是處理大數(shù)據(jù)的有力工具,但不是每個任務都可以使用MapReduce來進行處理。試論述適合用MapReduce來處理的任務或者數(shù)據(jù)集需滿足怎樣的需求?答:《大數(shù)據(jù)平臺搭建與配置管理》期末標答期末標答B(yǎng)(閉卷)題號一二三四五六七八九十成績滿分30202030100得分一、選擇題(2

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論