Hadoop精彩試題題庫_第1頁
Hadoop精彩試題題庫_第2頁
Hadoop精彩試題題庫_第3頁
已閱讀5頁,還剩11頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領

文檔簡介

1、1. 以下哪一項不屬于 Hadoop可以運行的模式 CA. 單機(本地)模式B. 偽分布式模式C. 互聯(lián)模式D. 分布式模式2. Hadoop的作者是下面哪一位_B.A. Marti n FowlerB. Doug cutt ingC. Kent BeckD. Grace Hopper3. 下列哪個程序通常與NameNode在同一個節(jié)點啟動 _D.A. TaskTrackerB. DataNodeC. Seco ndaryNameNodeD. Jobtracker4. HDFS 默認 Block Size的大小是 _B_。A. 32MBB. 64MBC. 128MBD. 256M5. 下列哪項

2、通常是集群的最主要瓶頸 CA. CPUB. 網(wǎng)絡C. 磁盤10D. 內(nèi)存6. 下列關于 MapReduce說法不正確的是 C_。A. MapReduce是一種計算框架B. MapReduce來源于google的學術論文C. MapReduce程序只能用java語言編寫D. MapReduce隱藏了并行計算的細節(jié),方便使用8. HDFS是基于流數(shù)據(jù)模式訪問和處理超大文件的需求而開發(fā)的,具有高容錯、高可靠性、 高可擴展性、高吞吐率等特征,適合的讀寫任務是_D。A. 次寫入,少次讀B. 多次寫入,少次讀C. 多次寫入,多次讀D. 次寫入,多次讀9. HBase依靠 A存儲底層數(shù)據(jù)。A. HDFSB.

3、 HadoopC. MemoryD. MapReduce10. HBase依賴 D 供強大的計算能力。A. ZookeeperB. ChubbyC. RPCD. MapReduce11. HBase依賴 A 提供消息通信機制A. ZookeeperB. ChubbyC. RPCD. Socket12. 下面與HDFS類似的框架是_C?A. NTFSB. FAT32C. GFSD. EXT313. 關于SecondaryNameNode下面哪項是正確的 C 。A. 它是NameNode的熱備B. 它對內(nèi)存沒有要求C. 它的目的是幫助 NameNode合并編輯日志,減少NameNode啟動時間D.

4、 SecondaryNameNode 應與 NameNode 部署到一個節(jié)點14. 大數(shù)據(jù)的特點不包括下面哪一項_D_。A. 巨大的數(shù)據(jù)量B. 多結構化數(shù)據(jù)C. 增長速度快D. 價值密度高HBase測試題1. HBase來源于哪一項?CA The Google File SystemB MapReduceC BigTableD Chubby2. 下面對HBase的描述哪些是正確的?B、C DA不是開源的B是面向列的C是分布式的D是一種NoSQL數(shù)據(jù)庫3. HBase依靠()存儲底層數(shù)據(jù)AA HDFSB HadoopC MemoryD Map Reduce4. HBase依賴()提供消息通信機制

5、AA ZookeeperB ChubbyC RPCD Socket5. HBase依賴()提供強大的計算能力DA ZookeeperB ChubbyC RPCD Map Reduce6. Map Reduce與HBase的關系,哪些描述是正確的?B、CA兩者不可或缺,Map Reduce是 HBase可以正常運行的保證B兩者不是強關聯(lián)關系,沒有 Map Reduce HBase可以正常運行C Map Reduce可以直接訪問 HBaseD它們之間沒有任何關系7. 下面哪些選項正確描述了HBase的特性? A、B、C DA高可靠性B高性能C面向列D可伸縮8. 下面與Zookeeper類似的框架是

6、? DA ProtobufB JavaC KafkaD Chubby9. 下面與HDFS類似的框架是? CA NTFSB FAT32C GFSD EXT310. 下面哪些概念是 HBase框架中使用的? A、CA HDFSB GridFSC ZookeeperD EXT3第二部分:HBase核心知識點11. LSM含義是? AA日志結構合并樹B二叉樹C平衡二叉樹D基于日志結構的合并樹12. 下面對LSM結構描述正確的是?A、CA順序存儲B直接寫硬盤C需要將數(shù)據(jù)Flush到磁盤D是一種搜索平衡樹13. LSM更能保證哪種操作的性能?BA讀B寫C隨機讀D合并14. LSM的讀操作和寫操作是獨立的?

7、AA是。B否。C LSM并不區(qū)分讀和寫D LSM中讀寫是同一種操作15. LSM結構的數(shù)據(jù)首先存儲在()。BA硬盤上B內(nèi)存中C磁盤陣列中D閃存中16 HFile數(shù)據(jù)格式中的 Data字段用于()。AA存儲實際的 KeyValue數(shù)據(jù)B存儲數(shù)據(jù)的起點C指定字段的長度D存儲數(shù)據(jù)塊的起點17 HFile 數(shù)據(jù)格式中的 Metalndex字段用于()。DA Meta塊的長度B Meta塊的結束點C Meta塊數(shù)據(jù)內(nèi)容D Meta塊的起始點18 HFile數(shù)據(jù)格式中的 Magic字段用于()。AA存儲隨機數(shù),防止數(shù)據(jù)損壞B存儲數(shù)據(jù)的起點C存儲數(shù)據(jù)塊的起點D指定字段的長度19 HFile 數(shù)據(jù)格式中的Ke

8、yValue數(shù)據(jù)格式,下列選項描述正確的是()。A、DA是byte數(shù)組B沒有固定的結構C數(shù)據(jù)的大小是定D有固定的結構長的20 HFile數(shù)據(jù)格式中的 KeyValue數(shù)據(jù)格式中Value部分是()。CA擁有復雜結構的字符串B字符串C二進制數(shù)據(jù)D壓縮數(shù)據(jù)第三部分:HBase高級應用介紹31 HBase中的批量加載底層使用()實現(xiàn)。 AA MapReduceB HiveC CoprocessorD Bloom Filter32. HBase性能優(yōu)化包含下面的哪些選項?A、B C、DA讀優(yōu)化B寫優(yōu)化C配置優(yōu)化D JVM優(yōu)化33. Rowkey設計的原則,下列哪些選項的描述是正確的?A、B、CA盡量保

9、證越短越好B可以使用漢字C可以使用字符串D本身是無序的34. HBase構建二級索引的實現(xiàn)方式有哪些?A、BA MapReduceB CoprocessorC Bloom FilterD Filter35. 關于HBase二級索引的描述,哪些是正確的?A BA核心是倒排表B二級索引概念是對應 Rowkey這個"一級”索引C二級索引使用平衡二叉樹D二級索引使用LSM結構36. 下列關于Bloom Filter的描述正確的是?A、CA是一個很長的二進制向量和一系列隨機映射函數(shù)B沒有誤算率C有一定的誤算率D可以在 Bloom Filter中刪除元素第四部分:HBase安裝、部署、啟動37.

10、 HBase官方版本可以安裝在什么操作系統(tǒng)上?A、B、CA Ce ntOSB Ubu ntuC RedHatD Win dows38. HBase虛擬分布式模式需要()個節(jié)點?AA 1D最少3個39. HBase分布式模式最好需要()個節(jié)點?CB 2C 3D最少關于hadoop的選擇題1、Doug Cutting所創(chuàng)立的項目的名稱都受到其家人的啟發(fā),以下項目不是由他 創(chuàng)立的項目是A. HadoopB. NutchC. LuceneD. Solr答案:D2、配置Hadoop時,JAVA_HOM包含在哪一個配置文件中A. hadoop-default.xmlB. hadoop-e nv .shC.

11、 hadoop-site.xmlD. con figuratio n. xsl答案:B知識點:hadoop配置3、 Hadoop配置文件中,hadoop-site.xml 顯示覆蓋 hadoop-default.xml 里的內(nèi) 容。在版本0.20中,hadoop-site.xml 被分離成三個 XML文件,不包括A. con f-site.xmlB. mapred-site.xmlC. core-site.xmlD. hdfs-site.xml答案:A知識點:hadoop配置4、 HDFS默認的當前工作目錄是/user/$USER , 的值需要在哪個 配置文件內(nèi)說

12、明A. mapred-site.xmlB. core-site.xmlC. hdfs-site.xmlD. 以上均不是答案:B知識點:hadoop配置5、關于Hadoop單機模式和偽分布式模式的說法,正確的是A. 兩者都起守護進程,且守護進程運行在一臺機器上B. 單機模式不使用HDFS但加載守護進程C. 兩者都不與守護進程交互,避免復雜性D. 后者比前者增加了 HDFS俞入輸出以及可檢查內(nèi)存使用情況答案:D知識點:hadoop配置6 下列關于Hadoop API的說法錯誤的是A. Hadoop的文件API不是通用的,只用于 HDFSfc件系統(tǒng)B. Con figurati on類的默認實例化方

13、法是以HDFS系統(tǒng)的資源配置為基礎的C. FileStatus 對象存儲文件和目錄的元數(shù)據(jù)D. FSDataInputStream 是 java.io.DatalnputStream 的子類答案:A/HDFS 7、HDFS的NameNode負責管理文件系統(tǒng)的命名空間,將所有的文件和文件夾的 元數(shù)據(jù)保存在一個文件系統(tǒng)樹中,這些信息也會在硬盤上保存成以下文件:A. 日志B. 命名空間鏡像C. 兩者都是答案:C知識點:8、HDFS勺namenode保存了一個文件包括哪些數(shù)據(jù)塊,分布在哪些數(shù)據(jù)節(jié)點上, 這些信息也存儲在硬盤上。A. 正確B錯誤答案:B知識點:在系統(tǒng)啟動的時候從數(shù)據(jù)節(jié)點收集而成的9、Se

14、condary namenode就是namenode出現(xiàn)問題時的備用節(jié)點A. 正確 B錯誤 答案:B知識點:它和元數(shù)據(jù)節(jié)點負責不同的事情。其主要功能就是周期性將元數(shù)據(jù)節(jié)點 的命名空間鏡像文件和修改日志合并,以防日志文件過大。合并過后的命名空間鏡像文件也在Seco ndary name node保存了一份,以防name node失敗的時候,可 以恢復。10、 出現(xiàn)在data node的VERSION件格式中但不出現(xiàn)在 name no de的VERSION 文件格式中的是A. n amespaceIDB. storageIDC. storageTypeD. layoutVers ion答案:B知識

15、點:其他三項是公有的。layoutVersion 是一個負整數(shù),保存了 HDFS的持 續(xù)化在硬盤上的數(shù)據(jù)結構的格式版本號;namespaceID是文件系統(tǒng)的唯一標識符, 是在文件系統(tǒng)初次格式化時生成的;storageType表示此文件夾中保存的是數(shù)據(jù) 節(jié)點的類型11、Clie nt在HDFSt進行文件寫入時,name node根據(jù)文件大小和配置情況,返 回部分data node信息,誰負責將文件劃分為多個 Block,根據(jù)DataNode的地址 信息,按順序?qū)懭氲矫恳粋€DataNode塊A. Clie ntB. Name nodeC. Data nodeD. Secon dary n ame

16、node答案:A知識點:HDFSfc件寫入12、HDFS的是基于流數(shù)據(jù)模式訪問和處理超大文件的需求而開發(fā)的,默認的最 基本的存儲單位是64M具有咼容錯、咼可靠性、咼可擴展性、咼吞吐率等特征, 適合的讀寫任務是A. 次寫入,少次讀寫B(tài)多次寫入,少次讀寫C一次寫入,多次讀寫D. 多次寫入,多次讀寫答案:C知識點:HDFS!性13、HDFS無法高效存儲大量小文件,想讓它能處理好小文件,比較可行的改進 策略不包括A. 利用SequenceFile、MapFile、Har等方式歸檔小文件B. 多Master設計C. Block大小適當調(diào)小D. 調(diào)大namenode內(nèi)存或?qū)⑽募到y(tǒng)元數(shù)據(jù)存到硬盤里答案:D

17、知識點:HDFSI性14、關于HDFS的文件寫入,正確的是A. 支持多用戶對同一文件的寫操作B. 用戶可以在文件任意位置進行修改C. 默認將文件塊復制成三份存放D. 復制的文件塊默認都存在同一機架上答案:C知識點:在HDFS的個文件中只有一個寫入者,而且寫操作只能在文件末尾完 成,即只能執(zhí)行追加操作。默認三份文件塊兩塊在同一機架上, 另一份存放在其 他機架上。15、Hadoop fs中的-get和-put命令操作對象是A. 文件B. 目錄C. 兩者都是答案:C知識點:HDF歸令16、Name nod在啟動時自動進入安全模式,在安全模式階段,說法錯誤的是A. 安全模式目的是在系統(tǒng)啟動時檢查各個

18、DataNode上數(shù)據(jù)塊的有效性B. 根據(jù)策略對數(shù)據(jù)塊進行必要的復制或刪除C. 當數(shù)據(jù)塊最小百分比數(shù)滿足的最小副本數(shù)條件時,會自動退出安全模式D. 文件系統(tǒng)允許有修改答案:D知識點:HDFS安全模式/Map Reduce17、MapReduce框架提供了一種序列化鍵/值對的方法,支持這種序列化的類能 夠在Map和Reduce過程中充當鍵或值,以下說法錯誤的是A. 實現(xiàn)Writable接口的類是值B. 實現(xiàn)WritableComparable<T>接口的類可以是值或鍵C. Hadoop 的基本類型 Text 并不實現(xiàn) WritableComparable<T> 接口D.

19、鍵和值的數(shù)據(jù)類型可以超出 Hadoop自身支持的基本類型答案:C18、以下四個Hadoop預定義的Mapper實現(xiàn)類的描述錯誤的是A. Ide ntity Map per<K, V>B. In verseM appervK, V>C. RegexMappervK > 實現(xiàn) 規(guī)表達式的匹配項生成一個實現(xiàn)MappervK, V, K, V>,將輸入直接映射到輸出 實現(xiàn)Mapper<K, V, K, V>,反轉(zhuǎn)鍵/值對Map per<K, Text, Text, L on gWritable>,為每個常(match, 1)對D. TokenCou

20、ntMapper<K>實現(xiàn) Mapper<K, Text, Text, LongWritable>,當輸入的值為分詞時,生成(taken, 1)對答案:B 知識點:In verse Map per<K, V> 實現(xiàn) Map per<K, V, V, K> 19、下列關于HDFS為存儲MapReduce并行切分和處理的數(shù)據(jù)做的設計,錯誤的 是A. FSDatalnputStream 擴展了 DatalnputStream 以支持隨機讀B. 為實現(xiàn)細粒度并行,輸入分片(In put Split)應該越小越好C. 一臺機器可能被指派從輸入文件的任意位置

21、開始處理一個分片D. 輸入分片是一種記錄的邏輯劃分,而HDFS數(shù)據(jù)塊是對輸入數(shù)據(jù)的物理分割 答案:B知識點:每個分片不能太小,否則啟動與停止各個分片處理所需的開銷將占很大 一部分執(zhí)行時間20、針對每行數(shù)據(jù)內(nèi)容為” Timestamp Url ”的數(shù)據(jù)文件,在用JobConf對象conf 設置 conf.setInputFormat(WhichInputFormat.class)來讀取這個文件時,Which In putFormat應該為以下的A. TextI nputFormatB. KeyValueTextI nputFormatC. Seque nceFile In putFormatD.

22、 NLi nel nputFormat答案:B知識點:四項主要的InputFormat類。KeyValueTextInputFormat以每行第一個 分隔符為界,分隔符前為key,之后為value,默認制表符為t21、有關Map Reduce的輸入輸出,說法錯誤的是A. 鏈接多個Map Reduct乍業(yè)時,序列文件是首選格式B. FileInputFormat中實現(xiàn)的getSplits() 可以把輸入數(shù)據(jù)劃分為分片,分片 數(shù)目和大小任意定義C. 想完全禁止輸出,可以使用 NullOutputFormatD. 每個reduce需將它的輸出寫入自己的文件中,輸出無需分片答案:B知識點:分片數(shù)目在

23、numSplits中限定,分片大小必須大于map red.mi n. size個字節(jié),但小于文件系統(tǒng)的塊22、Hadoop Streami ng支持腳本語言編寫簡單 Map Reduce程序,以下是一個例 子:bin/hadoop jar con trib/streami ng/hadoop-0.20-streami ng.jarin put in put/file nameoutput outputmapper dosth.py 5 'file dosth.pyD mapred.reduce.tasks=123、以下說法不正確的是A. Hadoop Streaming使用Unix中的

24、流與程序交互B. Hadoop Streami ng允許我們使用任何可執(zhí)行腳本語言處理數(shù)據(jù)流C. 采用腳本語言時必須遵從 UNIX的標準輸入STDIN并輸出到STDOUTD. Reduce沒有設定,上述命令運行會出現(xiàn)問題答案:D知識點:沒有設定特殊的reducer,默認使用IdentityReducer24、在高階數(shù)據(jù)處理中,往往無法把整個流程寫在單個 MapReducd乍業(yè)中,下列 關于鏈接Map Reduct乍業(yè)的說法,不正確的是A. Job和JobControl類可以管理非線性作業(yè)之間的依賴B. Cha inM apper和Cha in Reducer類可以用來簡化數(shù)據(jù)預處理和后處理的構

25、成C. 使用Cha in Reducer時,每個 map per和reducer對象都有一個本地 JobC onf 對象D. Cha in Reducer.addM apper()方法中,一般對鍵/值對發(fā)送設置成值傳遞,性能 好且安全性高答案:D知識點:Cha in Reducer.addM apper()方法中,值傳遞安全性高,引用傳遞性能高 25、下面哪個程序負責HDFS數(shù)據(jù)存儲。答案C data nodea) NameNodeb) Jobtrackerc) Data noded) sec on daryNameNodee) tasktracker26. HDfS中的block默認保存幾份

26、?答案A默認3分a) 3份b) 2份c) 1份d) 不確定27. 下列哪個程序通常與NameNode在一個節(jié)點啟動?答案 Da) Sec on daryNameNodeb) DataNodec) TaskTrackerd) Jobtracker28. Hadoop 作者 答案 C Doug cuttinga) Marti n Fowlerb) Ke nt Beckc) Doug cutt ing29. HDFS 默認 Block Size 答案:Ba) 32MBb) 64MBc) 128MB30、下列哪項通常是集群的最主要瓶頸:答案:C磁盤a)CPUb)網(wǎng)絡c)磁盤10d)內(nèi)存31. 關于Se

27、condaryNameNode哪項是正確的?答案 Ca)它是NameNode的熱備b)它對內(nèi)存沒有要求c)它的目的是幫助NameNode合并編輯日志,減少 NameNode啟動時間 d)Seco ndaryNameNode 應與 NameNode 部署到一個節(jié)點。多選題:1. 下列哪項可以作為集群的管理?答案: ABDa) Puppetb) Pdshc) Cloudera Man agerd) Zookeeper2. 配置機架感知的下面哪項正確:答案 ABCa)如果一個機架出問題,不會影響數(shù)據(jù)讀寫b)寫入數(shù)據(jù)的時候會寫到不同機架的 DataNode中c)MapReduce會根據(jù)機架獲取離自己比較近的網(wǎng)絡數(shù)據(jù)3. Clie nt端上傳文件的時候下列哪項正確?答案 Ba)數(shù)據(jù)經(jīng)過NameNode傳遞給DataNodeb)Client 端將文件切分為Block,依次上傳c)Client只上傳數(shù)據(jù)到一臺DataNode,然后由NameNode負責Block復制工作4. 下列哪個是Hadoop運行的模式:答案ABCa)單機版b)偽分布式c)

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論