




下載本文檔
版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)
文檔簡介
1、實用文檔1.以下哪一項不屬于 Hadoop可以運行的模式 CA.單機(本地)模式B.偽分布式模式C.互聯(lián)模式D.分布式模式2. Hadoop的作者是下面哪一位_B。A. Martin FowlerB. Doug cuttingC. Kent BeckD. Grace Hopper3. 下列哪個程序通常與 NameNode在同一個節(jié)點啟動 _DA. TaskTrackerB. DataNodeC. SecondaryNameNodeD. Jobtracker4. HDFS 默認 Block Size的大小是B。A.32MBB.64MBC.128MBD.256M5 .下列哪項通常是集群的最主要瓶頸
2、 C_oA. CPUB.網(wǎng)絡(luò)C.磁盤IOD.內(nèi)存6 .下列關(guān)于 MapReduce說法不正確的是 C_。A. MapReduce是一種計算框架B. MapReduce來源于google的學術(shù)論文C. MapReduce程序只能用java語言編寫D. MapReduce隱藏了并行計算的細節(jié),方便使用8. HDFS是基于流數(shù)據(jù)模式訪問和處理超大文件的需求而開發(fā)的,具有高容錯、高可靠性、 高可擴展性、高吞吐率等特征,適合的讀寫任務(wù)是_D。A. 一次寫入,少次讀B.多次寫入,少次讀C.多次寫入,多次讀D. 一次寫入,多次讀9. HBase依靠 A存儲底層數(shù)據(jù)。A. HDFSB. HadoopC. Me
3、moryD. MapReduce10. HBase依賴 D_提供強大的計算能力。A. ZookeeperB. ChubbyC. RPCD. MapReduce11. HBase依賴 A 提供消息通信機制A. ZookeeperB. ChubbyC. RPCD. Socket12. 下面與HDF砥似的木g架是 C?A. NTFSB. FAT32C. GFSD. EXT313. 關(guān)于SecondaryNameNode下面哪項是正確的 C。A.它是NameNode的熱備B.它對內(nèi)存沒有要求C.它的目的是幫助 NameNode合并編輯日志,減少 NameNode啟動時間D. SecondaryName
4、Node 應(yīng)與 NameNode 部署到一個節(jié)點14.大數(shù)據(jù)的特點不包括下面哪一項D。A.巨大的數(shù)據(jù)量B.多結(jié)構(gòu)化數(shù)據(jù)C.增長速度快D.價值密度高HBase測試題1. HBase來源于哪一項?CA The Google File SystemB MapReduceC BigTableD Chubby2 .下面對HBase的描述哪些是正確的?B、C DA不是開源的B是面向列的C是分布式的D是一種NoSQ改據(jù)庫3 . HBase依靠()存儲底層數(shù)據(jù)AA HDFSB HadoopC MemoryD MapReduce4 . HBase依賴()提供消息通信機制AA ZookeeperB ChubbyC
5、 RPCD Socket5 . HBase依賴()提供強大的計算能力DA ZookeeperB ChubbyC RPCD MapReduce6 . MapReduce與HBase的關(guān)系,哪些描述是正確的?B、CA兩者不可或缺,MapReducel! HBase可以正常運行的保證B兩者不是強關(guān)聯(lián)關(guān)系,沒有 MapReduce HBase可以正常運行C MapReduce可以直接訪問 HBaseD它們之間沒有任何關(guān)系7 .下面哪些選項正確描述了HBase的特性? A、B、C DA高可靠性B高性能C面向列D可伸縮8 .下面與Zookeeper類似的框架是? DA ProtobufB JavaC Ka
6、fkaD Chubby9 .下面與HDF睽似的框架是? CA NTFSB FAT32C GFSD EXT310 .下面哪些概念是 HBase框架中使用的? A、CA HDFSB GridFSC ZookeeperD EXT3第二部分:HBase核心知識點11 . LSM含義是? AA日志結(jié)構(gòu)合并樹B二叉樹C平衡二叉樹D基于日志結(jié)構(gòu)的合并樹12 .下面對LSM結(jié)構(gòu)描述正確的是?A、CA順序存儲B直接寫硬盤C需要將數(shù)據(jù)Flush到磁盤D是一種搜索平衡樹13 . LSM更能保證哪種操作的性能?BA讀B寫C隨機讀D合并14 . LSM的讀操作和寫操作是獨立的?AA是。B否。C LSM并不區(qū)分讀和寫D
7、LSM中讀寫是同一種操作15 . LSM結(jié)構(gòu)的數(shù)據(jù)首先存儲在()。BA硬盤上B內(nèi)存中C磁盤陣列中D閃存中16 HFile數(shù)據(jù)格式中的 Data字段用于()。AA存儲實際的 KeyValue數(shù)據(jù)B存儲數(shù)據(jù)的起點C指定字段的長度D存儲數(shù)據(jù)塊的起點17 HFile 數(shù)據(jù)格式中的 Metaindex字段用于()。DA Meta塊的長度B Meta塊的結(jié)束點C Meta塊數(shù)據(jù)內(nèi)容D Meta塊的起始點18 HFile數(shù)據(jù)格式中的 Magic字段用于()°AA存儲隨機數(shù),防止數(shù)據(jù)損壞B存儲數(shù)據(jù)的起點C存儲數(shù)據(jù)塊的起點D指定字段的長度19 HFile數(shù)據(jù)格式中的 KeyValue數(shù)據(jù)格式,下列選項
8、描述正確的是()。A、DA是byte口數(shù)組B沒有固定的結(jié)構(gòu)C數(shù)據(jù)的大小是定長的D有固定的結(jié)構(gòu)20 HFile 數(shù)據(jù)格式中的 KeyValue數(shù)據(jù)格式中 Value部分是()。CA擁有復(fù)雜結(jié)構(gòu)的字符串B字符串C二進制數(shù)據(jù)D壓縮數(shù)據(jù)第三部分:HBase高級應(yīng)用介紹31. HBase中的批量加載底層使用()實現(xiàn)。 AA MapReduceB HiveC CoprocessorD Bloom Filter32. HBase性能優(yōu)化包含下面的哪些選項?A、B C、DA讀優(yōu)化B寫優(yōu)化C配置優(yōu)化標準文案D JVM優(yōu)化33. Rowkey設(shè)計的原則,下列哪些選項的描述是正確的?A、B、CA盡量保證越短越好B可
9、以使用漢字C可以使用字符串D本身是無序的34. HBase構(gòu)建二級索引的實現(xiàn)方式有哪些?A、BA MapReduceB CoprocessorC Bloom FilterD Filter35. 關(guān)于HBase二級索引的描述,哪些是正確的?A、BA核心是倒排表B二級索引概念是對應(yīng) Rowkey這個“一級”索引C二級索引使用平衡二叉樹D二級索引使用LSM吉構(gòu)36. 下列關(guān)于Bloom Filter的描述正確的是? A、CA是一個很長的二進制向量和一系列隨機映射函數(shù)B沒有誤算率C有一定的誤算率D可以在 Bloom Filter中刪除元素第四部分:HBase安裝、部署、啟動37. HBase官方版本可
10、以安裝在什么操作系統(tǒng)上?A、B、CA CentOSB UbuntuC RedHatD Windows38. HBase虛擬分布式模式需要()個節(jié)點? AA 1B 2C 3D最少3個39. HBase分布式模式最好需要()個節(jié)點? CA 1B 2C 3D最少關(guān)于hadoop的選擇題1、Doug Cutting所創(chuàng)立的項目的名稱都受到其家人的啟發(fā),以下項目不是由他 創(chuàng)立的項目是A. HadoopB. NutchC. LuceneD. Solr答案:D2、配置Hadoop時,JAVA_HOMfe含在哪一個配置文件中A. hadoop-default.xmlB. hadoop-env.shC. had
11、oop-site.xmlD. configuration.xsl答案:B知識點:hadoop配置3、Hadoop配置文件中,hadoop-site.xml 顯示覆蓋 hadoop-default.xml 里的內(nèi) 容。在版本0.20中,hadoop-site.xml 被分離成三個 XMLt件,不包括A. conf-site.xmlB. mapred-site.xmlC. core-site.xmlD. hdfs-site.xml答案:A知識點:hadoop配置4、HDFSR認的當前工作目錄是/user/$USER, 的值需要在哪個配置文件內(nèi)說明A. mapred-s
12、ite.xmlB. core-site.xmlC. hdfs-site.xmlD.以上均不是答案:B知識點:hadoop配置5、關(guān)于Hadoop單機模式和偽分布式模式的說法,正確的是A. 兩者都起守護進程,且守護進程運行在一臺機器上B. 單機模式不使用HDFS但加載守護進程C. 兩者都不與守護進程交互,避免復(fù)雜性D. 后者比前者增加了 HDFS俞入輸出以及可檢查內(nèi)存使用情況答案:D知識點:hadoop配置6、下列關(guān)于Hadoop API的說法錯誤的是A. Hadoop的文件API不是通用的,只用于 HDFSfc件系統(tǒng)B. Configuration類的默認實例化方法是以HDFS(統(tǒng)的資源配置為
13、基礎(chǔ)的C. FileStatus對象存儲文件和目錄的元數(shù)據(jù)D. FSDataInputStream 是 java.io.DataInputStream 的子類答案:A/HDFS 7、HDFS勺NameNod總責管理文件系統(tǒng)的命名空間,將所有的文件和文件夾的 元數(shù)據(jù)保存在一個文件系統(tǒng)樹中,這些信息也會在硬盤上保存成以下文件: A.日志B.命名空間鏡像C.兩者都是答案:C知識點:8、HDFS勺namenode呆存了一個文件包括哪些數(shù)據(jù)塊,分布在哪些數(shù)據(jù)節(jié)點上, 這些信息也存儲在硬盤上。A.正確8 .錯誤答案:B知識點:在系統(tǒng)啟動的時候從數(shù)據(jù)節(jié)點收集而成的9 、 Secondary namenode
14、就是namenodeH現(xiàn)問題時的備用節(jié)點A.正確B.錯誤答案:B知識點:它和元數(shù)據(jù)節(jié)點負責不同的事情。其主要功能就是周期性將元數(shù)據(jù)節(jié)點 的命名空間鏡像文件和修改日志合并,以防日志文件過大。合并過后的命名空間鏡像文件也在Secondary namenode呆存了一份,以防namenod吹敗的時候,可 以恢復(fù)。10、出現(xiàn)在datanode的VERSIONt件格式中但不出現(xiàn)在 namenode的VERSION 文件格式中的是A. namespaceIDB. storageIDC. storageTypeD. layoutVersion答案:B知識點:其他三項是公有的。layoutVersion 是一
15、個負整數(shù),保存了 HDFS的持 續(xù)化在硬盤上的數(shù)據(jù)結(jié)構(gòu)的格式版本號;namespaceID是文件系統(tǒng)的唯一標識符, 是在文件系統(tǒng)初次格式化時生成的;storageType表示此文件夾中保存的是數(shù)據(jù) 節(jié)點的類型11、Client在HDFS±進行文件寫入時,namenodet艮據(jù)文件大小和配置情況,返 回部分datanode信息,誰負責將文件劃分為多個 Block,根據(jù)DataNode的地址 信息,按順序?qū)懭氲矫恳粋€DataNode塊A. ClientB. NamenodeC. DatanodeD. Secondary namenode答案:A知識點:HDFSC件寫入12、HDFS的是基
16、于流數(shù)據(jù)模式訪問和處理超大文件的需求而開發(fā)的,默認的最 基本的存儲單位是64M具有高容錯、高可靠性、高可擴展性、高吞吐率等特征, 適合的讀寫任務(wù)是A. 一次寫入,少次讀寫B(tài).多次寫入,少次讀寫C. 一次寫入,多次讀寫D.多次寫入,多次讀寫答案:C知識點:HDFSI性13、HDFS無法高效存儲大量小文件,想讓它能處理好小文件,比較可行的改進 策略不包括A. 利用SequenceFile、MapFile、Har等方式歸檔小文件B. 多Master設(shè)計C. Block大小適當調(diào)小D. 調(diào)大namenode內(nèi)存或?qū)⑽募到y(tǒng)元數(shù)據(jù)存到硬盤里答案:D知識點:HDFSI性14、關(guān)于HDFS勺文件寫入,正確的
17、是A. 支持多用戶對同一文件的寫操作B. 用戶可以在文件任意位置進行修改C. 默認將文件塊復(fù)制成三份存放D. 復(fù)制的文件塊默認都存在同一機架上答案:C知識點:在HDFS勺一個文件中只有一個寫入者,而且寫操作只能在文件末尾完成,即只能執(zhí)行追加操作。默認三份文件塊兩塊在同一機架上, 另一份存放在其 他機架上。15、Hadoop fs中的-get和-put命令操作對象是A. 文件B. 目錄C. 兩者都是答案:C知識點:HDF階令16、Namenodei啟動時自動進入安全模式,在安全模式階段,說法錯誤的是A.安全模式目的是在系統(tǒng)啟動時檢查各個 DataNode上數(shù)據(jù)塊的有效性B . 根據(jù)策略對數(shù)據(jù)塊進
18、行必要的復(fù)制或刪除C. 當數(shù)據(jù)塊最小百分比數(shù)滿足的最小副本數(shù)條件時,會自動退出安全模式D. 文件系統(tǒng)允許有修改答案:D知識點:HDFSe全模式/MapReduce17、MapReduce框架提供了一種序列化鍵/值對的方法,支持這種序列化的類能 夠在Map和Reduce過程中充當鍵或值,以下說法錯誤的是A. 實現(xiàn)Writable接口的類是值B. 實現(xiàn)WritableComparable<T>接口的類可以是值或鍵C. Hadoop 的基本類型 Text 并不實現(xiàn) WritableComparable<T> 接口D. 鍵和值的數(shù)據(jù)類型可以超出 Hadoop自身支持的基本類型答
19、案:C18、以下四個Hadoop預(yù)定義的Mapper實現(xiàn)類的描述錯誤的是A. IdentityMapper<K, V> 實現(xiàn) Mapper<K, V, K, V> ,將輸入直接映射到輸出B. InverseMapper<K, V> 實現(xiàn) Mapper<K, V, K, V> ,反轉(zhuǎn)鍵/值對C. RegexMapper<K>實現(xiàn) Mapper<K, Text, Text, LongWritable> ,為每個常 規(guī)表達式的匹配項生成一個(match, 1)對D. TokenCountMapper<K>實現(xiàn) Map
20、per<K, Text, Text, LongWritable> ,當輸 入的值為分t時,生成(taken, 1)對答案:B知識點:InverseMapper<K, V> 實現(xiàn) Mapper<K, V, V, K>19、下列關(guān)于HDF勃存儲MapReduce并行切分和處理的數(shù)據(jù)做的設(shè)計,錯誤的A. FSDataInputStream 擴展了 DataInputStream 以支持隨機讀B. 為實現(xiàn)細粒度并行,輸入分片(Input Split) 應(yīng)該越小越好C. 一臺機器可能被指派從輸入文件的任意位置開始處理一個分片D. 輸入分片是一種記錄的邏輯劃分,而HDF
21、激據(jù)塊是對輸入數(shù)據(jù)的物理分割答案:B知識點:每個分片不能太小,否則啟動與停止各個分片處理所需的開銷將占很大 一部分執(zhí)行時間20、針對每行數(shù)據(jù)內(nèi)容為" Timestamp Url ”的數(shù)據(jù)文件,在用JobConf對象conf 設(shè)置 conf.setlnputFormat(WhichlnputFormat.class) 來讀取這個文件時, WhichlnputFormat應(yīng)該為以下的A. TextlnputFormatB. KeyValueTextlnputFormatC. SequenceFilelnputFormatD. NLineInputFormat答案:B知識點:四項主要的In
22、putFormat類。KeyValueTextInputFormat以每行第一個分隔符為界,分隔符前為key,之后為value,默認制表符為t21、有關(guān)MapReduce勺輸入輸出,說法錯誤的是A. 鏈接多個MapReduce乍業(yè)時,序列文件是首選格式B. FileInputFormat 中實現(xiàn)的getSplits() 可以把輸入數(shù)據(jù)劃分為分片,分片 數(shù)目和大小任意定義C. 想完全禁止輸出,可以使用 NullOutputFormatD. 每個reduce需將它的輸出寫入自己的文件中,輸出無需分片答案:B知識點:分片數(shù)目在 numSplits中限定,分片大小必須大于mapred.min.size
23、個字節(jié),但小于文件系統(tǒng)的塊22、Hadoop Streaming支持腳本語言編寫簡單 MapReduce®!序,以下是一個例bin/hadoop jar contrib/streaming/hadoop-0.20-streaming.jarinput input/filenameoutput outputmapper 'dosth.py 5 'file dosth.pyD mapred.reduce.tasks=123、以下說法不正確的是A. Hadoop Streaming使用Unix中的流與程序交互B. Hadoop Streaming允許我們使用任何可執(zhí)行腳本語
24、言處理數(shù)據(jù)流C. 采用腳本語言時必須遵從 UNIX的標準輸入STDIN并輸出到STDOUTD. Reduce沒有設(shè)定,上述命令運行會出現(xiàn)問題答案:D知識點:沒有設(shè)定特殊的reducer ,默認使用IdentityReducer 24、在高階數(shù)據(jù)處理中,往往無法把整個流程寫在單個 MapReduce乍業(yè)中,下列 關(guān)于鏈接MapReduce乍業(yè)的說法,不正確的是A. Job和JobControl類可以管理非線性作業(yè)之間的依賴B. ChainMapper和ChainReducer類可以用來簡化數(shù)據(jù)預(yù)處理和后處理的構(gòu)成C.使用ChainReducer時,每個 mapper和reducer對象都有一個本
25、地 JobConfD. ChainReducer.addMapper()方法中,一般對鍵/值對發(fā)送設(shè)置成值傳遞,性能 好且安全性高答案:D知識點:ChainReducer.addMapper()方法中,值傳遞安全性高,引用傳遞性能高25、下面哪個程序負責HDFS數(shù)據(jù)存儲。答案C datanodea)NameNode b)Jobtracker c)Datanode d)secondaryNameNode e)tasktracker26. HDfS中的block默認保存幾份?答案A默認3分a)3份b)2份c)1份d)不確定27. 下列哪個程序通常與NameNode在一個節(jié)點啟動?答案 D a)Se
26、condaryNameNodeb)DataNodec)TaskTrackerd)Jobtracker28. Hadoop 作者 答案 C Doug cutting a)Martin Fowler b)Kent Beck c)Doug cutting29. HDFS 默認 Block Size 答案:Ba)32MBb)64MBc)128MB 30、下列哪項通常是集群的最主要瓶頸:答案: C磁盤a)CPUb)網(wǎng)絡(luò)c)磁盤IOd)內(nèi)存31. 關(guān)于SecondaryNameNode哪項是正確的?答案 C a)它是NameNode的熱備b)它對內(nèi)存沒有要求c)它的目的是幫助NameNode合并編輯日志,
27、減少 NameNode啟動時間d)SecondaryNameNode 應(yīng)與 NameNode 部署到一個節(jié)點。多選題:1 .下列哪項可以作為集群的管理?答案: ABD a)Puppetb)Pdshc)Cloudera Managerd)Zookeeper2 .配置機架感知的下面哪項正確:答案 ABCa)如果一個機架出問題,不會影響數(shù)據(jù)讀寫b)寫入數(shù)據(jù)的時候會寫到不同機架的 DataNode中c)MapReduce會根據(jù)機架獲取離自己比較近的網(wǎng)絡(luò)數(shù)據(jù)3 . Client端上傳文件的時候下列哪項正確?答案 Ba)數(shù)據(jù)經(jīng)過NameNode傳遞給DataNodeb)Client 端將文件切分為Block ,依次上傳c)Client只上傳數(shù)據(jù)到一臺DataNode,然后由NameNode負責Block復(fù)制工4 .下列哪個是Hadoop運行的模式:答案ABCa)單機版b)偽分布式c)分布式5 . Clouder
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
- 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- YY/T 0107-2024眼科A型超聲測量儀
- 肉雞養(yǎng)殖購銷合同樣本
- 建筑外墻清洗服務(wù)合同范本
- 合同終止通知書模板與合同范本
- 工程技術(shù)人才勞動合同書
- 應(yīng)收賬款質(zhì)押貸款合同
- 機動車維修服務(wù)合同標準范本
- 勞動合同簡化版合同模板
- 個人貸款合同還款計劃書范本大全
- 簡版?zhèn)€人商業(yè)空間租賃合同
- 2025年黑龍江林業(yè)職業(yè)技術(shù)學院單招職業(yè)適應(yīng)性測試題庫審定版
- 生物-天一大聯(lián)考2025屆高三四省聯(lián)考(陜晉青寧)試題和解析
- 2025成人禮暨高三百日誓師校長演講稿-追夢不覺天涯遠 奮斗深感百日短
- 小學科學新課標科學課程標準解讀
- 湖南省長沙市北雅中學2024-2025學年九年級下學期開學考試英語試題(含答案含聽力原文無音頻)
- 2024年02月北京2024年江蘇銀行北京分行春季校園招考筆試歷年參考題庫附帶答案詳解
- 2025年駐村個人工作計劃
- 重磅!2024年中國載人飛艇行業(yè)發(fā)展前景及市場空間預(yù)測報告(智研咨詢)
- 全球氣候變化與應(yīng)對措施
- 化工企業(yè)安全生產(chǎn)信息化系統(tǒng)管理解決方案
- 2024廣西公務(wù)員考試及答案(筆試、申論A、B類、行測)4套 真題
評論
0/150
提交評論