




版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
第頁(yè)hdoop復(fù)習(xí)試題及答案1.HBase的Region組成中,必須要有以下()項(xiàng)。A、StoreFileB、MemStoreC、HFileD、MetaStore【正確答案】:B2.ZooKeeper能夠確保()。A、所有namenode都是活動(dòng)的,為客戶端請(qǐng)求提供服務(wù)B、當(dāng)任何一個(gè)datanode失效時(shí),觸發(fā)故障轉(zhuǎn)移C、僅有一個(gè)namenode是活動(dòng)的,為客戶端請(qǐng)求提供服務(wù)D、Hadoop超級(jí)管理員不能啟動(dòng)故障轉(zhuǎn)移【正確答案】:C3.Hive最重視的性能是可測(cè)量性、延展性、()和對(duì)于輸入格式的寬松匹配性。A、較低恢復(fù)性B、容錯(cuò)性C、快速查詢D、可處理少量數(shù)據(jù)【正確答案】:B4.關(guān)于Hive的內(nèi)部表和外部表的描述錯(cuò)誤的是()。A、創(chuàng)建內(nèi)部表不需要添加external關(guān)鍵字B、內(nèi)部表在刪除時(shí),只刪除元數(shù)據(jù)C、外部表可以作為共享表D、外部表在刪除時(shí),只刪除元數(shù)據(jù)【正確答案】:B5.在Hadoop2.0以上版本中,HDFS中,默認(rèn)一個(gè)塊多大?A、128MBB、32KBC、128KBD、16KB【正確答案】:A6.HadoopMapReduce計(jì)算的流程是()。A、Map任務(wù)—Shuffle—Reduce任務(wù)B、Map任務(wù)—Reduce任務(wù)—ShuffleC、Reduce任務(wù)—Map任務(wù)—ShuffleD、Shuffle—Map任務(wù)—Reduce任務(wù)【正確答案】:A7.不屬于Hive優(yōu)點(diǎn)的選項(xiàng)是()。A、提供與SQL相近的語(yǔ)法,容易上手,可以非常容易地完成數(shù)據(jù)ETLB、適合處理結(jié)構(gòu)化的數(shù)據(jù)C、存儲(chǔ)格式靈活多樣,有較強(qiáng)的擴(kuò)展性D、適合于海量結(jié)構(gòu)化數(shù)據(jù)分析匯總,查詢速度非常快【正確答案】:D8.查看testtable表中的所有數(shù)據(jù)的命令是()。A、descB、scanC、listD、以上都不對(duì)【正確答案】:B9.編寫MapReduce程序時(shí),下列敘述錯(cuò)誤的是______。A、reduce函數(shù)所在的類必須繼承自Reducer類B、map函數(shù)的輸出就是reduce函數(shù)的輸入C、reduce函數(shù)的輸出默認(rèn)是有序的D、啟動(dòng)MapReduce進(jìn)行分布式并行計(jì)算的方法是start()。【正確答案】:D10.使用()命令可以在HDFS上創(chuàng)建一個(gè)/Tipdm/Hadoop目錄。A、hdfsdfs-mkdir/Tipdm/HadoopB、hdfsdfsmkdir-C/Tipdm/HadoopC、hdfsdfs-mkdir-p/Tipdm/HadoopD、hdfsdfsmkdir/Tipdm/Hadoop【正確答案】:C11.在HDFS上創(chuàng)建目錄的命令參數(shù)是()。A、-touchB、-catC、-mkdirD、-dir【正確答案】:C12.以下哪個(gè)不是Hive適用的場(chǎng)景()。A、實(shí)時(shí)的在線數(shù)據(jù)分析B、數(shù)據(jù)挖掘(用戶行為分析,興趣分區(qū),區(qū)域展示)C、數(shù)據(jù)匯總(每天/每周用戶點(diǎn)擊數(shù),點(diǎn)擊排行)D、非實(shí)時(shí)分析(日志分析,統(tǒng)計(jì)分析)【正確答案】:A13.以下()不屬于ZooKeeper集群主機(jī)角色。A、LeaderB、FollowerC、ObserverD、Znode【正確答案】:D14.在CentOS7.8的Linux系統(tǒng)中,ifcfg-ens33配置文件的BOOTPROTO的值設(shè)置為dhcp時(shí)表示()。A、設(shè)置網(wǎng)卡綁定時(shí)通過(guò)動(dòng)態(tài)主機(jī)配置協(xié)議的方法獲得IP地址B、設(shè)置網(wǎng)卡綁定時(shí)不使用任何協(xié)議C、設(shè)置網(wǎng)卡綁定時(shí)通過(guò)引導(dǎo)協(xié)議的方法獲得IP地址D、設(shè)置網(wǎng)卡綁定時(shí)使用靜態(tài)協(xié)議,此時(shí)IP地址需要自行設(shè)置【正確答案】:A15.HDfS中的block默認(rèn)保存幾份?A、3份B、2份C、1份D、不確定【正確答案】:A16.MapReduce計(jì)算引擎,屬于()計(jì)算模式。A、批量計(jì)算B、實(shí)時(shí)計(jì)算C、流計(jì)算D、查詢分析【正確答案】:A17.下列哪個(gè)屬性是hdfs-site.xml中的配置A、fs.defaultFSB、dfs.replicationC、D、yarn.resourcemanager.address【正確答案】:B解析:
答案解析:副本的數(shù)量由dfs.replication屬性決定,該屬性在hdfs-site.xml文件中進(jìn)行配置。fs.defaultFS是一個(gè)重要的配置項(xiàng),它指定了HDFS集群的NameNode的地址,這個(gè)配置項(xiàng)的值需要在hdfs-site.xml文件中進(jìn)行設(shè)置。?屬性在?mapred-site.xml配置文件中進(jìn)行配置。在Hadoop集群的配置中,屬性用于指定MapReduce作業(yè)運(yùn)行的基礎(chǔ)框架,可以是傳統(tǒng)的MapReduce框架(local、classic)或者是基于YARN的框架。yarn.resourcemanager.address參數(shù)是ResourceManager對(duì)客戶端暴露的地址,客戶端通過(guò)該地址向ResourceManager提交應(yīng)用程序、殺死應(yīng)用程序等。這個(gè)參數(shù)在yarn-site.xml文件中進(jìn)行配置。18.HQL和SQL的一個(gè)不同之處在于()操作。A、groupbyB、joinC、partitionD、union【正確答案】:C19.下面選項(xiàng)中,分別負(fù)責(zé)管理HDFS數(shù)據(jù)存儲(chǔ)和備份元數(shù)據(jù)信息的兩個(gè)進(jìn)程是()。A、NameNode、SecondaryNameNodeB、NameNode、JobtrackerC、Datanode,SecondaryNameNodeD、NameNode、DataNode【正確答案】:A20.hadoop的安裝配置中,需要的語(yǔ)言環(huán)境是()。A、JavaB、pythonC、c語(yǔ)言D、R語(yǔ)言【正確答案】:A21.啟動(dòng)Hadoop集群的順序是()。①start-dfs.sh②start-yarn.sh③mr-jobhistory-daemon.shstarthistoryserverA、①②③B、②①③C、③②①D、③①②【正確答案】:A22.在HDFS上創(chuàng)建了一個(gè)錯(cuò)誤的目錄/Tipdm/Spark,現(xiàn)需要?jiǎng)h除這個(gè)目錄,可以使用的命令是()。A、hdfsdfs-rm/Tipdm/SparkB、hdfsdfs-delete/Tipdm/SparkC、hdfsdfs-drop/Tipdm/SparkD、hdfsdfs-rmdir/Tipdm/Spark【正確答案】:D23.下列關(guān)于HDFS的描述,哪個(gè)不正確?A、HDFS還采用了相應(yīng)的數(shù)據(jù)存放、數(shù)據(jù)讀取和數(shù)據(jù)復(fù)制策略,來(lái)提升系統(tǒng)整體讀寫響應(yīng)性能B、HDFS采用了主從(Master/Slave)結(jié)構(gòu)模型C、HDFS采用了冗余數(shù)據(jù)存儲(chǔ),增強(qiáng)了數(shù)據(jù)可靠性D、HDFS采用塊的概念,使得系統(tǒng)的設(shè)計(jì)變得更加復(fù)雜【正確答案】:D24.在Hadoop項(xiàng)目結(jié)構(gòu)中,HDFS指的是什么?A、分布式文件系統(tǒng)B、分布式并行編程模型C、資源管理和調(diào)度器D、Hadoop上的數(shù)據(jù)倉(cāng)庫(kù)【正確答案】:A25.Hadoop有三種安裝模式,下列安裝模式中沒(méi)有HDFS、只能測(cè)試MapReduce程序是()A、單機(jī)模式B、偽分布式模式C、完全分布式模式D、分布模式【正確答案】:A26.下列關(guān)于YUM命令的options選項(xiàng)說(shuō)法錯(cuò)誤的是()。A、-h:顯示幫助信息B、-y:對(duì)所有的提問(wèn)都回答“yes”C、-c:指定配置文件D、-d:刪除文件【正確答案】:D27.下列更新HBase表中數(shù)據(jù)的語(yǔ)法,寫法正確的是()。A、updateuser.'xiaoming'setinfo.age=1B、update'users','xiaoming','info.age','29'C、put'users','xiaoming','info.age'D、put'users','xiaoming','info.age','29'【正確答案】:D解析:
二、選擇題(94)1001章節(jié)測(cè)試第1章Hadoop介紹(11)28.Client在HDFS上進(jìn)行文件寫入時(shí),namenode根據(jù)文件大小和配置情況,返回部分datanode信息,()負(fù)責(zé)將文件劃分為多個(gè)Block,根據(jù)DataNode的地址信息,按順序?qū)懭氲矫恳粋€(gè)DataNode塊。A、ClientB、NamenodeC、DatanodeD、Secondarynamenode【正確答案】:A29.Zookeeper通過(guò)()機(jī)制實(shí)現(xiàn)對(duì)節(jié)點(diǎn)進(jìn)行動(dòng)態(tài)監(jiān)控。A、ListenerB、WatcherC、FilterD、Interceptor【正確答案】:B30.下列不能將Linux本地的/opt/a.txt文件上傳至HDFS的/user/root目錄下的命令是()。A、hdfsdfs-copyFromLocal/opt/a.txt/user/root/B、hdfsdfs-moveFromLocal/opt/a.txt/user/root/C、hdfsdfs-put/opt/a.txt/user/root/D、hdfsdfs-copyToLocal/opt/a.txt/user/root/【正確答案】:D31.把本地文件放到集群里,可以使用下面哪個(gè)hadoopshell的命令A(yù)、hadoopfs-putB、hadoopfs-push/C、hadoopfs-put/D、hadoop-push/【正確答案】:C32.Hadoop完全分布模式配置免密登錄是要()A、實(shí)現(xiàn)主節(jié)點(diǎn)到其他節(jié)點(diǎn)免密登錄B、實(shí)現(xiàn)從節(jié)點(diǎn)到其他節(jié)點(diǎn)免密登錄C、主節(jié)點(diǎn)和從節(jié)點(diǎn)任意兩個(gè)節(jié)點(diǎn)之間免密登錄D、以上都不正確【正確答案】:C33.HDFS中的block默認(rèn)保存幾個(gè)備份。A、3份B、2份C、1份D、不確定【正確答案】:A34.下列關(guān)于MapReduce模型的描述,錯(cuò)誤的是哪一項(xiàng)?A、MapReduce采用“分而治之”策略B、MapReduce設(shè)計(jì)的一個(gè)理念就是“計(jì)算向數(shù)據(jù)靠攏”C、MapReduce框架采用了Master/Slave架構(gòu)D、MapReduce應(yīng)用程序只能用Java來(lái)寫【正確答案】:D35.關(guān)于YARN,下列說(shuō)法正確的是()。A、YARN是Hadoop的資源管理器B、YARN是Hadoop的數(shù)據(jù)處理層C、YARN是開(kāi)源數(shù)據(jù)倉(cāng)庫(kù)系統(tǒng),用于查詢和分析存儲(chǔ)在Hadoop中的大型數(shù)據(jù)集D、以上選項(xiàng)都不對(duì)【正確答案】:A解析:
2001作業(yè)第二章Hadoop集群的搭建及配置(10題)36.Hive默認(rèn)分桶的數(shù)量是()。A、-1B、0C、1D、2【正確答案】:A37.設(shè)計(jì)分布式數(shù)據(jù)倉(cāng)庫(kù)hive的數(shù)據(jù)表時(shí),為取樣更高效,一般可以對(duì)表中的字段進(jìn)行()操作。A、分桶B、分庫(kù)C、索引D、分表【正確答案】:A38.在安裝偽分布式hadoop時(shí),配置hadoop運(yùn)行環(huán)境的是哪個(gè)文件()。A、hdfs-site.xmlB、core-site.xmlC、hadoop-env.shD、slaves【正確答案】:C解析:
2003章節(jié)測(cè)試第2章Hadoop集群的搭建及配置(8)39.簡(jiǎn)述關(guān)于安全模式命令,正確的是()。A、退出安全模式:hadoopdfsadmin-safemodeleaveB、退出安全模式:hadoopdfs-safemodeleaveC、進(jìn)入安全模式:hadoopdfs-safemodeenterD、進(jìn)入安全模式:hadoopdfsadminenter【正確答案】:A40.下面哪個(gè)程序負(fù)責(zé)HDFS數(shù)據(jù)存儲(chǔ)。A、NameNodeB、JobtrackerC、DatanodeD、secondaryNameNode【正確答案】:C41.MapReduce編程模型,鍵值對(duì)<key,value>的key必須實(shí)現(xiàn)()接口。A、WritableComparableB、ComparableC、WritableD、LongWritable【正確答案】:A42.安裝Hadoop集群時(shí),是在()文件指定哪些機(jī)器作為集群的從機(jī)?A、datanodeB、workersC、yarn-site.xmlD、core-site.xml【正確答案】:B43.在詞頻統(tǒng)計(jì)中,對(duì)于文本行"hellohadoophelloworld",經(jīng)過(guò)WordCount的Reduce函數(shù)處理后的結(jié)果是()。A、<“hello”,2><“hadoop”,1><“world”,1>B、<“hadoop”,1><“hello”,2><“world”,1>C、<“hello”,1,1><“hadoop”,1><“world”,1>D、<“hadoop”,1><“hello”,1><“hello”,1><“world”,1>【正確答案】:A解析:
5001章節(jié)測(cè)試第5章MapReduce進(jìn)階編程(7)44.在驅(qū)動(dòng)類中,需要使用()方法設(shè)置輸出數(shù)據(jù)的格式。A、setJarByClass()B、setOutputKeyValueClass()C、setInputFormatClass()D、setOutputFormatClass()【正確答案】:D45.以下業(yè)務(wù)應(yīng)用中,不屬于Hive適用的場(chǎng)景的是()。A、實(shí)時(shí)的在線數(shù)據(jù)分析B、數(shù)據(jù)挖掘(用戶行為分析、興趣分區(qū)、區(qū)域展示)C、數(shù)據(jù)匯總(每天或每周用戶點(diǎn)擊量的點(diǎn)擊排行)D、非實(shí)時(shí)分析【正確答案】:A46.Hive默認(rèn)的構(gòu)造配置是存儲(chǔ)在Hive安裝目錄的conf目錄下的()文件。A、hive-core.xmlB、hive-default.xmlC、hive-site.xmlD、hive-lib.xml【正確答案】:C47.下列哪個(gè)不屬于YARN體系結(jié)構(gòu)中ResourceManager的功能?A、處理客戶端請(qǐng)求B、監(jiān)控NodeManagerC、資源分配與調(diào)度D、處理來(lái)自ApplicationMaster的命令【正確答案】:D48.在MapReduce框架中,在Mapper和Reducer之間的Shuffle的作用是()。A、對(duì)Map的輸出結(jié)果排序B、對(duì)Map的輸出結(jié)果再次進(jìn)行映射C、對(duì)中間結(jié)果進(jìn)行混洗,將相同鍵的鍵值對(duì)數(shù)據(jù)進(jìn)行匯集D、對(duì)中間輸出結(jié)果進(jìn)行壓縮【正確答案】:C49.HBase依賴()提供消息通信機(jī)制。A、ZooKeeperB、ChubbyC、RPCD、Socket【正確答案】:A50.Hive中可以使用HQL對(duì)數(shù)據(jù)表進(jìn)行操作,對(duì)查詢結(jié)果進(jìn)行降序排列的關(guān)鍵函數(shù)是()。A、Count()B、DESCC、ASCD、Groupby【正確答案】:B51.查看當(dāng)前HBase中的表數(shù)據(jù)的命令是()。A、describeB、scanC、listD、showdatabase【正確答案】:C52.MapReduce默認(rèn)的輸入格式是()。A、TextInputFormatB、SequenceFileInputFormatC、KeyValueInputFormatDBInputFormat【正確答案】:A53.按粒度大小的順序,Hive數(shù)據(jù)模型被分為數(shù)據(jù)庫(kù)、數(shù)據(jù)表、()和桶。A、元組B、欄C、分區(qū)D、行【正確答案】:C54.上傳一個(gè)大小為500MB的文件data.txt到Hadoop集群上,這個(gè)文件會(huì)占用HDFS數(shù)據(jù)塊的個(gè)數(shù)是()。A、1個(gè)B、3個(gè)C、4個(gè)D、5個(gè)【正確答案】:C解析:
3001章節(jié)測(cè)試第3章Hadoop基礎(chǔ)操作(15)55.退出HBaseShell界面的命令是()。A、quitB、forgetC、exitD、exit()【正確答案】:C56.下列關(guān)于MapReduce說(shuō)法不正確的是()。A、MapReduce是一種計(jì)算框架B、MapReduce來(lái)源于google的學(xué)術(shù)論文C、MapReduce程序只能用java語(yǔ)言編寫D、MapReduce隱藏了并行計(jì)算的細(xì)節(jié),方便使用【正確答案】:C57.MapReduce程序最后輸出的結(jié)果通常都是按鍵值對(duì)進(jìn)行排序的,那么排序工作發(fā)生在()階段。A、MapB、ShuffleC、ReduceD、Combiner【正確答案】:B58.關(guān)于YARN,下列說(shuō)法正確的是()。A、YARN是Hadoop的資源管理器B、YARN是Hadoop的數(shù)據(jù)處理層C、YARN是開(kāi)源數(shù)據(jù)倉(cāng)庫(kù)系統(tǒng),用于查詢和分析存儲(chǔ)在Hadoop中的大型數(shù)據(jù)集D、以上選項(xiàng)都不對(duì)【正確答案】:A59.如果在Reduce階段需要將結(jié)果都輸出到同一個(gè)文件里,那么需要設(shè)置Reduce任務(wù)數(shù),下列設(shè)置方法正確的是()。A、job.setNumreduceTasks()=0;B、job.setNumReduceTasks(0);C、job.setNumreduceTasks()=1;D、job.setNumReduceTasks(1);【正確答案】:D60.在MapReduce程序中,Mapper類中的方法有()。A、startup()、map()、end()B、startup()、run()、end()C、setup()、end()、map()D、setup()、map()、cleanup()【正確答案】:D61.Hbase可以實(shí)現(xiàn)超大規(guī)模的數(shù)據(jù)存儲(chǔ)查詢,它的存儲(chǔ)是基于下面()框架。A、MysqlB、HDFSC、GFSD、Spark【正確答案】:B62.僅查看集群在線節(jié)點(diǎn)的基本信息可以使用()命令。A、hdfsdfsadmin-reportB、hdfsdfsadmin-report-liveC、hdfsdfsadmin-report-deadD、hdfsdfsadmin-report-decommissioning【正確答案】:B63.下列關(guān)于HDFS的說(shuō)法正確的是()。A、NameNode負(fù)責(zé)HDFS中的數(shù)據(jù)存儲(chǔ)B、DataNode負(fù)責(zé)HDFS中的數(shù)據(jù)存儲(chǔ)C、SecondaryNameNode通常與NameNode在一個(gè)節(jié)點(diǎn)啟動(dòng)D、元數(shù)據(jù)指的是文件實(shí)際的數(shù)據(jù)【正確答案】:B64.下列可以下載HDFS上的/user/root/live.txt文件至Linux本地的/opt目錄下的命令是()。A、hdfsdfs-get/user/root/live.txt/opt/B、hdfsdfs-download/user/root/live.txt/opt/C、hdfsdfs-put/user/root/live.txt/opt/D、hdfsdfs-move/user/root/live.txt/opt/【正確答案】:A65.上傳一個(gè)大小為500MB的文件data.txt到Hadoop集群上,這個(gè)文件會(huì)占用HDFS數(shù)據(jù)塊的個(gè)數(shù)是()。A、1個(gè)B、3個(gè)C、4個(gè)D、5個(gè)【正確答案】:C66.下列描述中不符合Map/Reduce的是()。A、Map結(jié)束后,Partitioner會(huì)將相同Key分到同一個(gè)組交給Reduce進(jìn)程B、Map/Reduce是函數(shù)式的設(shè)計(jì)思想C、Map是將數(shù)據(jù)映射成Key/Value再交給ReduceD、Reduce先運(yùn)行,然后運(yùn)行Map【正確答案】:D67.當(dāng)MapReduce處理數(shù)據(jù)時(shí),下列執(zhí)行流程正確的是()。A、Map—Shuffle—Sort—ReduceB、Shuffle—Map—Sort—ReduceC、Map—Reduce—Shuffle—SortD、Map—Sort—Shuffle—Reduce【正確答案】:A68.當(dāng)提交某個(gè)MapReduce任務(wù)后,在任務(wù)列表中顯示該任務(wù)的狀態(tài)為“RUNNING”,這表示該任務(wù)當(dāng)前的運(yùn)行狀態(tài)是()。A、正在接受中B、正在執(zhí)行中C、等待執(zhí)行中D、任務(wù)恢復(fù)中【正確答案】:B解析:
4001作業(yè)選擇題第四章MapReduce入門編程(10題)一、選擇題69.當(dāng)提交某個(gè)MapReduce任務(wù)后,在任務(wù)列表中顯示該任務(wù)的狀態(tài)為“RUNNING”這表示該任務(wù)當(dāng)前的運(yùn)行狀態(tài)是()。A、正在接受中B、正在執(zhí)行中C、等待執(zhí)行中D、任務(wù)恢復(fù)中【正確答案】:B解析:
4001章節(jié)測(cè)試第4章MapReduce入門編程(10)70.創(chuàng)建Hive數(shù)據(jù)表時(shí),指定字段之間的分隔符,需要使用()語(yǔ)句。A、fieldsterminatedbyB、rowformatdelimitedC、mapkeysterminatedD、collectionitemsterminatedby【正確答案】:A解析:
7001章節(jié)測(cè)試第7章HBase分布式數(shù)據(jù)庫(kù)(12)71.Hadoop框架中最核心的設(shè)計(jì)是什么?A、為海量數(shù)據(jù)提供存儲(chǔ)的HDFS和對(duì)數(shù)據(jù)進(jìn)行計(jì)算的MapReduceB、提供整個(gè)HDFS文件系統(tǒng)的NameSpace(命名空間)管理、塊管理等所有服務(wù)C、Hadoop不僅可以運(yùn)行在企業(yè)內(nèi)部的集群中,也可以運(yùn)行在云計(jì)算環(huán)境中D、Hadoop被視為事實(shí)上的大數(shù)據(jù)處理標(biāo)準(zhǔn)【正確答案】:A72.Pig主要用在哪個(gè)場(chǎng)合?A、適合HadoopMapReduce作業(yè)并行批處理HBase表數(shù)據(jù)B、適合HBase管理使用C、適合其他異構(gòu)系統(tǒng)在線訪問(wèn)HBase表數(shù)據(jù)D、適合做數(shù)據(jù)統(tǒng)計(jì)【正確答案】:D73.下列關(guān)于Hadoop序列化說(shuō)法錯(cuò)誤的是()。A、能夠高效使用存儲(chǔ)空間,具有緊湊性B、讀取速度快,讀取數(shù)據(jù)額外的開(kāi)銷小C、具有擴(kuò)展性,可透明地讀取舊格式的數(shù)據(jù)D、具有獨(dú)立性,只能使用Java讀/寫數(shù)據(jù)【正確答案】:D74.下列()屬性是mapred-site.xml中的配置?A、dfs.replicationB、fs.fsdefaultFSC、D、yarn.resourcemanager.address【正確答案】:C解析:
答案解析:副本的數(shù)量由dfs.replication屬性決定,該屬性在hdfs-site.xml文件中進(jìn)行配置。fs.defaultFS是一個(gè)重要的配置項(xiàng),它指定了HDFS集群的NameNode的地址,這個(gè)配置項(xiàng)的值需要在hdfs-site.xml文件中進(jìn)行設(shè)置。?屬性在?mapred-site.xml配置文件中進(jìn)行配置。在Hadoop集群的配置中,屬性用于指定MapReduce作業(yè)運(yùn)行的基礎(chǔ)框架,可以是傳統(tǒng)的MapReduce框架(local、classic)或者是基于YARN的框架。yarn.resourcemanager.address參數(shù)是ResourceManager對(duì)客戶端暴露的地址,客戶端通過(guò)該地址向ResourceManager提交應(yīng)用程序、殺死應(yīng)用程序等。這個(gè)參數(shù)在yarn-site.xml文件中進(jìn)行配置。75.HDFS1.0默認(rèn)BlockSize大小是多少。A、32MBB、64MBC、128MBD、256MB【正確答案】:B76.MapReduce編程模型中以下組件()是最后執(zhí)行的。A、PartitionerB、ReducerC、MapperD、Combiner【正確答案】:B解析:
6001章節(jié)測(cè)試第6章Hive數(shù)據(jù)倉(cāng)庫(kù)(14)77.在CentOS7.8的Linux系統(tǒng)中,使用()命令可以查看某個(gè)虛擬機(jī)的IP地址。A、servicenetworkrestartB、ipaddrC、servicenetworkstartD、ip【正確答案】:B78.yarn-site.xml文件的作用是()。A、設(shè)置了Hadoop基本運(yùn)行環(huán)境的配置B、設(shè)置了YARN框架運(yùn)行環(huán)境的配置C、設(shè)置了YARN框架的相關(guān)配置D、設(shè)置了MapReduce框架的相關(guān)配置【正確答案】:C79.僅查看集群在線節(jié)點(diǎn)的基本信息可以使用()命令。A、hdfsdfsadmin-reportB、hdfsdfsadmin-report-liveC、hdfsdfsadmin-repot-deadD、hdfsdfsadminreport-decommissioning【正確答案】:B80.下列關(guān)于Hive基本操作命令的解釋錯(cuò)誤的是()。A、createdatabaseuserdb;//創(chuàng)建數(shù)據(jù)庫(kù)userdbB、createtableifnotexistsusr(idbigint,namestring,ageint);//如果usr表不存在,創(chuàng)建表usr,含三個(gè)屬性id,name,ageC、loaddatalocalinpath‘/usr/local/data’overwriteintotableusr;//把目錄’/usr/local/data’下的數(shù)據(jù)文件中的數(shù)據(jù)以追加的方式裝載進(jìn)usr表D、insertoverwritetablestudentselect*fromuserwhereage>10;//向表student中插入來(lái)自u(píng)sr表的age大于10的數(shù)據(jù)并覆蓋student表中原有數(shù)據(jù)【正確答案】:C81.下列關(guān)于Map和Reduce函數(shù)的描述,()是錯(cuò)誤的。A、Map將小數(shù)據(jù)集進(jìn)一步解析成一批<key,value>對(duì),輸入Map函數(shù)中進(jìn)行處理B、Map將每一個(gè)輸入的<k1,v1>會(huì)輸出一批<k2,v2>。<k2,v2>是計(jì)算的中間結(jié)果C、Reduce輸入的中間結(jié)果<k2,List(v2)>中的List(v2)表示是一批屬于不同k2的valueD、Reduce輸入的中間結(jié)果<k2,List(v2)>中的List(v2)表示是一批屬于同一個(gè)k2的value【正確答案】:C82.下列關(guān)于MapReduce工作流程,()描述是正確的。A、所有的數(shù)據(jù)交換都是通過(guò)MapReduce框架自身去實(shí)現(xiàn)的B、不同的Map任務(wù)之間會(huì)進(jìn)行通信C、不同的Reduce任務(wù)之間可以發(fā)生信息交換D、用戶可以顯式地從一臺(tái)機(jī)器向另一臺(tái)機(jī)器發(fā)送消息【正確答案】:A83.在HDFS中,NameNode的主要功能是什么?A、維護(hù)了blockid到datanode本地文件的映射關(guān)系B、存儲(chǔ)文件內(nèi)容C、文件內(nèi)存保存在磁盤中D、存儲(chǔ)元數(shù)據(jù)【正確答案】:D解析:
答案解析:NameNode存儲(chǔ)元數(shù)據(jù),元數(shù)據(jù)保存在內(nèi)存中,保存文件、block、datanode之間的映射關(guān)系;DataNode存儲(chǔ)文件內(nèi)容,文件內(nèi)容保存在磁盤,維護(hù)了blockid到datanode本地文件的映射關(guān)系84.hadoop下載hdfs上的文件到本地目錄的命令hadoopfs()。A、-catB、-lsC、-statD、-get【正確答案】:D85.下面關(guān)于Hive的描述錯(cuò)誤的是()。A、Hive是一個(gè)構(gòu)建在Hadoop之上的數(shù)據(jù)倉(cāng)庫(kù)工具B、Hive在很多方面和傳統(tǒng)數(shù)據(jù)庫(kù)類似,但是它底層依賴的是HDFS和MapReduceC、Hive在某種程度上可以看作是用戶編程接口,其本身并不存儲(chǔ)和處理數(shù)據(jù)D、Hive定義了簡(jiǎn)單的類似SQL的查詢語(yǔ)言–HiveQL,它與大部分SQL語(yǔ)法無(wú)法兼容【正確答案】:D86.對(duì)于Hadoop官方示例源碼WordCount,從結(jié)構(gòu)上可以分為3個(gè)部分,下列不屬于程序核心模塊的是()。A、Driver模塊B、Mapper模塊C、Reducer模塊D、Main模塊【正確答案】:D87.Client端上傳文件的時(shí)候下列()正確的。A、數(shù)據(jù)經(jīng)過(guò)NameNode傳遞給DataNodeB、Client端將文件切分為Block,依次上傳Client只上傳數(shù)據(jù)到一臺(tái)DataNode,然后由NameNode負(fù)責(zé)Block復(fù)制工作D、以上都不正確【正確答案】:B88.Hive加載數(shù)據(jù)文件到數(shù)據(jù)表中的關(guān)鍵語(yǔ)法是()。A、LOADDATA[LOCAL]INPATHfilepath[OVERWRITE]INTOTABLEtablenameB、INSERTDATA[LOCAL]INPATHfilepath[OVERWRITE]INTOTABLEtablenameC、LOADDATAINFILEd:\car.csvAPPENDINTOTABLEt_car_tempFIELDS
TERMINATEDBY“,”D、INSERTDATA[LOCAL]INPATHfilepath[OVERWRITE]INTOTABLEtablename【正確答案】:A解析:TERMINATEDBY“,”89.在保證HBase服務(wù)已經(jīng)啟動(dòng)的情況下,進(jìn)入HBaseShell界面,啟動(dòng)HBase的命令是()。A、hbaseshellB、hbase.shC、starthbase-shellD、start-hbase.sh【正確答案】:A90.HQL中,“selectceil(2.34);”的輸出結(jié)果為()。A、2B、3C、2.3D、4【正確答案】:B91.在Hadoop中,使用()命令格式化NameNode。A、hdfsnamenode–formatB、start-format.shC、start-mapred.shD、hadoopjob-historyoutdir【正確答案】:A解析:
3001作業(yè)第三章Hadoop集群的搭建及配置(8題)92.HDFS采用了什么模型?A、分層模型B、主從結(jié)構(gòu)模型C、管道-過(guò)濾器模型D、點(diǎn)對(duì)點(diǎn)模型【正確答案】:B93.下列不能將Linux本地的/opt/a.txt文件上傳至HDFS的/user/root目錄下的命令是()。A、hdfsdfs-copyFromLocal/opt/a.txt/user/root/B、hdfsdfs-moveFromLocal/opt/a.txt/user/root/C、hdfsdfs-put/opt/a.txt/user/root/D、hdfsdfs-copyToLocal/opt/a.txt/user/root/【正確答案】:D94.在HadoopJavaAPI中,查看某個(gè)目錄下的子目錄,使用的方法是()。A、listStatus()方法B、delete()方法C、mkdirs()方法D、open()方法【正確答案】:A95.Hadoop配置文件所在目錄是()。A、/etc/hostsB、/etc/hadoopC、$HADOOP_HOME/confD、$HADOOP_HOME/etc/hadoop【正確答案】:D96.當(dāng)在Job類中設(shè)置輸出鍵值對(duì)格式時(shí),如果Mapper模塊的輸出鍵值對(duì)格式與Reducer模塊的輸出鍵值對(duì)格式一致,那么下列說(shuō)法正確的是()。A、job.setOutputKeyClass()與job.setOutputValueClass()可以不進(jìn)行設(shè)置B、job.setMapOutputKeyClass()與job.setMapOutputValueClass()可以不進(jìn)行設(shè)置C、job.setReduceOutputKeyClass()與job.setReduceOutputValueClass()可以不進(jìn)行設(shè)置D、以上都不能省略【正確答案】:B解析:
5001作業(yè)選擇題第五章MapReduce進(jìn)階編程(10題)一、選擇題97.簡(jiǎn)述下列哪個(gè)屬性是hdfs-site.xml中的配置?A、dfs.replicationB、fs.defaultFSC、D、yarn.resourcemanager.address【正確答案】:A解析:
答案解析:dfs.replication是hdfs.site.xml中的配置,配置數(shù)據(jù)塊的副本數(shù);fs.defaultFS是core.site.xml中的配置,配置默認(rèn)文件系統(tǒng)的名稱;yarn.resourcemanager.address是yarn-site.xml中的配置,配置ResourceManager對(duì)客戶端暴露的地址;是mapred.site.xml中的配置,配置yarn運(yùn)行引擎98.一個(gè)gzip文件大小75MB,客戶端設(shè)置Block大小為64MB,請(qǐng)問(wèn)其占用幾個(gè)Block?A、1B、2C、3D、4【正確答案】:B99.關(guān)于MapReduce的輸出格式,下列說(shuō)法錯(cuò)誤的是()。A、TextOutputFormat:以鍵值對(duì)的方式輸出行B、SequenceFileOutputFormat:輸出文本文件,適合作為子MapReduce作業(yè)的輸入C、NullOutputFormat:忽略收到的數(shù)據(jù),即沒(méi)有輸出DBOutputFormat:可以將數(shù)據(jù)寫入MySQL數(shù)據(jù)庫(kù)中【正確答案】:B100.下面哪個(gè)程序負(fù)責(zé)HDFS數(shù)據(jù)存儲(chǔ)。A、NameNodeB、JobtrackerC、DatanodeD、secondaryNameNode【正確答案】:C101.HBase中需要根據(jù)某些因素來(lái)確定一個(gè)單元格,這些因素可以視為一個(gè)“四維坐標(biāo)”,下面()不屬于“四維坐標(biāo)”?A、行鍵B、關(guān)鍵字C、列族D、時(shí)間戳【正確答案】:B解析:
答案解析:?HBase中需要根據(jù)行鍵、列族、列限定符和時(shí)間戳來(lái)確定一個(gè)單元格,因此,可以視為一個(gè)“四維坐標(biāo)”,即[行鍵,列族,列限定符,時(shí)間戳]。102.MapReduce程序最后輸出的結(jié)果通常都是按鍵值對(duì)進(jìn)行排序的,那么排序工作發(fā)生在()階段。A、CombinerB、ShuffleC、ReduceD、Map【正確答案】:B103.HBase是分布式列式存儲(chǔ)系統(tǒng),記錄按()集中存放。A、列族B、列C、行D、不確定【正確答案】:A104.使用MapReduce查詢某個(gè)部門中薪資最高的員工姓名,如果輸出結(jié)果的格式為“薪資員工姓名”,例如“8000Alice”(假設(shè)薪資均為整數(shù)),那么輸出鍵值對(duì)格式應(yīng)該為()。A、job.setOutputKeyClass(IntWritable.class);job.setOutputValueClass(Text.class);B、job.setOutputKeyClass(IntWritable.class);job.setOutputValueClass(LongWritable.C、job.setOutputKeyClass(Text.class);job.setOutputValueClass(IntWritable.class);D、job.setOutputKeyClass(Text.class);job.setOutputValueClass(FloatWritable.class);【正確答案】:A解析:
class);105.Hive作為大數(shù)據(jù)倉(cāng)庫(kù)的重要工具之一,數(shù)據(jù)是存放在()。A、HbaseB、HdfsC、OracleD、Mysql【正確答案】:B106.下列不屬于Hadoop集群環(huán)境搭建模式的是()。A、單機(jī)環(huán)境B、偽分布式環(huán)境C、完全分布式環(huán)境D、嵌入式分布式環(huán)境【正確答案】:D107.為了保證Leader選舉能夠通過(guò)半數(shù)以上服務(wù)器選舉支持,因此Zookeeper集群搭建的服務(wù)器為()。A、2n+2B、2nC、2n+1D、以上說(shuō)法均錯(cuò)誤【正確答案】:C108.在Hadoop中,使用()命令格式化NameNode。A、hdfsnamenode-formatB、start-format.shC、start-mapred.shD、hadoopjob-historyoutdir【正確答案】:A109.以下關(guān)于Hive表加載數(shù)據(jù)方式錯(cuò)誤的是()。A、loaddatainpath表文件路徑overwriteintotable表名B、createtable表名2asselect字段列表from表名1C、insertoverwritetable表名1select字段列表from表名2where條件D、createtable表名2like表1【正確答案】:D110.使用Hadoop官方的示例程序包hadoop-mapreduce-examples-3.1.4.jar中的wordcount模塊,對(duì)HDFS上的/opt/data.txt文件進(jìn)行單詞計(jì)數(shù),將結(jié)果保存至HDFS的/Tipdm/Hadoop目錄下,下列命令正確的是()。A、hadoopjar\B、hadoopdfs\C、hdfs-jar\D、hdfsdfs\【正確答案】:A解析:
$HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.4.jarwordcount/opt/data.txt/Tipdm/Hadoop/$HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.4.jarwordcount/opt/data.txt/Tipdm/Hadoop/$HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.4.jarwordcount/opt/data.txt/Tipdm/Hadoop/$HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.4.jarwordcount/opt/data.txt/Tipdm/Hadoop/111.以下選項(xiàng)中,哪種類型間的轉(zhuǎn)換是被HQL所支持的()A、Double—NumberBigInt—DoubleC、Int—BigIntD、String—Double【正確答案】:D112.數(shù)據(jù)倉(cāng)庫(kù)的最終目的是()。A、收集業(yè)務(wù)需求B、建立數(shù)據(jù)倉(cāng)庫(kù)邏輯模型C、開(kāi)發(fā)數(shù)據(jù)倉(cāng)庫(kù)的應(yīng)用分析D、為用戶和業(yè)務(wù)部門提供決策支持【正確答案】:D113.HBase依賴()提供強(qiáng)大的計(jì)算能力。A、ZooKeeperB、ChubbyC、RPCD、MapReduce【正確答案】:D114.下列可以下載HDFS上的/user/root/live.txt文件至Linux本地的/opt目錄下的命令是()。A、hdfsdfs-get/user/root/live.txt/opt/B、hdfsdfs-download/user/root/live.txt/opt/C、hdfsdfs-put/user/root/live.txt/opt/D、hdfsdfs-move/user/root/live.txt/opt/【正確答案】:A115.在安裝Hadoop時(shí),需要配置Hadoop依賴的JAVA_HOME配置項(xiàng)是屬于以下哪個(gè)文件A、core-site.xmlB、hdfs-site.xmlC、mapred-site.xmlD、hadoop-env.sh【正確答案】:D116.下面哪一個(gè)框架是可靠的協(xié)同工作系統(tǒng)()。A、SqoopB、FlumeC、ZookeeperD、Ambari【正確答案】:C117.Hadoop3.x的HDFS的監(jiān)控服務(wù),默認(rèn)是通過(guò)NameNode的()端口訪問(wèn)的。A、9000B、8088C、8020D、9870【正確答案】:D118.在Hadoop官方示例源碼WordCount中,()模塊負(fù)責(zé)進(jìn)行Hadoop集群的初始化設(shè)置,提交任務(wù)并等待程序運(yùn)行完成。A、MapperB、ReducerC、DriverD、Main【正確答案】:C119.下列選項(xiàng)中,()不是Hive系統(tǒng)架構(gòu)的組成部分。A、用戶接口B、跨語(yǔ)言服務(wù)C、HDFSD、底層驅(qū)動(dòng)引擎【正確答案】:C120.使用Hadoop官方的示例程序包hadoop-mapreduce-examples-3.1.4.jar中的wordcount模塊,對(duì)HDFS上的/opt/data.txt文件進(jìn)行單詞計(jì)數(shù),將結(jié)果保存至HDFS的/Tipdm/Hadoop目錄下,下列命令正確的是()。A、hadoopjar\$HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.4.jarwordcount/opt/data.txt/Tipdm/Hadoop/B、hadoopdfs\$HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.4.jarwordcount/opt/data.txt/Tipdm/Hadoop/C、hdfs-jar\$HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.4.jarwordcount/opt/data.txt/Tipdm/Hadoop/D、hdfsdfs\$HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.4.jarwordcount/opt/data.txt/Tipdm/Hadoop/【正確答案】:A121.關(guān)于HDFS的文件寫入,正確的是()。A、支持多用戶對(duì)同一文件的寫操作B、用戶可以在文件任意位置進(jìn)行修改C、默認(rèn)將文件塊復(fù)制成三份存放D、復(fù)制的文件塊默認(rèn)都存在同一機(jī)架上【正確答案】:C122.HDFS具有高容錯(cuò)性、高可靠性、高擴(kuò)展性、高吞吐性,適合的讀寫任務(wù)形式是?A、一次寫入,少次讀出B、多次寫入,少次讀出C、一次寫入,多次讀出D、多次寫入,多次讀出【正確答案】:C123.下列關(guān)于Hadoop的說(shuō)法錯(cuò)誤的是()。A、Hadoop集群能夠部署在不同的機(jī)器上B、Hadoop集群搭建完成后,不能刪減和增加節(jié)點(diǎn)C、Hadoop能夠在所有節(jié)點(diǎn)并行地處理數(shù)據(jù),具有高效性D、Hadoop上的應(yīng)用程序可以用C++語(yǔ)言編寫【正確答案】:B124.在MapReduce的計(jì)算過(guò)程中,數(shù)據(jù)流的順序是()。A、InputFormat→Mapper→Combiner→Partitioner→Reducer→OutputFormatB、InputFormat→Mapper→Combiner→Partitioner→OutputFormat→ReducerC、InputFormat→Mapper→Partitioner→Combiner→Reducer→OutputFormatD、InputFormat→Mapper→Reducer→Combiner→Partitioner→OutputFormat【正確答案】:A125.Zookeeper中的數(shù)據(jù)存儲(chǔ)結(jié)構(gòu)和標(biāo)準(zhǔn)文件系統(tǒng)非常類似,兩者采用的層次結(jié)構(gòu)是()。A、樹(shù)型B、星型C、網(wǎng)型D、分布式【正確答案】:A126.在Hadoop3.X中,端口9870默認(rèn)是Hadoop哪個(gè)服務(wù)的端口?A、NamenodeB、DataNodeC、SecondNameNodeD、Yarn【正確答案】:A127.在HBase中,關(guān)于數(shù)據(jù)操作的描述,下列()是錯(cuò)誤的。A、HBase采用了更加簡(jiǎn)單的數(shù)據(jù)模型,它把數(shù)據(jù)存儲(chǔ)為未經(jīng)解釋的字符串B、HBase操作不存在復(fù)雜的表與表之間的關(guān)系C、HBase不支持修改操作D、HBase在設(shè)計(jì)上就避免了復(fù)雜的表和表之間的關(guān)系【正確答案】:C128.下列哪個(gè)不屬于YARN體系結(jié)構(gòu)中ApplicationMaster的功能?A、任務(wù)調(diào)度、監(jiān)控與容錯(cuò)B、為應(yīng)用程序申請(qǐng)資源C、將申請(qǐng)的資源分配給內(nèi)部任務(wù)D、處理來(lái)自ResourceManger的命令【正確答案】:D解析:
1002章節(jié)測(cè)試第1章Hadoop介紹(7)129.下列()情況不適合添加Combiner。A、MapReduce程序求和B、MapReduce程序求最大值C、MapReduce程序求平均值D、MapReduce程序?qū)崿F(xiàn)單詞計(jì)數(shù)【正確答案】:C130.在MapReduce程序中,Reducer模塊中的自定義MaxReducer類繼承()父類。A、MapB、ReducerC、ReduceD、Partitioner【正確答案】:B131.如果對(duì)HBase表添加數(shù)據(jù),那么可以使用()命令進(jìn)行操作。A、createB、getC、putD、scan【正確答案】:C132.數(shù)據(jù)采集是大數(shù)據(jù)開(kāi)發(fā)工作的一個(gè)重要階段,以下哪一個(gè)框架可以用于數(shù)據(jù)采集()A、HbaseB、FlumeC、MahoutD、Hive【正確答案】:B解析:
2001章節(jié)測(cè)試第2章Hadoop集群的搭建及配置(10)133.yarn-site.xml文件的作用是()。A、設(shè)置了Hadoop基本運(yùn)行環(huán)境的配置B、設(shè)置了YARN框架運(yùn)行環(huán)境的配置C、設(shè)置了YARN框架的相關(guān)配置D、設(shè)置了MapReduce框架的相關(guān)配置【正確答案】:C134.Namenode在啟動(dòng)時(shí)自動(dòng)進(jìn)入安全模式,在安全模式階段,說(shuō)法錯(cuò)誤的是()。A、安全模式目的是在系統(tǒng)啟動(dòng)時(shí)檢查各個(gè)DataNode上數(shù)據(jù)塊的有效性B、根據(jù)策略對(duì)數(shù)據(jù)塊進(jìn)行必要的復(fù)制或刪除C、當(dāng)數(shù)據(jù)塊最小百分比數(shù)滿足的最小副本數(shù)條件時(shí),會(huì)自動(dòng)退出安全模式D、文件系統(tǒng)允許有修改【正確答案】:D135.關(guān)于Hadoop內(nèi)置的數(shù)據(jù)類型,下列說(shuō)法不正確的是()。A、BooleanWritable:標(biāo)準(zhǔn)布爾型ByteWritable:?jiǎn)巫止?jié)型C、Text:使用UTF-8格式存儲(chǔ)的文本類型,在Java數(shù)據(jù)類型中主要針對(duì)String類型D、IntWritable:長(zhǎng)整型【正確答案】:D136.在安裝hdfs時(shí)其中fs.defaultFS是配置在下列哪個(gè)文件()A、core-site.xmlB、hdfs-site.xmlC、mapred-site.xmlD、yarn-site.xml【正確答案】:A137.現(xiàn)有一個(gè)節(jié)點(diǎn),在節(jié)點(diǎn)中有解壓的Hadoop安裝包(未配置),若搭建包含4個(gè)節(jié)點(diǎn)的Hadoop集群,則下列選項(xiàng)中步驟正確的是()。①克隆虛擬機(jī)②配置SSH免密碼登錄③格式化NameNode④修改配置文件⑤配置時(shí)間同步服務(wù)A、④①②⑤③B、③②①⑤④C、⑤①③②④D、②⑤④①③【正確答案】:A138.配置Hadoop時(shí),下列配置文件中包含JAVA_HOME變量的是()。A、hadoop-default.xmlB、hadoop-env.shC、hadoop-site.xmlD、configuration.xs【正確答案】:B139.創(chuàng)建Hive數(shù)據(jù)表時(shí),指定字段之間的分隔符,需要使用()語(yǔ)句。A、fieldsterminatedbyB、rowformatdelimitedC、mapkeysterminatedD、collectionitemsterminatedby【正確答案】:A解析:
7001作業(yè)選擇題第七章HBase分布式數(shù)據(jù)庫(kù)(10題)一、選擇題140.Hive是建立在()之上的一個(gè)數(shù)據(jù)倉(cāng)庫(kù)。A、HDFSB、MapReduceC、HadoopD、HBase【正確答案】:C141.關(guān)于自定義鍵值類型,下列說(shuō)法正確的是()。A、自定義鍵值類型必須繼承Writable接口B、自定義MapReduce的鍵類型需要繼承Writable接口C、自定義MapReduce的值類型需要繼承WritableComparable接口D、自定義鍵值類型必須實(shí)現(xiàn)readFields(DataInputd
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 游戲化學(xué)習(xí)培訓(xùn)企業(yè)制定與實(shí)施新質(zhì)生產(chǎn)力項(xiàng)目商業(yè)計(jì)劃書
- 構(gòu)建校企合作生態(tài)的策略及實(shí)施路徑
- 2025安裝圍墻施工合同范本:智慧城市圍界安全合同
- 商業(yè)房產(chǎn)租賃合同范文
- 六年級(jí)下冊(cè)家長(zhǎng)會(huì)課件下載
- 六年級(jí)上家長(zhǎng)會(huì)課件
- 2025-2030電競(jìng)酒店產(chǎn)業(yè)市場(chǎng)深度調(diào)研及發(fā)展趨勢(shì)與投資戰(zhàn)略研究報(bào)告
- 2025-2030牛肉市場(chǎng)市場(chǎng)現(xiàn)狀供需分析及投資評(píng)估規(guī)劃分析研究報(bào)告
- 2025-2030燃煤發(fā)電機(jī)組行業(yè)市場(chǎng)發(fā)展分析及前景趨勢(shì)與投融資戰(zhàn)略研究報(bào)告
- 2025-2030海灣合作委員會(huì)國(guó)家薯片行業(yè)市場(chǎng)現(xiàn)狀供需分析及投資評(píng)估規(guī)劃分析研究報(bào)告
- 《意蘊(yùn)雋永的漢字-破解漢字之謎》
- 浙江高等教育崗前培訓(xùn)考試題目-大學(xué)心理學(xué)1-20套
- 人教版五年級(jí)下數(shù)學(xué)周末練習(xí)題13(分?jǐn)?shù)加減法)
- 抗菌藥物臨床應(yīng)用指導(dǎo)原則(2023年版)
- 國(guó)開(kāi)電大??啤豆芾碛⒄Z(yǔ)1》機(jī)考總題庫(kù)
- GB/T 7442-2007角向磨光機(jī)
- 消防安全主題班會(huì)課件(共17張ppt)
- 圓柱、圓錐和球課件
- 如何上好一節(jié)課
- 《獸醫(yī)臨床診斷學(xué)》試題集題庫(kù)
- ××?xí)?wù)組織重大失誤檢討書
評(píng)論
0/150
提交評(píng)論