全國職業(yè)院校技能大賽中職(大數(shù)據(jù)應(yīng)用與服務(wù)賽項)考試題及答案_第1頁
全國職業(yè)院校技能大賽中職(大數(shù)據(jù)應(yīng)用與服務(wù)賽項)考試題及答案_第2頁
全國職業(yè)院校技能大賽中職(大數(shù)據(jù)應(yīng)用與服務(wù)賽項)考試題及答案_第3頁
全國職業(yè)院校技能大賽中職(大數(shù)據(jù)應(yīng)用與服務(wù)賽項)考試題及答案_第4頁
全國職業(yè)院校技能大賽中職(大數(shù)據(jù)應(yīng)用與服務(wù)賽項)考試題及答案_第5頁
已閱讀5頁,還剩135頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)

文檔簡介

全國職業(yè)院校技能大賽中職(大數(shù)據(jù)應(yīng)用與服務(wù)賽項)考試題及答案單選題1.制作鏡像時,復(fù)制文件到鏡像中使用的命令是()。A、DDB、COPYC、RUND、CMD參考答案:B2.在配置好Hadoop集群之后,通過瀏覽器登錄查看HDFS狀態(tài),以下是查看的URL()。A、http://master:8089B、:50070C、http://master:16010D、http://master:9999參考答案:B3.在導(dǎo)入開始之前,Sqoop檢索出表中所有的列以及列的SQL數(shù)據(jù)類型,這些SQL類型被映射什么類型()。A、CB、C++C、JavaD、Python參考答案:C4.在ZooKeeper中,在配置文件zoo.cfg中,請問initLimit表示的含義是()。A、Leader-Follower初始通信時限B、Leader-Follower同步通信時限C、lient-Server通信心跳時間D、Client-Server初始通信時限參考答案:A5.在ZooKeeper中,事務(wù)日志(transactionlog)用于記錄()。A、節(jié)點的數(shù)據(jù)變更操作B、節(jié)點的子節(jié)點變更操作C、節(jié)點的ACL變更操作D、所有節(jié)點的操作參考答案:D6.在ZooKeeper中,每個節(jié)點都有一個唯一的標(biāo)識符,這個標(biāo)識符是()。A、ZNodeB、EphemeralNodeC、PersistentNodeD、ZooNode參考答案:A7.在ZooKeeper中,節(jié)點可以設(shè)置監(jiān)聽器嗎?()A、是,可以設(shè)置監(jiān)聽器B、否,節(jié)點沒有監(jiān)聽功能C、取決于節(jié)點的類型D、取決于節(jié)點的權(quán)限設(shè)置參考答案:A8.在ZooKeeper中,節(jié)點的數(shù)據(jù)版本是如何維護的?()A、自動遞增B、手動指定C、根據(jù)節(jié)點的創(chuàng)建時間確定D、隨機生成參考答案:A9.在ZooKeeper中,關(guān)于節(jié)點的ACL(訪問控制列表)說法錯誤的是()。A、CL可以用于控制節(jié)點的讀寫權(quán)限B、ACL可以定義多個權(quán)限組合C、ACL可以設(shè)置到子節(jié)點上并繼承父節(jié)點的權(quán)限D(zhuǎn)、ACL只能設(shè)置在持久節(jié)點上參考答案:D10.在ZooKeeper中,ZAB協(xié)議是()。A、用于節(jié)點間的數(shù)據(jù)同步和一致性保證的協(xié)議B、用于節(jié)點間的消息傳遞和通信的協(xié)議C、用于節(jié)點間的負(fù)載均衡和路由選擇的協(xié)議D、用于節(jié)點間的權(quán)限控制和訪問管理的協(xié)議參考答案:A11.在ZooKeeper中,Watcher是在()被觸發(fā)。A、在節(jié)點數(shù)據(jù)變更之前B、在節(jié)點數(shù)據(jù)變更之后C、在節(jié)點數(shù)據(jù)變更期間D、取決于Watcher的設(shè)置參考答案:B12.在ZooKeeper中,Watcher是一次性的嗎?()A、是,一旦觸發(fā)就無法再次使用B、否,可以反復(fù)使用C、取決于Watcher的類型D、取決于節(jié)點的類型參考答案:C13.在ZooKeeper中,SEQUENTIAL節(jié)點的特點是()。A、節(jié)點名稱具有順序性B、節(jié)點數(shù)據(jù)具有順序性C、節(jié)點的觸發(fā)器具有順序性D、節(jié)點的ACL具有順序性參考答案:A14.在ZooKeeper中,EPHEMERAL節(jié)點的特點是()。A、臨時創(chuàng)建,會話結(jié)束后自動刪除B、持久創(chuàng)建,會話結(jié)束后仍然保留C、只能由Leader節(jié)點創(chuàng)建D、只能由Follower節(jié)點創(chuàng)建參考答案:A15.在ZooKeeper中,ACL(訪問控制列表)可以設(shè)置為()。A、CREATOR_ALL_ACLB、OPEN_ACL_UNSAFEC、AUTH_IDSD、所有選項都正確參考答案:D16.在ZooKeeper中,()角色負(fù)責(zé)協(xié)調(diào)其他節(jié)點的工作。A、領(lǐng)導(dǎo)者(Leader)B、跟隨者(Follower)C、觀察者(Observer)D、所有角色均可參考答案:A17.在Sqoop中,使用哪個命令可以列出可用的數(shù)據(jù)庫連接?()A、sqooplist-databasesB、sqoophelpC、sqoopconnectionsD、sqoopserver參考答案:A18.在Sqoop中,哪個參數(shù)用于指定要導(dǎo)入的目標(biāo)表?()A、–tableB、–target-dirC、–outdirD、–where參考答案:A19.在Kafka中,()是ISR隊列中最小的LEO。A、LEOB、ISRC、HWD、AR參考答案:C20.在hive中下列哪個命令不可以實現(xiàn)去重()。A、distinctB、groupbyC、row_numberD、having參考答案:D21.在Hive中,以下哪個配置參數(shù)用于指定Hive執(zhí)行計劃的輸出目錄()?A、hive.query.plan.output.directoryB、hive.exec.plan.output.directoryC、hive.plan.output.directoryD、hive.query.execution.directory參考答案:A22.在Hive中,以下哪個配置參數(shù)用于指定Hive執(zhí)行計劃的緩存目錄()?A、hive.query.plan.cache.dirB、hive.exec.plan.cache.dirC、hive.cache.plan.directoryD、hive.query.cache.directory參考答案:B23.在Hive中,以下哪個配置參數(shù)用于指定Hive元數(shù)據(jù)存儲的數(shù)據(jù)庫類型()?A、hive.metastore.urisB、hive.metastore.schemaC、hive.metastore.db.typeD、hive.metastore.db.url參考答案:C24.在Hive中,以下哪個配置參數(shù)用于指定Hive服務(wù)器的端口號()?A、hive.server.portB、hive.server2.thrift.portC、hive.server.rpc.portD、hive.thrift.server.port參考答案:B25.在Hive中,以下哪個配置參數(shù)用于指定Hive的執(zhí)行引擎為Spark()?A、hive.execution.engine=sparkB、hive.spark.execution.engine=trueC、hive.spark.engine.enabled=trueD、hive.query.engine=spark參考答案:A26.在Hive中,以下哪個配置參數(shù)用于指定Hive表的默認(rèn)存儲格式()?A、hive.default.storage.formatB、hive.default.file.formatC、hive.default.formatD、hive.table.default.format參考答案:C27.在Hive中,以下哪個配置參數(shù)用于指定HiveCLI的歷史命令記錄文件名()?A、B、hive.cli.history.fileC、mand.log.filenameD、hive.query.log.file參考答案:B28.在Hive中,以下哪個配置參數(shù)用于指定HDFS的名稱節(jié)點地址()。A、hive.metastore.urisB、fs.defaultFSC、hive.metastore.warehouse.dirhive.server2.thrift.port參考答案:B29.在Hive中,哪個配置參數(shù)用于指定Hive的執(zhí)行模式,如本地模式或MapReduce模式()?A、hive.execution.engineB、hive.execution.modeC、hive.mapred.modeD、hive.exec.mode參考答案:B30.在Hive中,哪個配置參數(shù)用于指定HiveCLI的歷史命令記錄目錄()?A、hive.history.file.directoryB、hive.query.log.dirC、hive.cli.history.directoryD、mand.log.dir參考答案:C31.在HDFS文件操作中,上傳文件的命令是()。A、putB、inputC、getD、up參考答案:A32.在Hadoop生態(tài)組件中,哪個產(chǎn)品可用于復(fù)雜的批量數(shù)據(jù)處理。()A、MapReduce、HiveB、ImpalaC、StormD、Mahout參考答案:A33.在hadoop配置中core-site.xml的配置是()參數(shù)。A、集群全局參數(shù)B、HDFS參數(shù)C、Mapreduce參數(shù)D、集群資源管理系統(tǒng)參數(shù)參考答案:A34.在Flink中,水位線是()生成的。A、基于系統(tǒng)時間的周期性B、基于事件時間的周期性C、由用戶手動指定D、實時參考答案:A35.在Flink中,窗口(Window)的作用是()。A、控制數(shù)據(jù)流的速度B、對數(shù)據(jù)流進行分組C、對數(shù)據(jù)流進行時間切片D、對數(shù)據(jù)流進行過濾參考答案:C36.在Flink中,()通常用于指定Flink作業(yè)的任務(wù)流圖(JobGraph)。A、flink.xmlB、job.confC、pertiesD、flink-config.yaml參考答案:D37.在Flink的配置文件中,()通常用來指定Flink任務(wù)并行度。A、parallelism.defaultB、task.parallelismC、parallelism.default-taskD、task.default-parallelism參考答案:D38.在Docker數(shù)據(jù)管理中,數(shù)據(jù)卷可以提供的特性不包括()。A、數(shù)據(jù)卷可以在容器之間共享和重用B、對數(shù)據(jù)卷內(nèi)數(shù)據(jù)的修改立馬生效C、對數(shù)據(jù)卷的更新不影響鏡像D、掛載數(shù)據(jù)卷時要手工創(chuàng)建掛載目錄參考答案:D39.在Docker的運行過程中,對鏡像的操作不包括()。A、deleteB、searchC、pullD、push參考答案:A40.在Centos中啟動Docker服務(wù)的命令是()。A、systemstartdockerB、systemenabledockerC、systemctlstartdockerD、systemctlrundocker參考答案:C41.在()版本后,Kafka正式移除了對Zookeeper的依賴。A、Kafka1.8B、Kafka2.6C、Kafka2.8D、Kafka3.2參考答案:C42.允許開發(fā)人員為容器分配MAC地址的是()。A、網(wǎng)橋網(wǎng)絡(luò)B、覆蓋網(wǎng)絡(luò)C、驅(qū)動網(wǎng)絡(luò)D、主機網(wǎng)絡(luò)參考答案:C43.以下選項中說法正確的是()。A、DAG是彈性分布式數(shù)據(jù)集的簡稱,是分布式內(nèi)存的一個抽象概念,提供了一種高度受限的共享內(nèi)存模型B、Application是運行在工作節(jié)點的一個進程,負(fù)責(zé)運行TaskC、Job是運行在Executor上的工作單元D、Stage是Job的基本調(diào)度單位,一個Job會分為多組Task,每組Task被稱為Stage參考答案:D44.以下選項哪個是MapReduce正確的運行模型()。A、Reduce-Map-ShuffleB、Shuffle-Map-ReduceC、Map-Shuffle-ReduceD、Map-Reduce-Shuffle參考答案:C45.以下選項哪個是HDFS的名稱節(jié)點()。A、DataNodeB、SecondaryNodeC、NodeD、NameNode參考答案:D46.以下哪種不是Hive支持的數(shù)據(jù)類型()。A、StructB、IntC、MapD、Long參考答案:D47.以下哪個選項不是Sqoop的導(dǎo)入模式?()A、純文本導(dǎo)入B、二進制導(dǎo)入C、Avro導(dǎo)入D、JSON導(dǎo)入?yún)⒖即鸢福篋48.以下哪個是正確的sqoop命令,用于將數(shù)據(jù)從MySQL導(dǎo)入到HDFS?()A、bin/sqoopimport--connectjdbc:mysql://0:3306/userdb--usernameroot--delete-target-dir--target-dir/MysqlToHDFS1--tablestudentB、in/sqoopimport--connectjdbc:mysql://localhost:3306/userdb--usernameroot--delete-target-dir--target-dir/MysqlToHDFS1--tablestudentC、bin/sqoopimport--connectjdbc:mysql://localhost:3306/userdb--usernameroot--delete-target-dir--target-dir/MysqlToHDFS1--tablestudent--m11D、bin/sqoopimport--connectjdbc:mysql://localhost:3306/userdb--usernameroot--delete-target-dir--target-dir/MysqlToHDFS1--tablestudent--m11.3參考答案:D49.以下哪個參數(shù)在sqoop命令中用于指定要刪除HDFS的目標(biāo)目錄?()A、--delete-target-dirB、--target-dirC、--delete-dirD、--delete參考答案:A50.以下關(guān)于Spark中的RDD的說法,錯誤的是()。A、RDD就是一個分布式對象集合,本質(zhì)上是一個只讀的分區(qū)記錄集合B、每個RDD可分成多個分區(qū),每個分區(qū)就是一個數(shù)據(jù)集片段C、RDD提供了一種高度共享內(nèi)存模型,RDD既可以讀,也可以直接修改D、RDD的不同分區(qū)可以被保存到集群中不同的節(jié)點上,從而可以在集群中的不同節(jié)點上進行并行計算參考答案:C51.以下關(guān)于Spark計算框架,說法錯誤的是()。A、Spark支持內(nèi)存計算B、Spark框架是使用Java編寫的C、Spark提供了完整而強大的技術(shù)棧,包括SQL查詢、流式計算、機器學(xué)習(xí)和圖算法組件D、Spark可運行于獨立的集群模式中,可運行于Hadoop中,也可運行于AmazonEC2等云環(huán)境中參考答案:B52.以下關(guān)于RDD的寬依賴和窄依賴的說法錯誤的是()。A、窄依賴表現(xiàn)為子RDD的一個分區(qū)只依賴于某個(些)父RDD的一個分區(qū)B、寬依賴則表現(xiàn)為子RDD的一個分區(qū)依賴于同一個父RDD的多個分區(qū)C、寬依賴的RDD之間無Shuffle操作D、窄依賴的RDD之間無Shuffle操作參考答案:C53.以下關(guān)于Hive操作描述不正確的是()。A、Hive是一個建立在hadoop文件系統(tǒng)上的數(shù)據(jù)倉庫架構(gòu),可以用其對HDFS上B、Hive依賴于MapReduce處理數(shù)據(jù)C、Hive的加載數(shù)據(jù)時候,可以用local進行修飾,表示從某個本地目錄下加載數(shù)據(jù)D、Hive一般可以用于實時的查詢分析參考答案:D54.以下對hive中表數(shù)據(jù)操作描述正確的是()。A、hive可以修改行值B、hive可以修改列值C、hive不可以修改特定行值、列值D、以上說法都不對參考答案:C55.以下()文件中主要用來配置ResourceManager,NodeManager的通信端口,web監(jiān)控端口等。A、core-site.xmlB、mapred-site.xmlC、hdfs-site.xmlD、yarn-site.xml參考答案:D56.要在Hive中啟用數(shù)據(jù)列級別的訪問控制(RBAC),應(yīng)該設(shè)置哪個配置參數(shù)()?A、hive.column.security.enabledB、hive.rbac.enabledC、hive.security.column.enabledD、hive.access.control.columns=true參考答案:C57.要在Hive中啟用Kerberos認(rèn)證,應(yīng)該設(shè)置哪個配置參數(shù)()?A、hive.security.authenticationB、hive.kerberos.enabledC、hive.auth.kerberosD、hive.authentication.method參考答案:A58.消費者出現(xiàn)活鎖問題時應(yīng)該()。A、增加erval.ms相關(guān)參數(shù)B、減少消費者數(shù)量C、重啟集群D、提高poll頻率參考答案:A59.下面中不屬于HIVE中的元數(shù)據(jù)信息()。A、表的名字B、表的列和分區(qū)及其屬性C、表的屬性(只存儲內(nèi)部表信息)D、表的數(shù)據(jù)所在目錄參考答案:C60.下面哪個命令是導(dǎo)入到集群()。A、importB、exportC、odegenD、eval參考答案:A61.下面哪個命令是創(chuàng)建hive表()。A、import-all-tablesB、list-databasesC、list-tablesD、create-hive-table參考答案:D62.下面哪個命令行參數(shù)可以用來刪除Kafka中的Topic?()A、listB、createC、deleteD、escribe參考答案:C63.下面哪個程序負(fù)責(zé)HDFS數(shù)據(jù)存儲()。A、DatanodeB、NameNodeC、JobtrackerD、secondaryNameNode參考答案:A64.下面()端口不是Spark自帶服務(wù)的端口。A、8080.0B、4040.0C、8090.0D、18080.0參考答案:C65.下面()操作是窄依賴。A、joinB、filterC、groupD、sort參考答案:B66.下面()操作是寬依賴。A、map♂B、flatMapC、groupByKeyD、union參考答案:C67.下面()不是RDD的特點。A、可分區(qū)B、可序列化C、可修改D、可持久化參考答案:C68.下列語句中,描述錯誤的是()。A、可以通過CLI方式、JavaApi方式調(diào)用SqoopB、Sqoop底層會將Sqoop命令轉(zhuǎn)換為MapReduce任務(wù),并通過Sqoop連接器進行數(shù)據(jù)的導(dǎo)入導(dǎo)出操作C、Sqoop是獨立的數(shù)據(jù)遷移工具,可以在任何系統(tǒng)上執(zhí)行D、如果在Hadoop分布式集群環(huán)境下,連接MySQL服務(wù)器參數(shù)不能是“l(fā)ocalhost”或“”參考答案:C69.下列選項中,針對Spark運行的基本流程是錯誤是()。A、Driver端提交任務(wù),向Master申請資源B、Master與Worker進行TCP通信,使得Worker啟動ExecutorC、Executor啟動會主動連接Driver,通過Driver->Master->WorkExecutor,從而得到Driver在哪D、river會產(chǎn)生Task,提交給Executor中啟動Task去做真正的計算參考答案:B70.下列說法錯誤的是()。A、生產(chǎn)者和消費者面向的都是一個topicB、生產(chǎn)者發(fā)送數(shù)據(jù)的對象是leaderC、當(dāng)集群中的某個節(jié)點發(fā)生故障時,Replica上的partition數(shù)據(jù)不會丟失D、partition是一個沒有順序的隊列參考答案:D71.下列哪種情況不會觸發(fā)到消費者分區(qū)的重新分配?A、當(dāng)有新的消費者加入消費者組B、已有的消費者推出消費者組C、處于消費者所在分區(qū)最近提交的offset位置D、消費者所訂閱的主題的分區(qū)發(fā)生變化參考答案:C72.下列哪個數(shù)據(jù)類型不是hadoop的數(shù)據(jù)類型()。A、TextB、StringC、IntWritableD、NullWritable參考答案:B73.下列描述中,哪項不屬于Sqoop的缺點()。A、無法控制任務(wù)的并發(fā)度B、格式緊耦合C、安全機制不夠完善D、connector必須符合JDBC模型參考答案:A74.下列關(guān)于topic和partition的描述,錯誤的是()。A、Kafka中消息是以partition進行分類的B、與partition不同,topic是邏輯上的概念而非物理上的概念C、每個partition對應(yīng)于一個log文件D、一個partition分為多個segment參考答案:A75.下列關(guān)于MapReduce說法不正確的是()。A、MapReduce是一種計算框架B、MapReduce來源于google的學(xué)術(shù)論文C、MapReduce程序只能用java語言編寫D、MapReduce隱藏了并行計算的細(xì)節(jié),方便使用參考答案:C76.下列關(guān)于leader和follower的說法正確的是()。A、一個topic的每個分區(qū)可以沒有l(wèi)eaderB、一個topic的每個分區(qū)可以沒有followerC、消費者消費數(shù)據(jù)的對象都是leaderD、follower從leader中同步數(shù)據(jù)有一定延遲參考答案:C77.下列方法中,不能創(chuàng)建RDD的方法是()。A、makeRDDB、parallelizeC、textFileD、testFile參考答案:D78.下列()不是RDD的緩存方法。A、persist()B、Cache()C、Memory()D、以上都不是參考答案:C79.下列()不是Docker項目中用于文件存儲的數(shù)據(jù)庫。A、MYSQLB、MongoDBC、RedisD、Kafka參考答案:D80.下列()不可以作為SparkStreaming的輸入數(shù)據(jù)流。A、KafkaB、TwitterC、TCP套接字D、Openstack參考答案:D81.停止一個容器的操作命令是()。A、dockerstopB、dockershutdownC、dockershiftD、ockerpause參考答案:A82.搜索nginx引擎的操作命令是()。A、dockersearchnginxB、dockerpullnginxC、dockerpushnginxD、ockerrmnginx參考答案:A83.水位線的單位通常是()。A、秒B、毫秒C、分鐘D、小時參考答案:B84.使用消息隊列的好處不包括()。A、能夠有效解耦B、可恢復(fù)性增強C、提供緩沖空間D、能夠同步通信參考答案:D85.使用Dockerrun命令運行一個容器時,通過參數(shù)()可啟動一個bash允許用戶進行交互。A、itB、iaC、ntD、na參考答案:A86.使用create命令新建容器時,指定映射到本地主機端口的命令選項是()。A、pB、hC、nD、i參考答案:A87.使用create命令新建容器時,指定容器在網(wǎng)絡(luò)中的別名的命令選項是()。A、net-nameB、net-aliasC、networkD、alias參考答案:B88.若要在Hive中啟用壓縮數(shù)據(jù)存儲,應(yīng)該設(shè)置哪個配置參數(shù)()?A、press.enabledB、pression.enabledC、pression.enabled參考答案:B89.強制刪除容器tmp01的操作命令是()。A、dockerrm-ftmp01B、dockerrm-vtmp01C、dockerrm-1tmp01D、ockerrm-Itmp01參考答案:A90.啟動一個容器的操作命令是()。A、dockerstartB、dockeropenC、dockernewD、ockergo參考答案:A91.將一個已經(jīng)創(chuàng)建的容器導(dǎo)出到一個文件使用的操作命令是()。A、dockerimportB、dockerloadC、dockeroutputD、ockerexport參考答案:D92.將一個RDD轉(zhuǎn)換為DataFrame的方法是()。A、dataFrame()B、toDataFrame()C、DF()D、toDF()參考答案:D93.將大數(shù)據(jù)平臺數(shù)據(jù)導(dǎo)出到mysql可以使用()工具。A、HadoopB、SqoopC、HiveD、Xshell參考答案:B94.將nginx容器接入自定義的myops網(wǎng)絡(luò)的操作命令是()。A、dockernetworkjoinmyopsnginxB、dockernetworkconnmyopsnginxC、dockernetworkconnectmyopsnginxD、ockernetworkconnectnginxmyops參考答案:C95.獲取遠程倉庫中Docker鏡像的操作命令是()。A、dockergetB、dockerpushC、dockerpullD、ockerdownload參考答案:C96.關(guān)于ZooKeeper臨時節(jié)點的說法正確的是()。A、創(chuàng)建臨時節(jié)點的命令為:create-s/tmpmyvalueB、一旦會話結(jié)束,臨時節(jié)點將被自動刪除C、臨時節(jié)點不能手動刪除D、臨時節(jié)點允許有子節(jié)點參考答案:B97.關(guān)于SparkStreaming的優(yōu)點,不包括()。A、易用性B、容錯性C、易整合性D、低吞吐量參考答案:D98.關(guān)于SparkSQL,以下說法正確的是()。A、HiveContext繼承了SqlContextB、DataFrame其實就是RDDC、HiveContext只支持SQL語法解析器D、SparkSQL的前身是Hive參考答案:A99.關(guān)于SparkSQL,以下描述錯誤的是()。A、SparkSQL使用的數(shù)據(jù)抽象并非是DataFrame,而是RDDB、在Spark的早期版本中,DataFrame被稱為SchemaRDDC、DataFrame是一種以RDD為基礎(chǔ)的分布式數(shù)據(jù)集D、ataFrame可以完成RDD的絕大多數(shù)功能參考答案:A100.關(guān)于SecondaryNameNode哪項是正確的?()A、它是NameNode的熱備B、它的目的是幫助NameNode合并編輯日志,減少NameNode啟動時間C、它對內(nèi)存沒有要求D、SecondaryNameNode應(yīng)與NameNode部署到一個節(jié)點參考答案:B101.關(guān)于MapReduce優(yōu)點,下列說法不正確的是()。A、高容錯性B、適合PB級以上海量數(shù)據(jù)的離線處理C、良好的擴展性D、適合做實時計算參考答案:D102.關(guān)于MapReduce的說法正確的是()。A、MapReduce1.0用YARN框架來進行資源調(diào)度的B、MapReduce是基于內(nèi)存計算的框架C、MapReduce是分布式文件存儲系統(tǒng)D、MapReduce1.0既是一個計算框架又是一個資源調(diào)度框架參考答案:D103.關(guān)于Hive用戶自定義函數(shù)UDF的描述錯誤的是()。A、UDF(User-Defined-Function)一進一出B、UDAF(User-DefinedAggregationFuncation)聚集函數(shù),多進一出C、UDTF(User-DefinedTable-GeneratingFunctions)一進多出D、上傳UDFjar包至Hive環(huán)境即可使用自定義函數(shù)參考答案:D104.關(guān)于Hive數(shù)據(jù)傾斜問題描述正確的是()。A、不需要了解業(yè)務(wù),對業(yè)務(wù)進行數(shù)據(jù)探查無法解決數(shù)據(jù)傾斜B、每一個數(shù)據(jù)傾斜的作業(yè)都需要優(yōu)化C、小文件合并不會解決數(shù)據(jù)傾斜的問題D、可以適當(dāng)?shù)耐ㄟ^控制mapper和reducer來控制數(shù)據(jù)傾斜的問題參考答案:D105.關(guān)于Hive數(shù)據(jù)模型描述正確的是()。A、Hive的元數(shù)據(jù)存儲在HDFS中B、Hive的數(shù)據(jù)模型只包含:表、分區(qū)參考答案:B106.關(guān)于Hive內(nèi)外表描述正確的是()。A、內(nèi)部表數(shù)據(jù)由HDFS自身管理,外部表數(shù)據(jù)由Hive管理;B、內(nèi)部表數(shù)據(jù)存儲的位置是hive.metastore.warehouse.dir設(shè)置配置(默認(rèn):/user/hive/warehouse)C、外表存儲必須指定LOCATIOND、內(nèi)外表刪除時,都會刪除元數(shù)據(jù)和存儲參考答案:B107.關(guān)于Hive描述正確的是()。A、count函數(shù)必須開窗口才能使用B、max函數(shù)是窗口函數(shù)C、lead函數(shù)是聚合函數(shù),不是窗口函數(shù)D、min函數(shù)是聚合函數(shù),不是窗口函數(shù)參考答案:B108.關(guān)于Hive和傳統(tǒng)數(shù)據(jù)庫的比較描述正確的是()?A、Hive使用了查詢語言HQL(HiveQueryLanguage),HQL與SQL沒有任何關(guān)系B、Hive使用了查詢語言HQL(HiveQueryLanguage),HQL與SQL沒有任何關(guān)系C、Hive是建立在Hadoop之上的,所有Hive的數(shù)據(jù)都是存儲在HDFS中的,而數(shù)據(jù)庫則可以將數(shù)據(jù)保存在塊設(shè)備或者本地文件系統(tǒng)中D、Hive的針對數(shù)據(jù)倉庫設(shè)計,針對的是讀多寫少的場景灕灕灕灕灕灕參考答案:D109.關(guān)于Hive各個格式使用場景描述錯誤的是()。A、Parquet對于大型查詢的類型是高效的,對于掃描特定表格中的特定列的查詢,Parquet特別有用B、目前Parquet默認(rèn)使用gzip壓縮格式C、ORC可以支持復(fù)雜的數(shù)據(jù)結(jié)構(gòu)(比如Map等)D、RCFile是一種行列存儲相結(jié)合的存儲方式參考答案:B110.關(guān)于Hive的SequenceFile格式描述正確的是()。A、SequenceFile是二進制文件格式,以list的形式序列化到文件中B、SequenceFile存儲方式:列存儲C、SequenceFile不可分割、壓縮D、SequenceFile優(yōu)勢是文件和Hadoopapi中的MapFile是相互兼容的參考答案:D111.關(guān)于Hive存儲的文件格式描述錯誤的是()。A、ORC格式是Hive一直支持的B、TEXTFILE是Hive的默認(rèn)存儲格式C、SequenceFile是一種二進制存儲D、RC是ORC的前身參考答案:A112.關(guān)于Hive查詢通常延遲較高的原因描述錯誤的是()。A、由于沒有索引,需要掃描整個表,因此延遲較高B、由于MapReduce本身具有較高的響應(yīng)延遲,因此在利用MapReduce執(zhí)行Hive查詢時,也會有較高的延遲響應(yīng)C、關(guān)系型數(shù)據(jù)庫較于Hive底層的文件系統(tǒng)實現(xiàn),執(zhí)行延遲較低D、Hive查詢延遲較于關(guān)系型數(shù)據(jù)庫,延遲響一直都是很高的參考答案:D113.關(guān)于HiveSQL編譯描述正確的是()。A、HiveSQL的Parser層是為了將SQL轉(zhuǎn)化為執(zhí)行計劃的B、邏輯層優(yōu)化器會進行算子轉(zhuǎn)換,優(yōu)化合并不必要的算子操作C、MapReduce任務(wù)是需要遍歷QueryBlock后生成的D、編譯器遍歷ASTTree,抽象出查詢的基本組成單元OperatorTree參考答案:B114.關(guān)于Hivemetastore的三種模式的描述錯誤的是()。A、Derby方式是內(nèi)嵌的方式,也是默認(rèn)的啟動方式,一般用于單元測試B、local模式中,使用MySQL本地部署實現(xiàn)metastoreC、remote模式為遠程MySQLD、erby方式在同一時間只能有多個進程連接使用數(shù)據(jù)庫參考答案:D115.關(guān)于DStream窗口操作函數(shù),以下說法錯誤的是()。A、window()返回基于源DStream的窗口進行批計算后的一個新的DstreamB、countByWindow()返回基于滑動窗口的DStream中的元素數(shù)C、reduceByWindow()做聚合操作并返回一個新的DstreamD、以上說法都不對參考答案:D116.關(guān)于Dataset,下列說法錯誤的是()。A、Dataset能從RDD中構(gòu)建B、Dataset提供了特定域?qū)ο笾械娜躅愋图螩、Dataset結(jié)合了RDD和DataFrame的優(yōu)點D、ataset可以通過SparkSession中的createDataset來創(chuàng)建參考答案:B117.關(guān)于DataFrame與RDD在結(jié)構(gòu)上的區(qū)別,以下描述錯誤的是()。A、DataFrame可以看作是分布式的Row對象的集合,在二維表數(shù)據(jù)集的每一列都帶有名稱和類型B、RDD是分布式的Java對象的集合C、RDD在轉(zhuǎn)換數(shù)據(jù)形式時效率相對較高D、ataFrame提供了比RDD更豐富的算子參考答案:C118.關(guān)于DataFrame的優(yōu)勢,以下描述錯誤的是()。A、DataFrame提升了Spark框架的執(zhí)行效率B、DataFrame減少了數(shù)據(jù)讀取時間C、DataFrame可以優(yōu)化執(zhí)行計劃D、ataFrame可以完全替換RDD參考答案:D119.典型的NoSQL數(shù)據(jù)庫是()。A、HiveB、MySQLC、HbaseD、Oracle參考答案:C120.當(dāng)之前下線的分區(qū)重新上線時,要執(zhí)行Leader選舉,選舉策略為()。A、OfflinePartitionLeader選舉B、ReassignPartitionLeader選舉C、PreferredReplicaPartitionLeader選舉D、ControlledShutdownPartitionLeader選舉參考答案:A121.當(dāng)在Sqoop中使用--target-dir參數(shù)時,它指定了哪個目錄的路徑?()A、導(dǎo)出數(shù)據(jù)的目錄B、導(dǎo)入數(shù)據(jù)的目錄C、HDFS的目標(biāo)目錄D、S3的目標(biāo)目錄參考答案:C122.當(dāng)在Sqoop中使用--append參數(shù)時,它會將數(shù)據(jù)添加到目標(biāo)表的哪個位置?()A、文件的開頭B、文件的末尾C、新文件中D、隨機位置參考答案:B123.當(dāng)使用sqoop將數(shù)據(jù)從MySQL導(dǎo)入到HDFS時,以下哪個參數(shù)用于指定使用多個mapper?()A、-mB、-fC、-tD、-c參考答案:A124.當(dāng)Kafka中日志片段大小達到()時,當(dāng)前日志片段會被關(guān)閉。A、1MB、100MC、1GBD、10GB參考答案:C125.查看HDFS的報告命令是()。A、bin/hdfsdfsadmin-reportB、in/hdfs-reportC、bin/hdfsdeadmin-reportD、bin/hdfsdfs-report參考答案:A126.查看Docker鏡像信息的命令是()。A、lsdockerB、lsimagesC、dockerlistimagesD、ockerimages參考答案:D127.查看Docker版本號的操作命令是()。A、docker-vB、docker--versionC、docker-lD、ocker-a參考答案:A128.ZooKeeper中的一致性協(xié)議ZAB是基于()算法實現(xiàn)。A、2PC(Two-PhaseCommit)算法B、Raft算法C、Paxos算法D、3PC(Three-PhaseCommit)算法參考答案:C129.ZooKeeper中的一次寫操作是原子的嗎?()A、是,寫操作是原子的B、否,寫操作可能不是原子的C、取決于寫操作的類型D、取決于節(jié)點的類型參考答案:A130.ZooKeeper中的一次讀操作是原子的嗎?()A、是,讀操作是原子的B、否,讀操作可能不是原子的C、取決于讀操作的類型D、取決于節(jié)點的類型參考答案:A131.ZooKeeper中的數(shù)據(jù)模型是基于()。A、關(guān)系模型B、鍵值對模型C、圖模型D、文檔模型參考答案:B132.ZooKeeper中的節(jié)點可以設(shè)置()類型的觸發(fā)器。A、數(shù)據(jù)變更觸發(fā)器B、子節(jié)點變更觸發(fā)器C、連接狀態(tài)觸發(fā)器D、所有類型的觸發(fā)器參考答案:D133.ZooKeeper使用的是()文件系統(tǒng)。A、HadoopDistributedFileSystem(HDFS)B、NetworkFileSystem(NFS)C、ZooKeeperFileSystem(ZFS)D、ExtensibleStorageEngine(ESE)參考答案:C134.ZooKeeper的特點不包括()。A、順序一致性B、原子性C、可靠性D、復(fù)合系統(tǒng)映像參考答案:D135.yarn狀態(tài)的查詢url為()。A、http://yarn:8088B、http://yarn:50070C、http://master:8088D、http://master:50070參考答案:C136.Task運行在下面()選項中Executor上的工作單元。A、DriverprogramB、sparkmasterC、workernodeD、Clustermanager參考答案:C137.Stage的Task的數(shù)量由()決定。A、PartitionB、JobC、StageD、TaskScheduler參考答案:A138.Sqoop中哪個參數(shù)用于指定要使用的分隔符,以便在導(dǎo)入數(shù)據(jù)時正確處理字段?()A、–field-separatorB、–fsC、–delimiterD、–split-by參考答案:A139.Sqoop是一個用于在Hadoop和關(guān)系型數(shù)據(jù)庫之間進行大規(guī)模數(shù)據(jù)遷移的工具,它屬于哪個Apache項目的一部分()A、HadoopB、HiveC、ApacheCommonsD、Noneoftheabove參考答案:A140.Sqoop是Hadoop和關(guān)系數(shù)據(jù)庫服務(wù)器之間傳送數(shù)據(jù)的工具,下列哪種數(shù)據(jù)庫是不支持使用Sqoop直接進行數(shù)據(jù)傳送()。A、PostgresB、OracleC、MySQLD、Redis參考答案:D141.Sqoop將導(dǎo)入或?qū)С雒罘g成什么程序來實現(xiàn)導(dǎo)入導(dǎo)出()。A、SparkB、StormC、MapReduceD、Tez參考答案:C142.Sqoop的作用是()。A、用于傳統(tǒng)關(guān)系數(shù)據(jù)庫和Hadoop之間傳輸數(shù)據(jù)B、提供對日志數(shù)據(jù)進行簡單處理的能力C、是Hadoop體系中數(shù)據(jù)存儲管理的基礎(chǔ)D、是一個建立在HDFS之上,面向列的針對結(jié)構(gòu)化和半結(jié)構(gòu)化數(shù)據(jù)和動態(tài)數(shù)據(jù)庫參考答案:A143.sqoop的組件功能是()。A、sqoop只能實現(xiàn)關(guān)系型數(shù)據(jù)庫向非關(guān)系型數(shù)據(jù)傳輸數(shù)據(jù)B、sqoop是關(guān)系型數(shù)據(jù)庫C、sqoop實現(xiàn)在關(guān)系型數(shù)據(jù)庫和非關(guān)系型數(shù)據(jù)庫之間時行數(shù)據(jù)傳輸D、sqoop是非關(guān)系型數(shù)據(jù)庫參考答案:C144.sqoop安裝完成后,查看sqoop版本的命令是()。A、Sqoop-versionB、SqoopversionC、Sqoop-vD、Sqoopv參考答案:B145.Spark默認(rèn)的存儲級別是()。A、MEMORY_ONLYB、MEMORY_ONLY_SERC、MEMORY_AND_DISKD、MEMORY_AND_DISK_SER參考答案:A146.Spark采用RDD以后能夠?qū)崿F(xiàn)高效計算不是因為()。A、高效的容錯性,通過血緣關(guān)系重新計算丟失分區(qū)B、中間結(jié)果持久化到內(nèi)存,數(shù)據(jù)在內(nèi)存中的多個RDD操作之間進行傳遞,避免了不必要的讀寫磁盤開銷C、存放的數(shù)據(jù)可以是Java對象,避免了不必要的對象序列化和反序列化D、RDD采用了高效的“轉(zhuǎn)換”和“動作”算子參考答案:D147.SparkStreaming中對DStream的轉(zhuǎn)換操作會轉(zhuǎn)變成對()的操作。A、sqlB、datasetC、rddD、ataframe參考答案:C148.SparkJob默認(rèn)的調(diào)度模式是()。A、FIFOB、FAIRC、無D、運行時指定參考答案:A149.MySQL數(shù)據(jù)庫驅(qū)動文件放置于hive哪個目錄下()。A、jarB、libC、binD、sbin參考答案:B150.Linux下啟動HDFS的命令是()。A、HdfsB、startdfsC、start-dfs.shD、start-dfs.cmd參考答案:C151.Kafka最初是由哪家公司開發(fā)的?()A、GoogleB、FacebookC、LinkedInD、Microsoft參考答案:C152.Kafka是一種()。A、數(shù)據(jù)庫系統(tǒng)B、分布式消息隊列系統(tǒng)C、緩存系統(tǒng)D、文件系統(tǒng)參考答案:B153.Kafka使用的是什么類型的消息傳遞模式?()A、點對點B、發(fā)布-訂閱C、請求-響應(yīng)D、廣播參考答案:B154.Kafka服務(wù)器默認(rèn)能接收的最大消息是多大?()♂A、1MB、10MC、100MD、沒有大小限制,因為支持大數(shù)據(jù)參考答案:A155.Kafka的主題分區(qū)數(shù)量可以根據(jù)什么進行配置?()A、生產(chǎn)者數(shù)量B、消費者數(shù)量C、主題的重要性D、集群的規(guī)模參考答案:D156.Kafka的消息以什么形式進行存儲?()A、表格B、集合C、文檔D、日志參考答案:D157.Kafka的消息壓縮算法可以選擇的方式是()。A、GZIPB、SnappyC、LZ4D、所有以上參考答案:D158.Kafka的消息消費可以使用哪種模式?()A、單播B、組播C、廣播D、串播參考答案:A159.Kafka的消息是如何進行順序?qū)懭氲??()A、順序?qū)懭氲酱疟PB、順序?qū)懭氲絻?nèi)存C、順序?qū)懭氲骄彺鍰、順序?qū)懭氲剿饕募⒖即鸢福篈160.Kafka的消息傳遞語義是()。A、最終一致性B、強一致性C、弱一致性D、無一致性參考答案:C161.Kafka的消息傳遞保證是()。A、至少一次B、最多一次C、正好一次D、無保證參考答案:A162.Kafka的消息保留策略可以根據(jù)什么進行配置?()A、時間B、大小C、主題D、分區(qū)參考答案:A163.Kafka的消費者在處理消息時可以選擇的模式是()。A、單線程模式B、多線程模式C、分布式模式D、并行模式參考答案:B164.Kafka的消費者可以以什么方式進行消息偏移量的管理?()A、手動管理B、自動管理C、隨機管理D、循環(huán)管理參考答案:B165.Kafka的核心是由哪個組件組成?()A、ProducerB、ConsumerC、BrokerD、ZooKeeper參考答案:C166.Kafka的高可用性是通過什么機制實現(xiàn)的?()A、數(shù)據(jù)復(fù)制B、數(shù)據(jù)壓縮C、數(shù)據(jù)分片D、數(shù)據(jù)緩存參考答案:A167.HMaster的主要作用是()。A、用于啟動任務(wù)管理多個HRegionServerB、負(fù)責(zé)響應(yīng)用戶I/O請求,向HDFS文件系統(tǒng)讀寫數(shù)據(jù)C、負(fù)責(zé)協(xié)調(diào)集群中的分布式組件D、最終保存HBase數(shù)據(jù)行的文件參考答案:A168.Hive中以下操作不正確的是()。A、loaddatainpathintotablenameB、insertintotablenameC、insertoverwritetablenameD、upddatetablename參考答案:D169.Hive中分組的關(guān)鍵字是什么()?A、groupbyB、orderbyC、distributebyD、sortby參考答案:A170.Hive中的自動分區(qū)是通過哪個配置參數(shù)啟用的()?A、hive.auto.partitionB、hive.partition.autoC、hive.exec.dynamic.partitionD、hive.partitioning.auto參考答案:C171.Hive中的配置文件通常位于哪個目錄中()?A、/etc/hive/confB、/etc/hadoop/confC、/etc/hive/D、/etc/hive/config參考答案:A172.Hive中的哪個配置參數(shù)用于指定Hive元數(shù)據(jù)存儲的連接URL()?A、hive.metastore.db.urlB、hive.metastore.uriC、hive.metastore.connection.urlD、hive.metastore.db.connection參考答案:A173.Hive中的哪個配置參數(shù)用于指定Hive的臨時文件目錄()?A、hive.tmp.dirB、hive.temp.directoryC、hive.temp.dirD、hive.tmp.directory參考答案:A174.Hive是由哪家公司開源的()。A、GoogleB、FacebookC、LinkedInD、Netflix參考答案:B175.Hive是以()技術(shù)為基礎(chǔ)的數(shù)據(jù)倉庫。A、HDFSB、MAPREDUCEC、HADOOPD、HBASE參考答案:C176.Hive是為了解決哪類問題()?A、海量結(jié)構(gòu)化日志的數(shù)據(jù)統(tǒng)計B、分布式組件調(diào)度參考答案:A177.Hive默認(rèn)的元存儲是保存在內(nèi)嵌的()數(shù)據(jù)庫中。A、MySQLB、DerbyC、OracleD、SqlServer參考答案:B178.Hive的默認(rèn)元數(shù)據(jù)存儲是什么()?A、MySQLB、PostgreSQLC、DerbyD、Oracle參考答案:C179.HBase依賴()技術(shù)框架提供消息通信機制。A、ZookeeperB、ChubbyC、RPCD、Socket參考答案:A180.Hadoop組件在企業(yè)應(yīng)用中,能用于大數(shù)據(jù)集實時查詢的產(chǎn)品有()。A、HiveB、PigC、MahoutD、Hbase參考答案:D181.Hadoop安裝在一臺計算機上,需修改相應(yīng)的配置文件,用一臺計算機模擬多臺主機的集群是()模式。A、全分布模式B、偽分布模式C、單機模式D、全分布HA模式參考答案:B182.HadoopMapReduce支持多種語言編程,下列說法不正確的是()。A、可以用JAVA語言編寫MapReduce應(yīng)用程序B、可以用C/C++語言編寫MapReduce應(yīng)用程序C、可以用Python語言編寫MapReduce應(yīng)用程序D、可以用javascript語言編寫MapReduce應(yīng)用程序參考答案:D183.hadoop2.0與hadoop1.0區(qū)別()。A、增加MapReduce2B、增加YARNC、增加HDFS2D、增加容錯機制參考答案:B184.Flume如何處理故障恢復(fù)?()A、使用事務(wù)性機制B、使用重試機制C、使用斷點續(xù)傳機制D、以上都不是參考答案:C185.Flume的源類型有哪些?()A、Log4j,Kafka,HBase,自定義B、File,Kafka,HBase,自定義C、File,Kafka,HBase,Spooling,自定義D、File,Kafka,HBase,Spooling,Exec參考答案:C186.Flume的事件是什么?()A、數(shù)據(jù)項,記錄,和文件B、數(shù)據(jù)流,記錄,和事件C、數(shù)據(jù)項,記錄,和消息D、數(shù)據(jù)流,記錄,和消息參考答案:D187.Flume的事件可以包含哪些屬性?()A、Timest,Type,Body,Headers,CountB、Timest,Type,Body,Headers,IDC、Timest,Type,Body,Headers,SequenceIDD、Timest,Type,Body,Headers,Number參考答案:C188.Flume的事件Body可以包含什么類型的數(shù)據(jù)?()A、String,Byte數(shù)組,字節(jié)流,Map<String,String>和自定義對象序列化后的數(shù)據(jù)。B、String,Map<String,String>和自定義對象序列化后的數(shù)據(jù)。C、Byte數(shù)組,字節(jié)流和自定義對象序列化后的數(shù)據(jù)。D、String和自定義對象序列化后的數(shù)據(jù)。參考答案:A189.Flume的哪個組件用于將事件數(shù)據(jù)寫入目標(biāo)存儲?()A、ChannelB、SinkC、Source和ChannelD、Source和Sink參考答案:B190.Flume的哪個組件可以保證數(shù)據(jù)不會丟失?()A、通道B、接收器C、攔截器D、源參考答案:B191.Flume的哪個攔截器可以按類型區(qū)分事件?()A、ETL攔截器B、分區(qū)攔截器C、以上都不是D、以上都是參考答案:A192.Flume的哪個版本引入了Kafka作為其事件源和接收器?()A、Flume1.6B、Flume1.7C、DH5.0D、CDH5.1參考答案:C193.Flume的哪個版本開始支持Spoolingdirectorysource?()A、Flume1.0B、Flume1.1C、Flume1.2D、Flume1.3參考答案:C194.Flume的哪個版本開始支持HTTP和HTTPS協(xié)議?()A、Flume1.0B、Flume1.1C、Flume1.2D、Flume1.3參考答案:D195.Flume的哪個版本開始支持Avro作為數(shù)據(jù)傳輸格式?()A、1.X版本B、2.X版本C、3.X版本D、4.X版本以后參考答案:D196.Flume的哪個版本加入了對Thrift事件的的支持?()A、Flume1.0B、Flume1.1C、Flume1.2D、Flume1.3參考答案:B197.Flume的哪個版本加入了Kafka作為源和匯點?()A、1.X版本B、2.X版本C、3.X版本D、4.X版本參考答案:B198.Flume的默認(rèn)通道類型是什么?()A、MemoryChannelB、FileChannelC、KafkaChannelD、JdbcChannel參考答案:A199.Flume的默認(rèn)Avro序列化方式是什么?()A、JSONB、inaryC、SpecificD、Generic參考答案:C200.Flume的攔截器實現(xiàn)了哪個接口?()A、ChannelInterceptorB、EventInterceptorC、SinkInterceptorD、SourceInterceptor參考答案:B201.Flume的Source組件負(fù)責(zé)什么?()A、接收數(shù)據(jù)并將其寫入ChannelB、接收數(shù)據(jù)并將其轉(zhuǎn)發(fā)到下一組件C、從數(shù)據(jù)源讀取數(shù)據(jù)并將其寫入ChannelD、從數(shù)據(jù)源讀取數(shù)據(jù)并將其寫入接收器參考答案:C202.Flume的Kafka源類型是什么?()A、KafkaSourceB、KafkaSpoutC、KafkaAvroSourceD、KafkaEventSource參考答案:C203.Flume的Channel組件負(fù)責(zé)什么?()A、臨時存儲從Source組件接收的數(shù)據(jù)B、臨時存儲從下一組件接收的數(shù)據(jù)C、在Source和Sink之間傳遞數(shù)據(jù)D、在Source和Receiver之間傳遞數(shù)據(jù)參考答案:A204.Flink最常用的編程語言是()。A、JavaB、PythonC、ScalaD、C++參考答案:A205.Flink中的轉(zhuǎn)換算子(TransformationOperator)通常用于()。A、計算作業(yè)的結(jié)果B、控制作業(yè)的執(zhí)行順序C、定義數(shù)據(jù)源D、過濾和轉(zhuǎn)換數(shù)據(jù)流參考答案:D206.Flink中的事件時間(EventTime)是指()。A、事件發(fā)生的時間B、事件進入Flink的時間C、事件處理完成的時間D、事件被記錄的時間參考答案:A207.Flink中的任務(wù)并行度(TaskParallelism)是指()。A、任務(wù)執(zhí)行的速度B、同一任務(wù)的多個實例并行執(zhí)行C、不同任務(wù)之間的并行執(zhí)行D、任務(wù)的執(zhí)行順序參考答案:B208.Flink中的Watermark是用來(),幫助Flink正確地處理遲到的事件。A、測量數(shù)據(jù)流的速度B、表示數(shù)據(jù)流的起點C、處理亂序事件D、控制數(shù)據(jù)流的大小參考答案:C209.Flink中的Checkpoints(檢查點)主要用于()。A、實現(xiàn)Exactly-once語義B、控制并行度C、執(zhí)行作業(yè)D、壓縮數(shù)據(jù)參考答案:A210.Flink支持的數(shù)據(jù)處理方式為()。A、批處理B、流處理C、以上都是D、無法確定參考答案:C211.Flink支持處理各種類型的數(shù)據(jù),包括()數(shù)據(jù)。A、結(jié)構(gòu)化B、半結(jié)構(gòu)化C、無結(jié)構(gòu)化D、以上都是參考答案:D212.Flink任務(wù)管理器(TaskManager)的作用是()。A、管理Flink集群的任務(wù)B、管理Flink作業(yè)的狀態(tài)C、執(zhí)行Flink作業(yè)的任務(wù)D、部署Flink作業(yè)到集群參考答案:C213.Flink的作業(yè)調(diào)度(JobScheduling)通常由()負(fù)責(zé)。A、ResourceManagerB、TaskManagerC、JobManagerD、ZooKeeper參考答案:C214.Flink的作業(yè)提交通常需要()來管理作業(yè)的執(zhí)行。A、JobManagerB、TaskManagerC、ResourceManagerD、NameNode參考答案:A215.Flink的狀態(tài)管理用于(),以支持容錯性和狀態(tài)化的計算。A、存儲和檢索中間結(jié)果B、控制數(shù)據(jù)流速度C、定時觸發(fā)窗口操作D、執(zhí)行數(shù)據(jù)清洗參考答案:A216.Flink的主要特點是()。A、高吞吐量B、低延遲C、Exactly-once處理語義D、以上都是參考答案:D217.Flink的數(shù)據(jù)源可以是()。A、文件B、消息隊列C、數(shù)據(jù)庫D、以上都是參考答案:D218.Flink的時間語義(TimeSemantics)中的事件時間(EventTime)和處理時間(ProcessingTime)的區(qū)別是()。A、事件時間是事件發(fā)生的時間,處理時間是事件進入Flink的時間B、事件時間是事件進入Flink的時間,處理時間是事件發(fā)生的時間C、事件時間和處理時間是相同的D、事件時間和處理時間沒有明確的定義參考答案:A219.Flink的容錯機制是()工作的,它定期記錄數(shù)據(jù)流的狀態(tài),以便在發(fā)生故障時進行恢復(fù)。A、基于備份數(shù)據(jù)B、基于檢查點C、基于異常處理D、基于數(shù)據(jù)重播參考答案:B220.Flink的日志管理通常包括()這幾個方面。A、日志存儲和檢索B、日志清理和壓縮C、日志分析和報警D、以上都是參考答案:D221.Flink的廣播狀態(tài)(BroadcastState)用于()。A、在所有任務(wù)之間共享狀態(tài)B、保持?jǐn)?shù)據(jù)流的連續(xù)性C、加速數(shù)據(jù)處理D、控制數(shù)據(jù)流速度參考答案:A222.Flink的高可用性(HighAvailability)設(shè)置通常需要配置的組件是()。A、JobManager和TaskManagerB、ResourceManager和NodeManagerC、NameNode和DataNodeD、ZooKeeper集群參考答案:D223.Flink的分布式部署需要的組件是()。A、JobManager和TaskManagerB、JobClient和JobTrackerC、Master和SlaveD、river和Executor參考答案:A224.Flink的窗口操作通常在()執(zhí)行,以對數(shù)據(jù)進行分組、聚合和統(tǒng)計。A、數(shù)據(jù)產(chǎn)生時B、數(shù)據(jù)進入Flink時C、數(shù)據(jù)在窗口中間時D、數(shù)據(jù)離開Flink時參考答案:C225.Flink的本地模式(LocalMode)和集群模式(ClusterMode)之間的主要區(qū)別是()。A、部署方式B、編程語言C、安全性設(shè)置D、并行度設(shè)置參考答案:A226.Flink的安裝配置中,通過()來指定外部依賴庫的路徑。A、在Flink集群中心目錄中添加依賴庫B、在Flink作業(yè)中指定依賴庫路徑C、在Flink配置文件中設(shè)置lib.paths屬性D、在Flink的CLASSPATH環(huán)境變量中添加路徑參考答案:C227.Flink的安全性設(shè)置通常包括(),以確保只有授權(quán)用戶能夠訪問Flink集群。A、訪問控制和身份驗證B、作業(yè)調(diào)度和任務(wù)管理C、數(shù)據(jù)加密和網(wǎng)絡(luò)安全D、日志管理和監(jiān)控參考答案:A228.Flink的Web界面通常用于()。A、編寫Flink作業(yè)B、監(jiān)控Flink集群C、運行Flink作業(yè)D、調(diào)試Flink作業(yè)參考答案:B229.Flink的TableAPI和SQL用于()。A、數(shù)據(jù)可視化B、執(zhí)行SQL查詢C、數(shù)據(jù)流分析D、數(shù)據(jù)清洗參考答案:B230.Flink的CEP(ComplexEventProcessing)庫用于(),幫助檢測和處理特定的事件模式。A、執(zhí)行復(fù)雜數(shù)據(jù)處理操作B、處理圖形數(shù)據(jù)C、處理實時事件流D、控制數(shù)據(jù)流速度參考答案:C231.DStream的轉(zhuǎn)換操作方法中,()方法可以直接調(diào)用RDD上的操作方法。A、countByKey()B、updateStateByKey(func)C、ogroup(otherStream,[numTasks])D、transform(func)參考答案:D232.DStream的輸出操作,不包括()。A、foreachRDD(func)B、print()C、flatMap(func)D、saveAsTextFiles(prefix)參考答案:C233.Docker中的每一個工作都可以抽象為一個()。A、實例B、進程C、JobD、請求參考答案:C234.Docker運行的核心模塊是()。A、DockerServerB、DockerEngineC、DockerClient參考答案:B235.Docker容器是在()層面上實現(xiàn)虛擬化。A、硬件層面B、操作系統(tǒng)層面C、應(yīng)用程序?qū)用鎱⒖即鸢福築236.Docker配置文件的語法格式中,代表單個字符的符號是()。A、?B、?C、!D、^參考答案:B237.Docker內(nèi)置網(wǎng)絡(luò)模式不包括()。A、host模式B、mynet模式C、none模式D、bridge模式參考答案:B238.Docker的三大核心不包括()。A、容器B、算法C、鏡像D、倉庫參考答案:B239.Docker的()命令只支持將本地文件復(fù)制到容器中。A、DDB、COPYC、SCPD、PUT參考答案:B240.Docker的()命令用于構(gòu)建鏡像。A、createB、addC、buildD、new參考答案:C241.Dockerfile中指定環(huán)境變量的指令是()。A、WORKDIRB、SHELLC、ENVD、ENTRYPOINT參考答案:C242.Dockerfile中聲明鏡像內(nèi)服務(wù)監(jiān)聽的端口的指令是()。A、LISTENB、EXPOSEC、ARGD、MONITOR參考答案:B243.Dockerfile配置文件使用()命令指定基礎(chǔ)鏡像。A、IMPORTB、GETC、OPEND、FROM參考答案:D244.Dataset最終在()版本中被定義成Spark新特性。A、Spark1.6B、Spark1.8C、Spark2.0D、Spark2.2參考答案:C245.DataFrame和RDD最大的區(qū)別是()。A、科學(xué)統(tǒng)計支持B、多schemaC、存儲方式不一樣D、外部數(shù)據(jù)源支持參考答案:B246.ClusterManager是()。A、資源的分配和管理B、從節(jié)點C、執(zhí)行器D、主節(jié)點參考答案:A247.()參數(shù)不影響kafka重平衡?A、session.timeout.msB、erval.msC、message.max.bytesD、erval.ms參考答案:C多選題1.在使用Sqoop將數(shù)據(jù)從Hive導(dǎo)入到MySQL之前,需要確保以下條件已經(jīng)滿足()。A、已經(jīng)安裝了Hadoop集群和Hive數(shù)據(jù)庫B、已經(jīng)安裝了MySQL數(shù)據(jù)庫,并且可以連接到MySQL數(shù)據(jù)庫C、已經(jīng)安裝了Sqoop,并且可以在命令行中運行Sqoop命令D、已經(jīng)安裝好JAVA參考答案:ABC2.在Hive中,以下哪個配置屬性用于指定Hive表的默認(rèn)文件格式()。A、hive.default.input.formatB、hive.table.default.file.formatC、hive.default.file.input.formatD、hive.input.format.default參考答案:ABC3.在Hive中,以下哪個配置屬性用于指定HDFS存儲位置的根目錄()。A、hive.data.root.dirB、hive.hdfs.root.dirC、hive.storage.root.dirD、hive.fs.root.dir參考答案:ABC4.在Hive中,以下哪個配置屬性用于設(shè)置Hive表的默認(rèn)壓縮格式()。A、press.formatB、pression.codecC、pressionD、pression.format參考答案:BCD5.在Hive中,以下哪個配置屬性用于啟用動態(tài)分區(qū)()。A、hive.exec.dynamic.partitionB、hive.optimize.dynamic.partitionC、hive.dynamic.partition.modeD、hive.partition.dynamic.enabled參考答案:ACD6.與hadoop相比,Spark主要有()優(yōu)點。A、提供多種數(shù)據(jù)集操作類型而不僅限于MapReduceB、數(shù)據(jù)集中式計算而更加高效C、提供了內(nèi)存計算,帶來了更高的迭代運算效率D、基于DAG的任務(wù)調(diào)度執(zhí)行機制+C:F參考答案:ABCD7.以下是Spark中executor的作用是()。A、保存計算的RDD分區(qū)數(shù)據(jù)B、向Driver反向注冊C、接受Driver端發(fā)送來的任務(wù)Task,作用在RDD上進行執(zhí)行D、做資源調(diào)度任務(wù)參考答案:ABC8.以下哪些組件屬于Hadoop生態(tài)圈()。A、MySQLB、HiveC、HDFSD、Sqoop參考答案:BCD9.要在Hive中啟用LLAP(LowLatencyAnalyticalProcessing),哪個配置屬性應(yīng)該設(shè)置為true()。A、hive.llap.enabledB、hive.enable.llapC、hive.execution.llap.enabledD、hive.llap.execution.enabled參考答案:ABD10.要在Hive中配置HDFS的NameNodeURI,應(yīng)該設(shè)置哪個屬性()。A、node.uriB、node.uriC、D、node.uri參考答案:ABC11.要啟用Hive的壓縮功能,應(yīng)該配置哪個屬性()。A、press.enableB、pressC、pression.codecD、pression參考答案:ACD12.要啟用Hive的Tez執(zhí)行引擎,應(yīng)該配置哪個屬性()。A、hive.execution.engineB、hive.exec.engineC、hive.tez.enableD、hive.use.tez參考答案:ABD13.要配置Hive的元數(shù)據(jù)存儲用戶名,應(yīng)該設(shè)置哪個屬性()。A、hive.metastore.userB、hive.metastore.usernameC、hive.metastore.db.userD、hive.metastore.connection.username參考答案:ABD14.要配置Hive的元數(shù)據(jù)存儲連接字符串,應(yīng)該設(shè)置哪個屬性()。A、hive.metastore.uriB、hive.metastore.connectionC、hive.metastore.jdbc.urlD、hive.metastore.connection.url參考答案:ACD15.下面是使用Sqoop將數(shù)據(jù)從Hive導(dǎo)入到MySQL的具體步驟()。A、創(chuàng)建Hive表B、插入數(shù)據(jù)C、使用Sqoop導(dǎo)出數(shù)據(jù)D、在MySQL中查看數(shù)據(jù)參考答案:ABCD16.下面哪些場景不是Flink擅長的()。A、批處理B、迭代計算C、數(shù)據(jù)存儲D、流處理參考答案:BC17.下面哪個配置屬性用于指定Hive查詢的最大并行度()。A、hive.query.parallelismB、hive.exec.parallelC、hive.query.max.parallelD、hive.parallel.query.max參考答案:ACD18.下面關(guān)于SparkMLlib庫的描述正確的是()。A、MLlib庫從1.2版本以后分為兩個包:spark.mllib和spark.mlB、spark.mllib包含基于DataFrame的原始算法APIC、spark.mllib包含基于RDD的原始算法APID、spark.ml則提供了基于RDD的、高層次的API參考答案:AC19.下面關(guān)于Flink的說法正確的是()。A、Flink起源于Stratosphere項目,該項目是在2010年到2014年間由柏林工業(yè)大學(xué)、柏林洪堡大學(xué)和哈索普拉特納研究所聯(lián)合開展的B、Flink可以同時支持實時計算和批量計算C、Flink不是Apache軟件基金會的項目D、Flink是Apache軟件基金會的5個最大的大數(shù)據(jù)項目之一參考答案:ABD20.下面關(guān)于Flink窗口描述錯誤的是()。A、滾動窗口在時間上是重疊的B、滾動窗口在時間上是不重疊的C、滑動窗口之間時間點存在重疊D、滑動窗口之間時間點不存在重疊參考答案:AD21.下列有關(guān)ZooKeeper中的節(jié)點路徑說法正確的是()。A、節(jié)點路徑可以是臨時節(jié)點B、節(jié)點路徑可以是持久節(jié)點C、臨時節(jié)點會話結(jié)束后自動刪除D、臨時節(jié)點不會自動刪除參考答案:ABC22.下列選項中,屬于Sqoop命令的參數(shù)有()。A、importB、outputC、inputD、export參考答案:AD23.下列選項()是ZooKeeper的應(yīng)用場景。A、Master選舉B、分布式鎖C、分布式協(xié)調(diào)/通知D、存儲非關(guān)系型數(shù)據(jù)參考答案:ABC24.下列屬于RDD的轉(zhuǎn)換算子的是()。A、groupByKey()B、reduce()C、reduceByKey()D、map()參考答案:ACD25.下列關(guān)于容器操作命令匹配正確的有()。A、創(chuàng)建容器:dockeraddB、啟動容器:dockerstartC、刪除容器:dockerrmD、導(dǎo)出容器:dockerexportE、暫停容器:dockerpause參考答案:BCDE26.下列關(guān)于Docker的操作命令正確的有()。A、dockerdeleteB、dockerimportC、dockersearchD、ockerlistE、dockerimages參考答案:BCE27.使用dockerstats命令可以顯示的容器信息有()。A、內(nèi)存B、網(wǎng)絡(luò)C、PUD、端口E、存儲參考答案:ABCE28.使用dockerps命令可以查看到的信息有()。A、容器IDB、鏡像名稱C、容器的端口D、生存時間E、環(huán)境變量參考答案:ABCD29.如果要在Hive中啟用用戶定義的聚合函數(shù)(UDAFs),哪個配置屬性應(yīng)該設(shè)置為true()。A、hive.udaf.enableB、hive.enable.udafsC、hive.udaf.supportD、hive.use.udaf參考答案:ABD30.如果要在Hive中啟用事務(wù)支持,哪個配置屬性應(yīng)該設(shè)置為true()。A、hive.transaction.enabledB、hive.support.transactionsC、hive.txn.managerD、hive.enable.txn參考答案:ACD31.如果要在Hive中啟用列級別的權(quán)限控制,哪個配置屬性應(yīng)該設(shè)置為true()。A、hive.column.level.securityB、hive.security.column.authorization.en

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論