




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
PAGEPAGE12025年廣西職業(yè)院校技能大賽中職組(大數(shù)據(jù)應(yīng)用與服務(wù)賽項(xiàng))參考試題庫及答案一、單選題1.SparkSQL可以處理的數(shù)據(jù)源包括()。A、Hive表B、Hive表、數(shù)據(jù)文件C、Hive表、數(shù)據(jù)文件、RDDD、Hive表、數(shù)據(jù)文件、RDD、外部數(shù)據(jù)庫答案:D2.Kafka的消息保留策略可以根據(jù)什么進(jìn)行配置?()A、t時(shí)間B、大小C、主題D、分區(qū)答案:A3.Flume的哪個(gè)版本開始支持HTTP和HTTPS協(xié)議?()A、Flume1.0B、Flume1.1C、Flume1.2D、Flume1.3答案:D4.配置Hadoop文件參數(shù)時(shí),配置項(xiàng)“dfs.replication”應(yīng)該配置在哪個(gè)文件?()A、core-site.xmlB、hdfs-site.xmlC、mapred-site.xmlD、yarn-site.xml答案:B5.在ZooKeeper中,每個(gè)節(jié)點(diǎn)都有一個(gè)唯一的標(biāo)識(shí)符,這個(gè)標(biāo)識(shí)符是()。A、ZNodeB、EphemeralNodeC、PersistentNodeD、ZooNode答案:A6.下列關(guān)于leader和follower的說法正確的是()。A、一個(gè)topic的每個(gè)分區(qū)可以沒有l(wèi)eaderB、一個(gè)topic的每個(gè)分區(qū)可以沒有followerC、消費(fèi)者消費(fèi)數(shù)據(jù)的對(duì)象都是leaderD、follower從leader中同步數(shù)據(jù)有一定延遲答案:C7.Flink支持處理各種類型的數(shù)據(jù),包括()數(shù)據(jù)。A、結(jié)構(gòu)化B、半結(jié)構(gòu)化C、無結(jié)構(gòu)化D、以上都是答案:D8.Flume如何處理故障恢復(fù)?()A、使用事務(wù)性機(jī)制B、使用重試機(jī)制C、使用斷點(diǎn)續(xù)傳機(jī)制D、以上都不是答案:C9.在ZooKeeper中,SEQUENTIAL節(jié)點(diǎn)的特點(diǎn)是()。A、節(jié)點(diǎn)名稱具有順序性B、節(jié)點(diǎn)數(shù)據(jù)具有順序性C、節(jié)點(diǎn)的觸發(fā)器具有順序性D、節(jié)點(diǎn)的ACL具有順序性答案:A10.在linux系統(tǒng)中,提交hadoop程序的命令是()。A、hadoopjarB、hadoop-submitC、hadoop-jarD、hadoopfs答案:A11.要在Hive中啟用數(shù)據(jù)列級(jí)別的訪問控制(RBAC),應(yīng)該設(shè)置哪個(gè)配置參數(shù)()?A、hive.column.security.enabledB、hive.rbac.enabledC、hive.security.column.enabledD、hive.access.control.columns=true答案:C12.DStream的輸出操作,不包括()。A、foreachRDD(func)B、print()C、flatMap(func)D、saveAsTextFiles(prefix)答案:C13.查看Docker所有容器的命令是()。A、dockerpsB、dockerps-aC、dockerpsallD、ockerall答案:B14.Flink的作業(yè)提交通常需要()來管理作業(yè)的執(zhí)行。A、JobManagerB、TaskManagerC、ResourceManagerD、NameNode答案:A15.在Flink中,水位線是()生成的。A、基于系統(tǒng)時(shí)間的周期性B、基于事件時(shí)間的周期性C、由用戶手動(dòng)指定D、實(shí)時(shí)答案:A16.下面()不是RDD的特點(diǎn)。A、可分區(qū)B、可序列化C、可修改D、可持久化答案:C17.允許開發(fā)人員為容器分配MAC地址的是()。A、網(wǎng)橋網(wǎng)絡(luò)B、覆蓋網(wǎng)絡(luò)C、驅(qū)動(dòng)網(wǎng)絡(luò)D、主機(jī)網(wǎng)絡(luò)答案:C18.在Flink中,()通常用于指定Flink作業(yè)的任務(wù)流圖(JobGraph)。A、flink.xmlB、job.confC、pertiesD、flink-config.yaml答案:D19.Flume的哪個(gè)組件可以保證數(shù)據(jù)不會(huì)丟失?()A、通道B、接收器C、攔截器D、源答案:B20.典型的NoSQL數(shù)據(jù)庫是()。A、HiveB、MySQLC、HbaseD、Oracle答案:C21.Flume的核心組件有哪些?()A、Source,Channel,andSinkB、Source,Channel,andReceiverC、Source,Buffer,andSinkD、Source,Router,andChannel答案:A22.在ZooKeeper中,節(jié)點(diǎn)的數(shù)據(jù)版本是如何維護(hù)的?()A、自動(dòng)遞增B、手動(dòng)指定C、根據(jù)節(jié)點(diǎn)的創(chuàng)建時(shí)間確定D、隨機(jī)生成答案:A23.關(guān)于DataFrame的優(yōu)勢,以下描述錯(cuò)誤的是()。A、DataFrame提升了Spark框架的執(zhí)行效率B、DataFrame減少了數(shù)據(jù)讀取時(shí)間C、DataFrame可以優(yōu)化執(zhí)行計(jì)劃D、ataFrame可以完全替換RDD答案:D24.Dockerfile中聲明鏡像內(nèi)服務(wù)監(jiān)聽的端口的指令是()。A、LISTENB、EXPOSEC、ARGD、MONITOR答案:B25.關(guān)于ZooKeeper臨時(shí)節(jié)點(diǎn)的說法正確的是()。A、創(chuàng)建臨時(shí)節(jié)點(diǎn)的命令為:create-s/tmpmyvalueB、一旦會(huì)話結(jié)束,臨時(shí)節(jié)點(diǎn)將被自動(dòng)刪除C、臨時(shí)節(jié)點(diǎn)不能手動(dòng)刪除D、臨時(shí)節(jié)點(diǎn)允許有子節(jié)點(diǎn)答案:B26.關(guān)于SparkStreaming的優(yōu)點(diǎn),不包括()。A、易用性B、容錯(cuò)性C、易整合性D、低吞吐量答案:D27.以下關(guān)于RDD的寬依賴和窄依賴的說法錯(cuò)誤的是()。A、窄依賴表現(xiàn)為子RDD的一個(gè)分區(qū)只依賴于某個(gè)(些)父RDD的一個(gè)分區(qū)B、寬依賴則表現(xiàn)為子RDD的一個(gè)分區(qū)依賴于同一個(gè)父RDD的多個(gè)分區(qū)C、寬依賴的RDD之間無Shuffle操作D、窄依賴的RDD之間無Shuffle操作答案:C28.Flume的哪個(gè)版本加入了對(duì)Thrift事件的的支持?()A、Flume1.0B、Flume1.1C、Flume1.2D、Flume1.3答案:B29.將大數(shù)據(jù)平臺(tái)數(shù)據(jù)導(dǎo)出到mysql可以使用()工具。A、HadoopB、SqoopC、HiveD、Xshell答案:B30.ZooKeeper中的一次讀操作是原子的嗎?()A、是,讀操作是原子的B、否,讀操作可能不是原子的C、取決于讀操作的類型D、取決于節(jié)點(diǎn)的類型答案:A31.在ZooKeeper中,Watcher是在()被觸發(fā)。A、在節(jié)點(diǎn)數(shù)據(jù)變更之前B、在節(jié)點(diǎn)數(shù)據(jù)變更之后C、在節(jié)點(diǎn)數(shù)據(jù)變更期間D、取決于Watcher的設(shè)置答案:B32.下列不是Spark的部署模式的是()。A、單機(jī)式B、單機(jī)偽分布式C、列分布式D、完全分布式答案:C33.Docker配置文件的語法格式中,代表單個(gè)字符的符號(hào)是()。A、*B、?C、!D、^答案:B34.下面那種情況不會(huì)觸發(fā)tConsumerRebalance操作()。A、某個(gè)消費(fèi)者崩潰B、某個(gè)生產(chǎn)者崩潰C、消費(fèi)者消費(fèi)的多個(gè)topic中某個(gè)topic被刪除D、新增消費(fèi)者答案:B35.Kafka服務(wù)器默認(rèn)能接收的最大消息是多大?()tA、1MB、10MC、100MD、沒有大小限制,因?yàn)橹С执髷?shù)據(jù)答案:A36.Hadoop集群中存在的主要性能瓶頸是()。A、CPUB、網(wǎng)絡(luò)C、磁盤IOD、內(nèi)存答案:C37.Flink中的轉(zhuǎn)換算子(TransformationOperator)通常用于()。A、計(jì)算作業(yè)的結(jié)果B、控制作業(yè)的執(zhí)行順序C、定義數(shù)據(jù)源D、過濾和轉(zhuǎn)換數(shù)據(jù)流答案:D38.Dockerfile中指定環(huán)境變量的指令是()。A、WORKDIRB、SHELLC、ENVD、ENTRYPOINT答案:C39.Flink的主要特點(diǎn)是()。A、高吞吐量B、低延遲C、Exactly-once處理語義D、以上都是答案:D40.以下哪個(gè)選項(xiàng)不是Sqoop的導(dǎo)入模式?()A、純文本導(dǎo)入B、二進(jìn)制導(dǎo)入C、Avro導(dǎo)入D、JSON導(dǎo)入答案:D41.當(dāng)Kafka中日志片段大小達(dá)到()時(shí),當(dāng)前日志片段會(huì)被關(guān)閉。A、1MB、100MC、1GBD、10GB答案:C42.關(guān)于Hive各個(gè)格式使用場景描述錯(cuò)誤的是()。A、Parquet對(duì)于大型查詢的類型是高效的,對(duì)于掃描特定表格中的特定列的查詢,Parquet特別有用B、目前Parquet默認(rèn)使用gzip壓縮格式C、ORC可以支持復(fù)雜的數(shù)據(jù)結(jié)構(gòu)(比如Map等)D、RCFile是一種行列存儲(chǔ)相結(jié)合的存儲(chǔ)方式答案:B43.獲取遠(yuǎn)程倉庫中Docker鏡像的操作命令是()。A、dockergetB、dockerpushC、dockerpullD、ockerdownload答案:C44.關(guān)于Dataset,下列說法錯(cuò)誤的是()。A、Dataset能從RDD中構(gòu)建B、Dataset提供了特定域?qū)ο笾械娜躅愋图螩、Dataset結(jié)合了RDD和DataFrame的優(yōu)點(diǎn)D、ataset可以通過SparkSession中的createDataset來創(chuàng)建答案:B45.Flink的安全性設(shè)置通常包括(),以確保只有授權(quán)用戶能夠訪問Flink集群。A、訪問控制和身份驗(yàn)證B、作業(yè)調(diào)度和任務(wù)管理C、數(shù)據(jù)加密和網(wǎng)絡(luò)安全D、日志管理和監(jiān)控答案:A46.創(chuàng)建一個(gè)容器的操作命令是()。A、dockeraddB、dockernewC、dockerbuildD、ockercreate答案:D47.在Docker數(shù)據(jù)管理中,數(shù)據(jù)卷可以提供的特性不包括()。A、數(shù)據(jù)卷可以在容器之間共享和重用B、對(duì)數(shù)據(jù)卷內(nèi)數(shù)據(jù)的修改立馬生效C、對(duì)數(shù)據(jù)卷的更新不影響鏡像D、掛載數(shù)據(jù)卷時(shí)要手工創(chuàng)建掛載目錄答案:D48.關(guān)于Hive內(nèi)外表描述正確的是()。A、內(nèi)部表數(shù)據(jù)由HDFS自身管理,外部表數(shù)據(jù)由Hive管理;B、內(nèi)部表數(shù)據(jù)存儲(chǔ)的位置是hive.metastore.warehouse.dir設(shè)置配置(默認(rèn):/user/hive/warehouse)C、外表存儲(chǔ)必須指定LOCATIOND、內(nèi)外表刪除時(shí),都會(huì)刪除元數(shù)據(jù)和存儲(chǔ)答案:B49.Flink最常用的編程語言是()。A、JavaB、PythonC、ScalaD、C++答案:A50.下面哪個(gè)命令是導(dǎo)入到集群()。A、importB、exportC、odegenD、eval答案:A51.Kafka的消息以什么形式進(jìn)行存儲(chǔ)?()A、表格B、t集合C、文檔D、日志答案:D52.在Flink的配置文件中,()通常用來指定Flink任務(wù)并行度。A、parallelism.defaultB、task.parallelismC、parallelism.default-taskD、task.default-parallelism答案:D53.停止一個(gè)容器的操作命令是()。A、dockerstopB、dockershutdownC、dockershiftD、ockerpause答案:A54.下面哪個(gè)命令行參數(shù)可以用來刪除Kafka中的Topic?()A、listB、createC、deleteD、escribe答案:C55.Flink中的事件時(shí)間(EventTime)是指()。A、事件發(fā)生的時(shí)間B、事件進(jìn)入Flink的時(shí)間C、事件處理完成的時(shí)間D、事件被記錄的時(shí)間答案:A56.Flink的高可用性(HighAvailability)設(shè)置通常需要配置的組件是()。A、JobManager和TaskManagerB、ResourceManager和NodeManagerC、NameNode和DataNodeD、ZooKeeper集群答案:D57.啟動(dòng)一個(gè)容器的操作命令是()。A、dockerstartB、dockeropenC、dockernewD、ockergo答案:A58.以下哪種不是Hive支持的數(shù)據(jù)類型()。A、StructB、IntC、MapD、Long答案:D59.Flume的源類型有哪些?()A、Log4j,Kafka,HBase,自定義B、File,Kafka,HBase,自定義C、File,Kafka,HBase,Spooling,自定義D、File,Kafka,HBase,Spooling,Exec答案:B60.Flume的事件Body可以包含什么類型的數(shù)據(jù)?()A、String,Byte數(shù)組,字節(jié)流,Map<String,String>和自定義對(duì)象序列化后的數(shù)據(jù)。B、String,Map<String,String>和自定義對(duì)象序列化后的數(shù)據(jù)。C、Byte數(shù)組,字節(jié)流和自定義對(duì)象序列化后的數(shù)據(jù)。D、String和自定義對(duì)象序列化后的數(shù)據(jù)。答案:A61.在Hive中,哪個(gè)配置參數(shù)用于指定HiveCLI的歷史命令記錄目錄()?A、hive.history.file.directoryB、hive.query.log.dirC、hive.cli.history.directoryD、mand.log.dir答案:C62.關(guān)于DStream窗口操作函數(shù),以下說法錯(cuò)誤的是()。A、window()返回基于源DStream的窗口進(jìn)行批計(jì)算后的一個(gè)新的DstreamB、countByWindow()返回基于滑動(dòng)窗口的DStream中的元素?cái)?shù)C、reduceByWindow()做聚合操作并返回一個(gè)新的DstreamD、以上說法都不對(duì)答案:D63.下列選項(xiàng)中,針對(duì)Spark運(yùn)行的基本流程是錯(cuò)誤是()。A、Driver端提交任務(wù),向Master申請(qǐng)資源B、Master與Worker進(jìn)行TCP通信,使得Worker啟動(dòng)ExecutorC、Executor啟動(dòng)會(huì)主動(dòng)連接Driver,通過Driver->Master->WorkExecutor,從而得到Driver在哪D、river會(huì)產(chǎn)生Task,提交給Executor中啟動(dòng)Task去做真正的計(jì)算答案:B64.新構(gòu)建一個(gè)名為mydocker的鏡像的操作命令是()。A、dockernewmydockerB、dockerbuildmydockerC、dockernew-tmydockerD、ockerbuild-tmydocker答案:D65.Dockerfile配置文件使用()命令指定基礎(chǔ)鏡像。A、IMPORTB、GETC、OPEND、FROM答案:D66.下列關(guān)于MapReduce說法不正確的是()。A、MapReduce是一種計(jì)算框架B、MapReduce來源于google的學(xué)術(shù)論文C、MapReduce程序只能用java語言編寫D、MapReduce隱藏了并行計(jì)算的細(xì)節(jié),方便使用答案:C67.Flink的窗口操作通常在()執(zhí)行,以對(duì)數(shù)據(jù)進(jìn)行分組、聚合和統(tǒng)計(jì)。A、數(shù)據(jù)產(chǎn)生時(shí)B、數(shù)據(jù)進(jìn)入Flink時(shí)C、數(shù)據(jù)在窗口中間時(shí)D、數(shù)據(jù)離開Flink時(shí)答案:C68.Kafka的消息傳遞語義是()。A、最終一致性B、強(qiáng)一致性C、弱一致性D、無一致性答案:C69.Hive中分組的關(guān)鍵字是什么()?A、groupbyB、orderbyC、distributebyD、sortby答案:A70.Flume的默認(rèn)Avro序列化方式是什么?()A、JSONB、inaryC、SpecificD、Generic答案:C71.Flink的Web界面通常用于()。A、編寫Flink作業(yè)B、監(jiān)控Flink集群C、運(yùn)行Flink作業(yè)D、調(diào)試Flink作業(yè)答案:B72.在hive中下列哪個(gè)命令不可以實(shí)現(xiàn)去重()。A、distinctB、groupbyC、row_numberD、having答案:D73.Flume的Kafka源類型是什么?()A、KafkaSourceB、KafkaSpoutC、KafkaAvroSourceD、KafkaEventSource答案:C74.Flink的時(shí)間語義(TimeSemantics)中的事件時(shí)間(EventTime)和處理時(shí)間(ProcessingTime)的區(qū)別是()。A、事件時(shí)間是事件發(fā)生的時(shí)間,處理時(shí)間是事件進(jìn)入Flink的時(shí)間B、事件時(shí)間是事件進(jìn)入Flink的時(shí)間,處理時(shí)間是事件發(fā)生的時(shí)間C、事件時(shí)間和處理時(shí)間是相同的D、事件時(shí)間和處理時(shí)間沒有明確的定義答案:A75.Flink的數(shù)據(jù)源可以是()。A、文件B、消息隊(duì)列C、數(shù)據(jù)庫D、以上都是答案:D76.以下哪個(gè)是正確的sqoop命令,用于將數(shù)據(jù)從MySQL導(dǎo)入到HDFS?()A、bin/sqoopimport--connectjdbc:mysql://0:3306/userdb--usernameroot--delete-target-dir--target-dir/MysqlToHDFS1--tablestudentB、in/sqoopimport--connectjdbc:mysql://localhost:3306/userdb--usernameroot--delete-target-dir--target-dir/MysqlToHDFS1--tablestudentC、bin/sqoopimport--connectjdbc:mysql://localhost:3306/userdb--usernameroot--delete-target-dir--target-dir/MysqlToHDFS1--tablestudent--m11D、bin/sqoopimport--connectjdbc:mysql://localhost:3306/userdb--usernameroot--delete-target-dir--target-dir/MysqlToHDFS1--tablestudent--m11.3答案:D77.Flink的狀態(tài)管理用于(),以支持容錯(cuò)性和狀態(tài)化的計(jì)算。A、存儲(chǔ)和檢索中間結(jié)果B、控制數(shù)據(jù)流速度C、定時(shí)觸發(fā)窗口操作D、執(zhí)行數(shù)據(jù)清洗答案:A78.關(guān)于ZooKeeper說法錯(cuò)誤的是()。A、ZooKeeper是一個(gè)高可用的分布式數(shù)據(jù)管理和協(xié)調(diào)框架B、能夠很好的保證分布式環(huán)境中數(shù)據(jù)的一致性C、越來越多的分布式系統(tǒng)(Hadoop、HBase、Kafka)中使用ZooKeeperD、Hadoop的高可用不需要用到ZooKeeper答案:D79.Flink任務(wù)管理器(TaskManager)的作用是()。A、管理Flink集群的任務(wù)B、管理Flink作業(yè)的狀態(tài)C、執(zhí)行Flink作業(yè)的任務(wù)D、部署Flink作業(yè)到集群答案:C80.Hive是由哪家公司開源的()。A、GoogleB、FacebookC、LinkedInD、Netflix答案:B81.ZooKeeper的特點(diǎn)不包括()。A、順序一致性B、原子性C、可靠性D、復(fù)合系統(tǒng)映像答案:D82.下列()不可以作為SparkStreaming的輸入數(shù)據(jù)流。A、KafkaB、TwitterC、TCP套接字D、Openstack答案:D83.SparkStreaming中對(duì)DStream的轉(zhuǎn)換操作會(huì)轉(zhuǎn)變成對(duì)()的操作。A、sqlB、datasetC、rddD、ataframe答案:C84.下列語句中,描述錯(cuò)誤的是()。A、可以通過CLI方式、JavaApi方式調(diào)用SqoopB、Sqoop底層會(huì)將Sqoop命令轉(zhuǎn)換為MapReduce任務(wù),并通過Sqoop連接器進(jìn)行數(shù)據(jù)的導(dǎo)入導(dǎo)出操作C、Sqoop是獨(dú)立的數(shù)據(jù)遷移工具,可以在任何系統(tǒng)上執(zhí)行D、如果在Hadoop分布式集群環(huán)境下,連接MySQL服務(wù)器參數(shù)不能是“l(fā)ocalhost”或“”答案:C85.hadoop2.0與hadoop1.0區(qū)別()。A、增加MapReduce2B、增加YARNC、增加HDFS2D、增加容錯(cuò)機(jī)制答案:B86.強(qiáng)制刪除容器tmp01的操作命令是()。A、dockerrm-ftmp01B、dockerrm-vtmp01C、dockerrm-ltmp01D、ockerrm-Itmp01答案:A87.DStream的轉(zhuǎn)換操作方法中,()方法可以直接調(diào)用RDD上的操作方法。A、countByKey()B、updateStateByKey(func)C、ogroup(otherStream,[numTasks])D、transform(func)答案:D88.ZooKeeper中的默認(rèn)端口號(hào)是()。A、2181.0B、8080.0C、3306.0D、5432.0答案:A89.Dataset最終在()版本中被定義成Spark新特性。A、Spark1.6B、Spark1.8C、Spark2.0D、Spark2.2答案:C90.下面()操作是窄依賴。A、joinB、filterC、groupD、sort答案:B91.在ZooKeeper中,在配置文件zoo.cfg中,請(qǐng)問initLimit表示的含義是()。A、Leader-Follower初始通信時(shí)限B、Leader-Follower同步通信時(shí)限C、lient-Server通信心跳時(shí)間D、Client-Server初始通信時(shí)限答案:A92.Sqoop是Hadoop和關(guān)系數(shù)據(jù)庫服務(wù)器之間傳送數(shù)據(jù)的工具,下列哪種數(shù)據(jù)庫是不支持使用Sqoop直接進(jìn)行數(shù)據(jù)傳送()。A、PostgresB、OracleC、MySQLD、Redis答案:D93.Docker的三大核心不包括()。A、容器B、算法C、鏡像D、倉庫答案:B94.在HDFS分布式文件系統(tǒng)中,一般采用冗余存儲(chǔ),冗余因子通常設(shè)置為()。A、1.0B、2.0C、3.0D、4.0答案:C95.在Kafka中,()是ISR隊(duì)列中最小的LEO。A、LEOB、ISRC、HWD、AR答案:C96.關(guān)于Hive和傳統(tǒng)數(shù)據(jù)庫的比較描述正確的是()?A、Hive使用了查詢語言HQL(HiveQueryLanguage),HQL與SQL沒有任何關(guān)系B、Hive使用了查詢語言HQL(HiveQueryLanguage),HQL與SQL沒有任何關(guān)系C、Hive是建立在Hadoop之上的,所有Hive的數(shù)據(jù)都是存儲(chǔ)在HDFS中的,而數(shù)據(jù)庫則可以將數(shù)據(jù)保存在塊設(shè)備或者本地文件系統(tǒng)中D、Hive的針對(duì)數(shù)據(jù)倉庫設(shè)計(jì),針對(duì)的是讀多寫少的場景答案:D97.下列()不是Docker項(xiàng)目中用于文件存儲(chǔ)的數(shù)據(jù)庫。A、MYSQLB、MongoDBC、RedisD、Kafka答案:D98.Hive適合()環(huán)境。A、Hive適合用于聯(lián)機(jī)(online)事務(wù)處理B、提供實(shí)時(shí)查詢功能C、適合應(yīng)用在大量不可變數(shù)據(jù)的批處理作業(yè)D、Hive適合關(guān)系型數(shù)據(jù)環(huán)境答案:C99.Kafka使用的是什么類型的消息傳遞模式?()A、點(diǎn)對(duì)點(diǎn)B、發(fā)布-訂閱C、請(qǐng)求-響應(yīng)D、廣播答案:B100.搜索nginx引擎的操作命令是()。A、dockersearchnginxB、dockerpullnginxC、dockerpushnginxD、ockerrmnginx答案:A101.Flink的容錯(cuò)機(jī)制是()工作的,它定期記錄數(shù)據(jù)流的狀態(tài),以便在發(fā)生故障時(shí)進(jìn)行恢復(fù)。A、基于備份數(shù)據(jù)B、基于檢查點(diǎn)C、基于異常處理D、基于數(shù)據(jù)重播答案:B102.Flume的哪個(gè)版本開始支持Avro作為數(shù)據(jù)傳輸格式?()A、1.X版本B、2.X版本C、3.X版本D、4.X版本以后答案:D103.在Hive中,以下哪個(gè)配置參數(shù)用于指定HiveCLI的歷史命令記錄文件名()?A、B、hive.cli.history.fileC、mand.log.filenameD、hive.query.log.file答案:B104.以下關(guān)于Spark計(jì)算框架,說法錯(cuò)誤的是()。A、Spark支持內(nèi)存計(jì)算B、Spark框架是使用Java編寫的C、Spark提供了完整而強(qiáng)大的技術(shù)棧,包括SQL查詢、流式計(jì)算、機(jī)器學(xué)習(xí)和圖算法組件D、Spark可運(yùn)行于獨(dú)立的集群模式中,可運(yùn)行于Hadoop中,也可運(yùn)行于AmazonEC2等云環(huán)境中答案:B105.Docker是基于()實(shí)現(xiàn)的開源容器項(xiàng)目。A、C語言B、Java語言C、Go語言D、Python語言答案:C106.Flink的安裝配置中,通過()來指定外部依賴庫的路徑。A、在Flink集群中心目錄中添加依賴庫B、在Flink作業(yè)中指定依賴庫路徑C、在Flink配置文件中設(shè)置lib.paths屬性D、在Flink的CLASSPATH環(huán)境變量中添加路徑答案:C107.namenode在()模式下hdfs文件系統(tǒng)無法修改和寫入文件。A、安全模式B、維護(hù)模式C、同步模式D、待機(jī)模式答案:A108.()參數(shù)不影響kafka重平衡?A、session.timeout.msB、erval.msC、message.max.bytesD、erval.ms答案:C109.將一個(gè)已經(jīng)創(chuàng)建的容器導(dǎo)出到一個(gè)文件使用的操作命令是()。A、dockerimportB、dockerloadC、dockeroutputD、ockerexport答案:D110.將一個(gè)RDD轉(zhuǎn)換為DataFrame的方法是()。A、dataFrame()B、toDataFrame()C、DF()D、toDF()答案:D111.使用Dockerrun命令運(yùn)行一個(gè)容器時(shí),通過參數(shù)()可啟動(dòng)一個(gè)bash允許用戶進(jìn)行交互。A、itB、iaC、ntD、na答案:A112.SparkSQL中,model函數(shù)可以接收的參數(shù)有哪些()。A、Override、IgnoreB、Override、Ignore、AppendC、Ignore、Append、ErrorIfExistsD、Override、Ignore、Append、ErrorIfExists答案:D113.當(dāng)使用sqoop將數(shù)據(jù)從MySQL導(dǎo)入到HDFS時(shí),以下哪個(gè)參數(shù)用于指定使用多個(gè)mapper?()A、-mB、-fC、-tD、-c答案:A114.Spark默認(rèn)的存儲(chǔ)級(jí)別是()。A、MEMORY_ONLYB、MEMORY_ONLY_SERC、MEMORY_AND_DISKD、MEMORY_AND_DISK_SER答案:A115.設(shè)用壓力測試測出機(jī)器寫入速度是20M/s一臺(tái),峰值的業(yè)務(wù)數(shù)據(jù)的速度是100M/s,副本數(shù)為6,預(yù)估需要部署Kafka機(jī)器數(shù)量為()。A、6.0B、12.0C、13.0D、20.0答案:C116.SparkJob默認(rèn)的調(diào)度模式是()。A、FIFOB、FAIRC、無D、運(yùn)行時(shí)指定答案:A117.在ZooKeeper中,節(jié)點(diǎn)可以設(shè)置監(jiān)聽器嗎?()A、是,可以設(shè)置監(jiān)聽器B、否,節(jié)點(diǎn)沒有監(jiān)聽功能C、取決于節(jié)點(diǎn)的類型D、取決于節(jié)點(diǎn)的權(quán)限設(shè)置答案:A118.Hadoop組件在企業(yè)應(yīng)用中,能用于大數(shù)據(jù)集實(shí)時(shí)查詢的產(chǎn)品有()。A、HiveB、PigC、MahoutD、Hbase答案:D119.Kafka的消息消費(fèi)可以使用哪種模式?()A、單播B、組播C、廣播D、串播答案:A120.在hadoop配置中core-site.xml的配置是()參數(shù)。A、集群全局參數(shù)B、HDFS參數(shù)C、Mapreduce參數(shù)D、集群資源管理系統(tǒng)參數(shù)答案:A121.下列哪個(gè)數(shù)據(jù)類型不是hadoop的數(shù)據(jù)類型()。A、TextB、StringC、IntWritableD、NullWritable答案:B122.在Hive中,哪個(gè)配置參數(shù)用于指定Hive的執(zhí)行模式,如本地模式或MapReduce模式()?A、hive.execution.engineB、hive.execution.modeC、hive.mapred.modeD、hive.exec.mode答案:B123.關(guān)于Hive數(shù)據(jù)模型描述正確的是()。A、Hive的元數(shù)據(jù)存儲(chǔ)在HDFS中B、Hive的數(shù)據(jù)模型只包含:表、分區(qū)C、Hive的數(shù)據(jù)模型只包含:表、分區(qū)D、Hive的數(shù)據(jù)模型只包含:表、分區(qū)答案:D124.下列說法錯(cuò)誤的是()。A、生產(chǎn)者和消費(fèi)者面向的都是一個(gè)topicB、生產(chǎn)者發(fā)送數(shù)據(jù)的對(duì)象是leaderC、當(dāng)集群中的某個(gè)節(jié)點(diǎn)發(fā)生故障時(shí),Replica上的partition數(shù)據(jù)不會(huì)丟失D、partition是一個(gè)沒有順序的隊(duì)列答案:D125.在Hive中,以下哪個(gè)配置參數(shù)用于指定Hive執(zhí)行計(jì)劃的輸出目錄()?A、hive.query.plan.output.directoryB、hive.exec.plan.output.directoryC、hive.plan.output.directoryD、hive.query.execution.directory答案:A126.Flink的本地模式(LocalMode)和集群模式(ClusterMode)之間的主要區(qū)別是()。A、部署方式B、編程語言C、安全性設(shè)置D、并行度設(shè)置答案:A127.Docker內(nèi)置網(wǎng)絡(luò)模式不包括()。A、host模式B、mynet模式C、none模式D、bridge模式答案:B128.下列關(guān)于topic和partition的描述,錯(cuò)誤的是()。A、Kafka中消息是以partition進(jìn)行分類的B、與partition不同,topic是邏輯上的概念而非物理上的概念C、每個(gè)partition對(duì)應(yīng)于一個(gè)log文件D、一個(gè)partition分為多個(gè)segment答案:A129.Sqoop的作用是()。A、用于傳統(tǒng)關(guān)系數(shù)據(jù)庫和Hadoop之間傳輸數(shù)據(jù)B、提供對(duì)日志數(shù)據(jù)進(jìn)行簡單處理的能力C、是Hadoop體系中數(shù)據(jù)存儲(chǔ)管理的基礎(chǔ)D、是一個(gè)建立在HDFS之上,面向列的針對(duì)結(jié)構(gòu)化和半結(jié)構(gòu)化數(shù)據(jù)和動(dòng)態(tài)數(shù)據(jù)庫答案:A130.Spark采用RDD以后能夠?qū)崿F(xiàn)高效計(jì)算不是因?yàn)?)。A、高效的容錯(cuò)性,通過血緣關(guān)系重新計(jì)算丟失分區(qū)B、中間結(jié)果持久化到內(nèi)存,數(shù)據(jù)在內(nèi)存中的多個(gè)RDD操作之間進(jìn)行傳遞,避免了不必要的讀寫磁盤開銷C、存放的數(shù)據(jù)可以是Java對(duì)象,避免了不必要的對(duì)象序列化和反序列化D、RDD采用了高效的“轉(zhuǎn)換”和“動(dòng)作”算子答案:D131.要在Hive中啟用Kerberos認(rèn)證,應(yīng)該設(shè)置哪個(gè)配置參數(shù)()?A、hive.security.authenticationB、hive.kerberos.enabledC、hive.auth.kerberosD、thive.authentication.method答案:A132.關(guān)于SparkSQL,以下說法正確的是()。A、HiveContext繼承了SqlContextB、DataFrame其實(shí)就是RDDC、HiveContext只支持SQL語法解析器D、SparkSQL的前身是Hive答案:A133.Hive是以()技術(shù)為基礎(chǔ)的數(shù)據(jù)倉庫。A、HDFSB、MAPREDUCEC、HADOOPD、HBASE答案:C134.以下哪個(gè)參數(shù)在sqoop命令中用于指定要?jiǎng)h除HDFS的目標(biāo)目錄?()A、--delete-target-dirB、--target-dirC、--delete-dirD、--delete答案:A135.Task運(yùn)行在下面()選項(xiàng)中Executor上的工作單元。A、DriverprogramB、sparkmasterC、workernodeD、Clustermanager答案:C136.在Centos中啟動(dòng)Docker服務(wù)的命令是()。A、systemstartdockerB、systemenabledockerC、systemctlstartdockerD、systemctlrundocker答案:C137.關(guān)于Hive用戶自定義函數(shù)UDF的描述錯(cuò)誤的是()。A、UDF(User-Defined-Function)一進(jìn)一出B、UDAF(User-DefinedAggregationFuncation)聚集函數(shù),多進(jìn)一出C、UDTF(User-DefinedTable-GeneratingFunctions)一進(jìn)多出D、上傳UDFjar包至Hive環(huán)境即可使用自定義函數(shù)答案:D138.在Hive中,以下哪個(gè)配置參數(shù)用于指定HDFS的名稱節(jié)點(diǎn)地址()。A、hive.metastore.urisB、fs.defaultFSC、hive.metastore.warehouse.dirhive.server2.thrift.port答案:B139.下面哪個(gè)程序負(fù)責(zé)HDFS數(shù)據(jù)存儲(chǔ)()。A、DatanodeB、NameNodeC、JobtrackerD、secondaryNameNode答案:A140.在導(dǎo)入開始之前,Sqoop檢索出表中所有的列以及列的SQL數(shù)據(jù)類型,這些SQL類型被映射什么類型()。A、CB、C++C、JavaD、Python答案:C141.在ZooKeeper中,事務(wù)日志(transactionlog)用于記錄()。A、節(jié)點(diǎn)的數(shù)據(jù)變更操作B、節(jié)點(diǎn)的子節(jié)點(diǎn)變更操作C、節(jié)點(diǎn)的ACL變更操作D、所有節(jié)點(diǎn)的操作答案:D142.關(guān)于Hive查詢通常延遲較高的原因描述錯(cuò)誤的是()。A、由于沒有索引,需要掃描整個(gè)表,因此延遲較高B、由于MapReduce本身具有較高的響應(yīng)延遲,因此在利用MapReduce執(zhí)行Hive查詢時(shí),也會(huì)有較高的延遲響應(yīng)C、關(guān)系型數(shù)據(jù)庫較于Hive底層的文件系統(tǒng)實(shí)現(xiàn),執(zhí)行延遲較低D、Hive查詢延遲較于關(guān)系型數(shù)據(jù)庫,延遲響一直都是很高的答案:D143.Flink的集群部署通常需要()作為資源管理器。A、YARNB、ApacheZooKeeperC、ApacheKafkaD、HadoopHDFS答案:A144.DataFrame和RDD最大的區(qū)別是()。A、科學(xué)統(tǒng)計(jì)支持B、多schemaC、存儲(chǔ)方式不一樣D、外部數(shù)據(jù)源支持答案:B145.Flume的哪個(gè)版本引入了Kafka作為其事件源和接收器?()A、Flume1.6B、Flume1.7C、DH5.0D、CDH5.1答案:C146.Sqoop中哪個(gè)參數(shù)用于指定要使用的分隔符,以便在導(dǎo)入數(shù)據(jù)時(shí)正確處理字段?()A、–field-separatorB、–fsC、–delimiterD、–split-by答案:A147.在Hive中,以下哪個(gè)配置參數(shù)用于指定Hive執(zhí)行計(jì)劃的緩存目錄()?A、hive.query.plan.cache.dirB、hive.exec.plan.cache.dirC、hive.cache.plan.directoryD、hive.query.cache.directory答案:B148.在Hive中,以下哪個(gè)配置參數(shù)用于指定Hive服務(wù)器的端口號(hào)()?A、hive.server.portB、hive.server2.thrift.portC、hive.server.rpc.portD、hive.thrift.server.port答案:B149.Hadoop安裝在一臺(tái)計(jì)算機(jī)上,需修改相應(yīng)的配置文件,用一臺(tái)計(jì)算機(jī)模擬多臺(tái)主機(jī)的集群是()模式。A、全分布模式B、偽分布模式C、單機(jī)模式D、全分布HA模式答案:B150.在Hive中,以下哪個(gè)配置參數(shù)用于指定Hive元數(shù)據(jù)存儲(chǔ)的數(shù)據(jù)庫類型()?A、hive.metastore.urisB、hive.metastore.schemaC、hive.metastore.db.typeD、hive.metastore.db.url答案:C151.使用消息隊(duì)列的好處不包括()。A、能夠有效解耦B、可恢復(fù)性增強(qiáng)C、提供緩沖空間D、能夠同步通信答案:D152.Hive中的配置文件通常位于哪個(gè)目錄中()?A、/etc/hive/confB、/etc/hadoop/confC、/etc/hive/D、/etc/hive/config答案:A153.在Docker的運(yùn)行過程中,對(duì)鏡像的操作不包括()。A、deleteB、searchC、pullD、push答案:A154.Docker的()命令用于構(gòu)建鏡像。A、createB、addC、buildD、new答案:C155.ZooKeeper中的數(shù)據(jù)模型是基于()。A、關(guān)系模型B、鍵值對(duì)模型C、圖模型D、文檔模型答案:B156.Docker的()命令只支持將本地文件復(fù)制到容器中。A、DDB、COPYC、SCPD、PUT答案:B157.測試Sqoop是否能夠正常連接MySQL數(shù)據(jù)庫命令是()。A、sqooplist-database--connectjdbc:mysql://:3306/--usernameroot–PB、sqooplist-databases--connectionjdbc:mysql://:3306/--usernameroot–PC、sqooplist-databases--connectjdbc:mysql://:3306/--usernameroot–LD、sqooplist-databases--connectjdbc:mysql://:3306/--usernameroot–P答案:D158.yarn狀態(tài)的查詢url為()。A、http://yarn:8088B、http://yarn:50070C、http://master:8088D、http://master:50070答案:C159.sqoop安裝完成后,查看sqoop版本的命令是()。A、Sqoop-versionB、SqoopversionC、Sqoop-vD、Sqoopv答案:B160.以下()文件中主要用來配置ResourceManager,NodeManager的通信端口,web監(jiān)控端口等。A、core-site.xmlB、mapred-site.xmlC、hdfs-site.xmlD、yarn-site.xml答案:D161.Hive是為了解決哪類問題()?A、海量結(jié)構(gòu)化日志的數(shù)據(jù)統(tǒng)計(jì)B、分布式組件調(diào)度C、分布式組件調(diào)度D、分布式組件調(diào)度答案:A162.Flink中的任務(wù)并行度(TaskParallelism)是指()。A、任務(wù)執(zhí)行的速度B、同一任務(wù)的多個(gè)實(shí)例并行執(zhí)行C、不同任務(wù)之間的并行執(zhí)行D、任務(wù)的執(zhí)行順序答案:B163.Flink的數(shù)據(jù)源(Source)通常用于()。A、生成隨機(jī)數(shù)據(jù)B、從外部系統(tǒng)讀取數(shù)據(jù)C、存儲(chǔ)計(jì)算結(jié)果D、控制作業(yè)的并行度答案:B164.HadoopMapReduce支持多種語言編程,下列說法不正確的是()。A、可以用JAVA語言編寫MapReduce應(yīng)用程序B、可以用C/C++語言編寫MapReduce應(yīng)用程序C、可以用Python語言編寫MapReduce應(yīng)用程序D、可以用javascript語言編寫MapReduce應(yīng)用程序答案:D165.使用Dockerrm命令刪除容器時(shí)只刪除容器的鏈接,需要使用的命令選項(xiàng)是()。A、fB、lC、vD、i答案:B166.在HDFS文件操作中,上傳文件的命令是()。A、putB、inputC、getD、up答案:A167.關(guān)于HiveSQL編譯描述正確的是()。A、HiveSQL的Parser層是為了將SQL轉(zhuǎn)化為執(zhí)行計(jì)劃的B、邏輯層優(yōu)化器會(huì)進(jìn)行算子轉(zhuǎn)換,優(yōu)化合并不必要的算子操作C、MapReduce任務(wù)是需要遍歷QueryBlock后生成的D、編譯器遍歷ASTTree,抽象出查詢的基本組成單元OperatorTree答案:B168.HMaster的主要作用是()。A、用于啟動(dòng)任務(wù)管理多個(gè)HRegionServerB、負(fù)責(zé)響應(yīng)用戶I/O請(qǐng)求,向HDFS文件系統(tǒng)讀寫數(shù)據(jù)C、負(fù)責(zé)協(xié)調(diào)集群中的分布式組件D、最終保存HBase數(shù)據(jù)行的文件答案:A169.下面中不屬于HIVE中的元數(shù)據(jù)信息()。A、表的名字B、表的列和分區(qū)及其屬性C、表的屬性(只存儲(chǔ)內(nèi)部表信息)D、表的數(shù)據(jù)所在目錄答案:C170.查看HDFS的報(bào)告命令是()。A、bin/hdfsdfsadmin-reportB、in/hdfs-reportC、bin/hdfsdeadmin-reportD、bin/hdfsdfs-report答案:A171.Kafka的消息傳遞保證是()。A、至少一次B、t最多一次C、正好一次D、無保證答案:A172.以下哪個(gè)是正確的sqoop導(dǎo)入數(shù)據(jù)的完整命令?()A、sqoopimport--connectjdbc:mysql://localhost:3306/userdb--usernameroot--delete-target-dir--target-dir/MysqlToHDFS1--tablestudentB、sqoopimportdata--connectjdbc:mysql://localhost:3306/userdb--usernameroot--delete-target-dir--target-dir/MysqlToHDFS1--tablestudentC、bin/sqoopimport--connectjdbc:mysql://localhost:3306/userdb--usernameroot--delete-target-dir--target-dir/MysqlToHDFS1--tablestudentD、bin/sqoopimportdata--connectjdbc:mysql://localhost:3306/userdb--usernameroot--delete-target-dir--target-dir/MysqlToHDFS1--tablestudent答案:C173.查看Docker鏡像信息的命令是()。A、lsdockerB、lsimagesC、dockerlistimagesD、ockerimages答案:D174.將nginx容器接入自定義的myops網(wǎng)絡(luò)的操作命令是()。A、dockernetworkjoinmyopsnginxB、dockernetworkconnmyopsnginxC、dockernetworkconnectmyopsnginxD、ockernetworkconnectnginxmyops答案:C175.Flink中的Watermark是用來(),幫助Flink正確地處理遲到的事件。A、測量數(shù)據(jù)流的速度B、表示數(shù)據(jù)流的起點(diǎn)C、處理亂序事件D、控制數(shù)據(jù)流的大小答案:C176.下列方法中,不能創(chuàng)建RDD的方法是()。A、makeRDDB、parallelizeC、textFileD、testFile答案:D177.Flume的哪個(gè)版本加入了Kafka作為源和匯點(diǎn)?()A、1.X版本B、2.X版本C、3.X版本D、4.X版本答案:D178.下面()操作是寬依賴。A、maptB、flatMapC、groupByKeyD、union答案:C179.Docker容器是在()層面上實(shí)現(xiàn)虛擬化。A、硬件層面B、操作系統(tǒng)層面C、應(yīng)用程序?qū)用娲鸢福築180.Flume的默認(rèn)通道類型是什么?()A、MemoryChannelB、FileChannelC、KafkaChannelD、JdbcChannel答案:B181.關(guān)于Hive描述正確的是()。A、count函數(shù)必須開窗口才能使用B、max函數(shù)是窗口函數(shù)C、lead函數(shù)是聚合函數(shù),不是窗口函數(shù)D、min函數(shù)是聚合函數(shù),不是窗口函數(shù)答案:B182.Stage的Task的數(shù)量由()決定。A、PartitionB、JobC、StageD、TaskScheduler答案:A183.Kafka的主題分區(qū)數(shù)量可以根據(jù)什么進(jìn)行配置?()A、生產(chǎn)者數(shù)量B、消費(fèi)者數(shù)量C、主題的重要性D、集群的規(guī)模答案:D184.Hive中的自動(dòng)分區(qū)是通過哪個(gè)配置參數(shù)啟用的()?A、hive.auto.partitionB、hive.partition.autoC、hive.exec.dynamic.partitionD、hive.partitioning.auto答案:C185.ZooKeeper使用的是()文件系統(tǒng)。A、HadoopDistributedFileSystem(HDFS)B、NetworkFileSystem(NFS)C、ZooKeeperFileSystem(ZFS)D、ExtensibleStorageEngine(ESE)答案:C186.Docker運(yùn)行的核心模塊是()。A、DockerServerB、DockerEngineC、DockerClient答案:B187.以下哪個(gè)文件是能夠修改HDFS的副本保存數(shù)量參數(shù)()。A、修改mapred-site.xml配置文件B、修改core-site.xml配置文件C、修改yarn-site.xml配置文件D、修改hdfs-site.xml配置文件答案:D188.Flink的廣播狀態(tài)(BroadcastState)用于()。A、在所有任務(wù)之間共享狀態(tài)B、保持?jǐn)?shù)據(jù)流的連續(xù)性C、加速數(shù)據(jù)處理D、控制數(shù)據(jù)流速度答案:A189.在ZooKeeper中,ACL(訪問控制列表)可以設(shè)置為()。A、CREATOR_ALL_ACLB、OPEN_ACL_UNSAFEC、AUTH_IDSD、所有選項(xiàng)都正確答案:D190.Kafka的核心是由哪個(gè)組件組成?()A、ProducerB、ConsumerC、BrokerD、ZooKeeper答案:C191.ZooKeeper中的一致性協(xié)議ZAB是基于()算法實(shí)現(xiàn)。A、2PC(Two-PhaseCommit)算法B、Raft算法C、Paxos算法D、3PC(Three-PhaseCommit)算法答案:C192.MySQL數(shù)據(jù)庫驅(qū)動(dòng)文件放置于hive哪個(gè)目錄下()。A、jarB、libC、binD、sbin答案:B193.消費(fèi)者出現(xiàn)活鎖問題時(shí)應(yīng)該()。A、增加erval.ms相關(guān)參數(shù)B、減少消費(fèi)者數(shù)量C、重啟集群D、提高poll頻率答案:A194.下列選項(xiàng)中,()不屬于轉(zhuǎn)換算子操作。A、filter(func)B、map(func)C、reduce(func)D、reduceByKey(func)答案:C195.當(dāng)之前下線的分區(qū)重新上線時(shí),要執(zhí)行Leader選舉,選舉策略為()。A、OfflinePartitionLeader選舉B、ReassignPartitionLeader選舉C、PreferredReplicaPartitionLeader選舉D、ControlledShutdownPartitionLeader選舉答案:A196.關(guān)于Hivemetastore的三種模式的描述錯(cuò)誤的是()。A、Derby方式是內(nèi)嵌的方式,也是默認(rèn)的啟動(dòng)方式,一般用于單元測試B、local模式中,使用MySQL本地部署實(shí)現(xiàn)metastoreC、remote模式為遠(yuǎn)程MySQLD、erby方式在同一時(shí)間只能有多個(gè)進(jìn)程連接使用數(shù)據(jù)庫答案:D197.Flink的安裝過程中,通常需要設(shè)置()來指定Flink的根目錄。A、JAVA_HOMEB、PATHC、FLINK_HOMED、FLINK_PATH答案:C198.Docker中的每一個(gè)工作都可以抽象為一個(gè)()。A、實(shí)例B、進(jìn)程C、JobD、請(qǐng)求答案:C199.以下選項(xiàng)哪個(gè)是MapReduce正確的運(yùn)行模型()。A、Reduce-Map-ShuffleB、Shuffle-Map-ReduceC、Map-Shuffle-ReduceD、Map-Reduce-Shuffle答案:C200.水位線的單位通常是()。A、秒B、毫秒C、分鐘D、小時(shí)答案:B201.HBase依賴()技術(shù)框架提供消息通信機(jī)制。A、ZookeeperB、ChubbyC、RPCD、Socket答案:A202.Flume的事件可以包含哪些屬性?()A、Timest,Type,Body,Headers,CountB、Timest,Type,Body,Headers,IDC、Timest,Type,Body,Headers,SequenceIDD、Timest,Type,Body,Headers,Number答案:C203.當(dāng)在Sqoop中使用--append參數(shù)時(shí),它會(huì)將數(shù)據(jù)添加到目標(biāo)表的哪個(gè)位置?()A、文件的開頭B、文件的末尾C、新文件中D、隨機(jī)位置答案:B204.Hive中以下操作不正確的是()。A、loaddatainpathintotablenameB、insertintotablenameC、insertoverwritetablenameD、upddatetablename答案:D205.下面()端口不是Spark自帶服務(wù)的端口。A、8080.0B、4040.0C、8090.0D、18080.0答案:C206.下列哪種情況不會(huì)觸發(fā)到消費(fèi)者分區(qū)的重新分配?A、當(dāng)有新的消費(fèi)者加入消費(fèi)者組B、已有的消費(fèi)者推出消費(fèi)者組C、處于消費(fèi)者所在分區(qū)最近提交的offset位置D、消費(fèi)者所訂閱的主題的分區(qū)發(fā)生變化答案:C207.Hive的默認(rèn)元數(shù)據(jù)存儲(chǔ)是什么()?A、MySQLB、PostgreSQLC、DerbyD、Oracle答案:C208.Flume的事件傳輸方式是什么?()A、pull-basedB、push-basedC、stream-basedD、event-based答案:C209.以下對(duì)hive中表數(shù)據(jù)操作描述正確的是()。A、hive可以修改行值B、hive可以修改列值C、hive不可以修改特定行值、列值D、以上說法都不對(duì)答案:C210.ZooKeeper中的節(jié)點(diǎn)可以設(shè)置()類型的觸發(fā)器。A、數(shù)據(jù)變更觸發(fā)器B、子節(jié)點(diǎn)變更觸發(fā)器C、連接狀態(tài)觸發(fā)器D、所有類型的觸發(fā)器答案:D211.Flink的作業(yè)調(diào)度(JobScheduling)通常由()負(fù)責(zé)。A、ResourceManagerB、TaskManagerC、JobManagerD、ZooKeeper答案:C212.Flume的Source組件負(fù)責(zé)什么?()A、接收數(shù)據(jù)并將其寫入ChannelB、接收數(shù)據(jù)并將其轉(zhuǎn)發(fā)到下一組件C、從數(shù)據(jù)源讀取數(shù)據(jù)并將其寫入ChannelD、從數(shù)據(jù)源讀取數(shù)據(jù)并將其寫入接收器答案:C213.Flume的Sink組件負(fù)責(zé)什么?()A、將數(shù)據(jù)從Channel中讀取并寫入目標(biāo)位置B、將數(shù)據(jù)從Channel中讀取并發(fā)送到下一組件C、從Channel中讀取數(shù)據(jù)并將其寫入接收器D、從Channel中讀取數(shù)據(jù)并將其寫入目標(biāo)位置。答案:D214.Flink的核心概念之一是()。A、數(shù)據(jù)表B、數(shù)據(jù)流C、數(shù)據(jù)庫D、數(shù)據(jù)倉庫答案:B215.以下選項(xiàng)中說法正確的是()。A、DAG是彈性分布式數(shù)據(jù)集的簡稱,是分布式內(nèi)存的一個(gè)抽象概念,提供了一種高度受限的共享內(nèi)存模型B、Application是運(yùn)行在工作節(jié)點(diǎn)的一個(gè)進(jìn)程,負(fù)責(zé)運(yùn)行TaskC、Job是運(yùn)行在Executor上的工作單元D、Stage是Job的基本調(diào)度單位,一個(gè)Job會(huì)分為多組Task,每組Task被稱為Stage答案:D216.使用create命令新建容器時(shí),指定容器在網(wǎng)絡(luò)中的別名的命令選項(xiàng)是()。A、net-nameB、net-aliasC、networkD、alias答案:B217.ClusterManager是()。A、資源的分配和管理B、從節(jié)點(diǎn)C、執(zhí)行器D、主節(jié)點(diǎn)答案:A218.以下關(guān)于Spark中的RDD的說法,錯(cuò)誤的是()。A、RDD就是一個(gè)分布式對(duì)象集合,本質(zhì)上是一個(gè)只讀的分區(qū)記錄集合B、每個(gè)RDD可分成多個(gè)分區(qū),每個(gè)分區(qū)就是一個(gè)數(shù)據(jù)集片段C、RDD提供了一種高度共享內(nèi)存模型,RDD既可以讀,也可以直接修改D、RDD的不同分區(qū)可以被保存到集群中不同的節(jié)點(diǎn)上,從而可以在集群中的不同節(jié)點(diǎn)上進(jìn)行并行計(jì)算答案:C219.Flink中的Checkpoints(檢查點(diǎn))主要用于()。A、實(shí)現(xiàn)Exactly-once語義B、控制并行度C、執(zhí)行作業(yè)D、壓縮數(shù)據(jù)答案:A220.以下關(guān)于Hive操作描述不正確的是()。A、Hive是一個(gè)建立在hadoop文件系統(tǒng)上的數(shù)據(jù)倉庫架構(gòu),可以用其對(duì)HDFS上B、Hive依賴于MapReduce處理數(shù)據(jù)C、Hive的加載數(shù)據(jù)時(shí)候,可以用local進(jìn)行修飾,表示從某個(gè)本地目錄下加載數(shù)據(jù)D、Hive一般可以用于實(shí)時(shí)的查詢分析答案:D221.Hive默認(rèn)的元存儲(chǔ)是保存在內(nèi)嵌的()數(shù)據(jù)庫中。A、MySQLB、DerbyC、OracleD、SqlServer答案:B222.在配置好Hadoop集群之后,通過瀏覽器登錄查看HDFS狀態(tài),以下是查看的URL()。A、http://master:8089B、:50070C、http://master:16010D、http://master:9999答案:B223.Flink的日志管理通常包括()這幾個(gè)方面。A、日志存儲(chǔ)和檢索B、日志清理和壓縮C、日志分析和報(bào)警D、以上都是答案:D224.與傳統(tǒng)消息系統(tǒng)相比,Kafka的突出特點(diǎn)不包括()。A、能夠持久化日志B、容錯(cuò)能力強(qiáng),是一個(gè)分布式系統(tǒng)C、支持實(shí)時(shí)的流式處理D、提供在線消息同步和離線消息緩存的能力答案:D225.查看Docker版本號(hào)的操作命令是()。A、docker-vB、docker--versionC、docker-lD、ocker-a答案:A226.在ZooKeeper中,EPHEMERAL節(jié)點(diǎn)的特點(diǎn)是()。A、臨時(shí)創(chuàng)建,會(huì)話結(jié)束后自動(dòng)刪除B、持久創(chuàng)建,會(huì)話結(jié)束后仍然保留C、只能由Leader節(jié)點(diǎn)創(chuàng)建D、只能由Follower節(jié)點(diǎn)創(chuàng)建答案:A227.下列描述中,哪項(xiàng)不屬于Sqoop的缺點(diǎn)()。A、無法控制任務(wù)的并發(fā)度B、格式緊耦合C、安全機(jī)制不夠完善D、connector必須符合JDBC模型答案:A228.Kafka是一種()。A、t數(shù)據(jù)庫系統(tǒng)B、分布式消息隊(duì)列系統(tǒng)C、緩存系統(tǒng)D、文件系統(tǒng)答案:B229.Flume的哪個(gè)版本開始支持Spoolingdirectorysource?()A、Flume1.0B、Flume1.1C、Flume1.2D、Flume1.3答案:C230.Kafka的消費(fèi)者在處理消息時(shí)可以選擇的模式是()。A、單線程模式B、多線程模式C、分布式模式D、并行模式答案:B231.Kafka的高可用性是通過什么機(jī)制實(shí)現(xiàn)的?()A、數(shù)據(jù)復(fù)制B、數(shù)據(jù)壓縮C、t數(shù)據(jù)分片D、數(shù)據(jù)緩存答案:A232.Flume的哪個(gè)組件用于將事件數(shù)據(jù)寫入目標(biāo)存儲(chǔ)?()A、ChannelB、SinkC、Source和ChannelD、Source和Sink答案:B233.ZooKeeper中的Watcher是()。A、監(jiān)視節(jié)點(diǎn)數(shù)據(jù)變更的機(jī)制B、監(jiān)視節(jié)點(diǎn)子節(jié)點(diǎn)變更的機(jī)制C、監(jiān)視節(jié)點(diǎn)連接狀態(tài)的機(jī)制D、所有選項(xiàng)都正確答案:D234.Flume的攔截器實(shí)現(xiàn)了哪個(gè)接口?()A、ChannelInterceptorB、EventInterceptorC、SinkInterceptorD、SourceInterceptor答案:B235.Flink支持的數(shù)據(jù)處理方式為()。A、批處理B、流處理C、以上都是D、無法確定答案:C236.Hive中的哪個(gè)配置參數(shù)用于指定Hive元數(shù)據(jù)存儲(chǔ)的連接URL()?A、hive.metastore.db.urlB、hive.metastore.uriC、thive.metastore.connection.urlD、thive.metastore.db.connection答案:A237.Flink的TableAPI和SQL用于()。A、數(shù)據(jù)可視化B、執(zhí)行SQL查詢C、數(shù)據(jù)流分析D、數(shù)據(jù)清洗答案:B238.Sqoop將導(dǎo)入或?qū)С雒罘g成什么程序來實(shí)現(xiàn)導(dǎo)入導(dǎo)出()。A、SparkB、StormC、MapReduceD、Tez答案:C解析:C[79][單項(xiàng)選擇題][大數(shù)據(jù)應(yīng)用與服務(wù)][中][sqoop][C]239.Flume的事件是什么?()A、數(shù)據(jù)項(xiàng),記錄,和文件B、數(shù)據(jù)流,記錄,和事件C、數(shù)據(jù)項(xiàng),記錄,和消息D、數(shù)據(jù)流,記錄,和消息答案:D240.在ZooKeeper中,()角色負(fù)責(zé)協(xié)調(diào)其他節(jié)點(diǎn)的工作。A、領(lǐng)導(dǎo)者(Leader)B、跟隨者(Follower)C、觀察者(Observer)D、所有角色均可答案:A241.在Sqoop中,使用哪個(gè)命令可以列出可用的數(shù)據(jù)庫連接?()A、sqooplist-databasesB、sqoophelpC、sqoopconnectionsD、sqoopserver答案:A242.以下關(guān)于Spark與Hadoop對(duì)比,說法錯(cuò)誤的是()。A、Spark的計(jì)算模式也屬于MapReduce,但不局限于Map和Reduce操作,還提供了多種數(shù)據(jù)集操作類型,編程模型比HadoopMapReduce更靈活B、Spark提供了內(nèi)存計(jì)算,可將中間結(jié)果放到內(nèi)存中,對(duì)于迭代運(yùn)算效率更高C、Spark磁盤IO開銷較大,任務(wù)之間的銜接涉及IO開銷D、Spark基于DAG的任務(wù)調(diào)度執(zhí)行機(jī)制,要優(yōu)于HadoopMapReduce的迭代執(zhí)行機(jī)制答案:C243.Kafka的消息是如何進(jìn)行順序?qū)懭氲?()A、順序?qū)懭氲酱疟PB、順序?qū)懭氲絻?nèi)存C、順序?qū)懭氲骄彺鍰、順序?qū)懭氲剿饕募鸢福篈多選題1.Docker的常用鏡像命令有()。A、COPYB、DELETEC、RUND、FROM答案:ACD2.當(dāng)使用Sqoop將數(shù)據(jù)從MySQL導(dǎo)入到HDFS時(shí),以下()參數(shù)可以使用?A、--connectB、--usernameC、--passwordD、--table答案:ABCD3.RDD有()缺陷。A、不支持細(xì)粒度的寫和更新操作(如網(wǎng)絡(luò)爬蟲)B、基于內(nèi)存的計(jì)算C、擁有schema信息D、不支持增量迭代計(jì)算答案:AD4.關(guān)于spark容錯(cuò)說法錯(cuò)誤的有()。A、在容錯(cuò)機(jī)制中,如果一個(gè)節(jié)點(diǎn)死機(jī)了,而且運(yùn)算窄依賴,則只要把丟失的父RDD分區(qū)重算即可,依賴于其他節(jié)點(diǎn)B、寬依賴開銷更大C、heckpoint可以節(jié)約大量的系統(tǒng)資源D、RDD的容錯(cuò)機(jī)制是基于SparkStreaming的容錯(cuò)機(jī)制答案:AD5.如果要在Hive中啟用事務(wù)支持,哪個(gè)配置屬性應(yīng)該設(shè)置為true()。A、hive.transaction.enabledB、hive.support.transactionsC、hive.txn.managerD、hive.enable.txn答案:ACD6.ZooKeeper中的Watcher機(jī)制是通過以下()方式實(shí)現(xiàn)。A、回調(diào)函數(shù)B、輪詢機(jī)制C、線程池D、事件驅(qū)動(dòng)答案:AD7.Docker可以解決的問題有()。A、固化配置,提高效率B、自動(dòng)化CI/CD流程C、應(yīng)用隔離D、自動(dòng)化擴(kuò)容/縮容E、節(jié)約成本,一體化管理答案:ABCDE8.啟動(dòng)HDFS至少需要啟動(dòng)()進(jìn)程。A、NameNodeB、ResourceManagerC、SecondaryNameNodeD、ataNode答案:ABD9.下列選項(xiàng)中,屬于Sqoop命令的參數(shù)有()。A、importB、outputC、inputD、export答案:AD10.zookeeper在kafka中的作用()。A、kafka將元數(shù)據(jù)信息維護(hù)在zookeeper上B、kafka的producer、consumer、topic、partition都需要依賴zookeeperC、kafka使用zookeeper來實(shí)現(xiàn)動(dòng)態(tài)的集群擴(kuò)展D、發(fā)送到topic的數(shù)據(jù)需要經(jīng)過zookeeper答案:AC11.Flink的時(shí)間窗口有()。A、滾動(dòng)窗口B、滑動(dòng)窗口C、定時(shí)窗口D、會(huì)話窗口答案:ABD12.Flink的兼容性體現(xiàn)在()。A、YARN能夠作為Flink集群的資源調(diào)度管理器B、能夠與Hadoop原有的Mappers和Reduces混合使用C、能夠使用Hadoop的格式化輸入和輸出D、能夠從本地獲取數(shù)據(jù)答案:ABCD13.Hive的查詢優(yōu)化是通過什么實(shí)現(xiàn)的()。A、TezB、MapReduceC、SparkD、Flink答案:ABC14.Flume可以用于哪些類型的數(shù)據(jù)采集?()A、結(jié)構(gòu)化數(shù)據(jù)B、非結(jié)構(gòu)化數(shù)據(jù)C、日志數(shù)據(jù)D、實(shí)時(shí)數(shù)據(jù)答案:ABCD15.Hive的分區(qū)和桶的主要區(qū)別是什么()。A、分區(qū)是物理存儲(chǔ)層面的,而桶是邏輯存儲(chǔ)層面的B、分區(qū)是邏輯存儲(chǔ)層面的,而桶是物理存儲(chǔ)層面的C、分區(qū)是由HiveMetastore管理的,而桶是用戶自定義的D、分區(qū)和桶在Hive中沒有區(qū)別答案:AC16.Kafka的核心組件包括()。A、ProducerB、ConsumerC、BrokerD、SchemaRegistry答案:ABC17.Flume的HTTPSource和Sink組件支持哪些協(xié)議?()A、HTTPB、HTTPSC、AvroD、Thrift答案:ABD18.HadoopHDFS自身的局限性包括()。A、不適合做低延遲、細(xì)粒度訪問B、無法高效存儲(chǔ)大量的小文件C、不支持多文件的寫入及任意修改文件D、無法實(shí)現(xiàn)數(shù)據(jù)的冗余備份存儲(chǔ)答案:ABC19.Hive中的哪個(gè)組件負(fù)責(zé)將HQL語句翻譯成MapReduce任務(wù)()。A、QueryOptimizerB、QueryExecutorC、QueryCompilerD、QueryDriver答案:ACD20.Flink的緩存機(jī)制包含以下哪些內(nèi)容()。A、可以使用戶在并行函數(shù)中很方便的讀取本地文件B、通過ExecutionEnvironment注冊(cè)緩存文件并為其起名C、當(dāng)程序執(zhí)行時(shí),Flink自動(dòng)將文件或目錄復(fù)制到所有TaskManager節(jié)點(diǎn)的本地文件系統(tǒng)D、用戶可以從TaskManager節(jié)點(diǎn)的本地文件系統(tǒng)訪問它答案:ABCD21.Hadoop的優(yōu)點(diǎn)有哪些()?A、擴(kuò)容能力強(qiáng)B、成本低C、速度快D、占用資源少答案:AB22.Flink整個(gè)系統(tǒng)包含()三個(gè)部分。A、ClientB、TaskManagerC、DataSetD、JobManager答案:ABD23.Flink常見的應(yīng)用場景包括()A、數(shù)據(jù)流水線應(yīng)用B、事件驅(qū)動(dòng)型應(yīng)用C、地圖應(yīng)用D、數(shù)據(jù)分析應(yīng)用答案:ABD24.關(guān)于HadoopHDFS的文件操作,正確的是()。A、HDFS可以創(chuàng)建文件并寫入數(shù)據(jù)B、HDFS可以查看文件內(nèi)容C、HDFS可以創(chuàng)建目錄D、HDFS可以更改文件內(nèi)容答案:ABC25.spark的特點(diǎn)包括()。A、快速B、通用C、可延伸D、兼容性答案:ABD26.Linux的特點(diǎn)是以下()方面。A、開放源代碼的程序軟件,可自由修改。B、與Unix系統(tǒng)不兼容,具備幾乎所有Unix的優(yōu)秀特性。C、可自由傳播,免費(fèi)使用,無任何商業(yè)化版權(quán)制約。D、適合Intel等x90CPU系列架構(gòu)的計(jì)算機(jī)。答案:ACD27.Kafka負(fù)載均衡原理說法正確的是()。A、tproducer根據(jù)用戶指定的算法,將消息發(fā)送到指定的partitionB、存在多個(gè)partiiton,每個(gè)partition有自己的replica,每個(gè)replica分布在不同的Broker節(jié)點(diǎn)上C、多個(gè)partition需要選取出leadpartition,leadpartition負(fù)責(zé)讀寫,并由zookeeper負(fù)責(zé)failoverD、通過zookeeper管理broker與consumer的動(dòng)態(tài)加入與離開答案:ABCD28.Master的ElectedLeader事件后不做()操作。A、通知driverB、通知workerC、注冊(cè)applicationD、直接ALIVE答案:ABC29.在Hive中,以下哪個(gè)配置屬性用于啟用動(dòng)態(tài)分區(qū)()。A、hive.exec.dynamic.partitionB、hive.optimize.dynamic.partitionC、hive.dynamic.partition.modeD、hive.partition.dynamic.enabled答案:ACD30.要啟用Hive的Tez執(zhí)行引擎,應(yīng)該配置哪個(gè)屬性()。A、hive.execution.engineB、hive.exec.engineC、hive.tez.enableD、hive.use.tez答案:ABD31.Flink流式處理的數(shù)據(jù)源類型包括()。A、CollectionsB、JDBCC、SocketStreamsD、Files答案:ABCD32.Flink程序由以下()組成。A、DataSink數(shù)據(jù)輸出B、DataNode數(shù)據(jù)節(jié)點(diǎn)C、Transformation算子D、ataSource數(shù)據(jù)源答案:ACD33.如果要在Hive中啟用用戶定義的聚合函數(shù)(UDAFs),哪個(gè)配置屬性應(yīng)該設(shè)置為true()。A、hive.udaf.enableB、hive.enable.udafsC、hive.udaf.supportD、hive.use.udaf答案:ABD34.要配置Hive的元數(shù)據(jù)存儲(chǔ)用
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 2025-2030年中國鋁擠壓行業(yè)市場運(yùn)營狀況及發(fā)展趨勢分析報(bào)告
- 2025-2030年中國金屬波紋補(bǔ)償器市場發(fā)展?fàn)顩r及前景趨勢分析報(bào)告
- 2025天津市安全員《B證》考試題庫及答案
- 2025-2030年中國聚對(duì)苯二甲酸丁行業(yè)投資戰(zhàn)略決策研究報(bào)告
- 2025-2030年中國紡織機(jī)械制造產(chǎn)業(yè)十三五規(guī)劃及投資戰(zhàn)略研究報(bào)告
- 2025-2030年中國石斑魚市場運(yùn)行狀況與十三五規(guī)劃研究報(bào)告
- 2025-2030年中國電熱水器行業(yè)競爭格局及投資戰(zhàn)略研究報(bào)告
- 2025年江西省建筑安全員A證考試題庫附答案
- 欽州幼兒師范高等??茖W(xué)?!缎履茉雌嚱Y(jié)構(gòu)與原理》2023-2024學(xué)年第二學(xué)期期末試卷
- 2025浙江省安全員考試題庫
- 康復(fù)醫(yī)學(xué)題庫與答案
- 1、DL-T5113.1-2019 水利水電工程單元工程質(zhì)量等級(jí)評(píng)定標(biāo)準(zhǔn)第一部分:土建工程用表
- 2024年醫(yī)院感染管理制度(四篇)
- 部編版語文三年級(jí)下冊(cè)綜合性閱讀-理解人物情感-課件-(共32張課件).課件
- 2024年中國甜瓜市場調(diào)查研究報(bào)告
- (中級(jí))航空油料特設(shè)維修員(四級(jí))理論考試題庫-上(單選題)
- 部編人教版六年級(jí)道德與法治下冊(cè)全冊(cè)完整版課件
- 電動(dòng)車輛動(dòng)力電池系統(tǒng)及應(yīng)用技術(shù) 第3版 課件全套 王震坡 第1-11章 動(dòng)力電池及其驅(qū)動(dòng)的電動(dòng)車輛- 動(dòng)力電池充電方法與基礎(chǔ)設(shè)施
- 【獨(dú)立儲(chǔ)能】山西省獨(dú)立儲(chǔ)能政策及收益分析-中國能建
- (正式版)CB∕T 4550-2024 船舶行業(yè)企業(yè)安全設(shè)備設(shè)施管理規(guī)定
- 新入職員工廉政談話
評(píng)論
0/150
提交評(píng)論