




版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
2025年江蘇省職業(yè)院校技能大賽中職組(大數(shù)據(jù)應(yīng)用與服務(wù))考試題庫(kù)(含答案)一、單選題1.若要在Hive中啟用壓縮數(shù)據(jù)存儲(chǔ),應(yīng)該設(shè)置哪個(gè)配置參數(shù)()?A、press.enabC、p2.在ZooKeeper中,()角色負(fù)責(zé)協(xié)調(diào)其他節(jié)點(diǎn)的工作。D、所有角色均可3.ZooKeeper中的一次讀操作是原子的嗎?()4.在hadoop配置中core-site.xml的配置是()參數(shù)。A、集群全局參數(shù)D、集群資源管理系統(tǒng)參數(shù)6.以下關(guān)于Hive操作描述不正確的是()。A、Hive是一個(gè)建立在hadoop文件系統(tǒng)上的數(shù)據(jù)倉(cāng)庫(kù)架構(gòu),可以用其對(duì)HDFS上C、Hive的加載數(shù)據(jù)時(shí)候,可以用local進(jìn)行修飾,表示從某個(gè)本地目錄下加載數(shù)據(jù)D、Hive一般可以用于實(shí)時(shí)的查詢分析答案:D7.Flink的Web界面通常用于()。B、監(jiān)控Flink集群8.查看Docker版本號(hào)的操作命令是()。9.在ZooKeeper中,節(jié)點(diǎn)的數(shù)據(jù)版本是如何維護(hù)的?()10.關(guān)于DataFrame的優(yōu)勢(shì),以下描述錯(cuò)誤的是()。D、ataFrame可以完全替換RDD11.將一個(gè)已經(jīng)創(chuàng)建的容器導(dǎo)出到一個(gè)文件使用的操作命令是()。12.Flink的集群部署通常需要()作為資源管理器。14.Flume的哪個(gè)組件用于將事件數(shù)據(jù)寫(xiě)入目標(biāo)存儲(chǔ)?()A、數(shù)據(jù)復(fù)制B、數(shù)據(jù)壓縮C、數(shù)據(jù)分片D、數(shù)據(jù)緩存答案:AA、bin/sqoopimport--connectjdbc:mysql://0:3306/userdernameroot--delete-target-dir--target-dir/MysqlToHDFS1-B、in/sqoopimport--connectjdbc:mysql://localhosteroot--delete-target-dir--target-dir/MysqlToHDFS1-C、bin/sqoopimport--connectjdbc:mysql://localhost:330meroot--delete-target-dir--target-dir/MysqlToHDFSD、bin/sqoopimport--connectjdbc:mysql://localhomeroot--delete-target-dir--target-dir/MysqlToHDFS1--tablestudent--m11.3答案:DC、Executor啟動(dòng)會(huì)主動(dòng)連接Driver,通過(guò)Driver->Master->WorkExecutor,從而得到Driver在哪D、river會(huì)產(chǎn)生Task,提交給Executor中啟動(dòng)Task去做真正的計(jì)算18.下列不是Spark的部署模式的是()。20.Flume的核心組件有哪些?()22.在ZooKeeper中,節(jié)點(diǎn)可以設(shè)置監(jiān)聽(tīng)器嗎?()A、是,可以設(shè)置監(jiān)聽(tīng)器B、否,節(jié)點(diǎn)沒(méi)有監(jiān)聽(tīng)功能C、取決于節(jié)點(diǎn)的類型D、取決于節(jié)點(diǎn)的權(quán)限設(shè)置答案:A24.設(shè)用壓力測(cè)試測(cè)出機(jī)器寫(xiě)入速度是20M/s一臺(tái),峰值的業(yè)務(wù)數(shù)據(jù)的速度是10OM/s,副本數(shù)為6,預(yù)估需要部署Kafka機(jī)器數(shù)量為()。A、6.025.Dockerfile中指定環(huán)境變量的指令是()。26.Kafka的消息保留策略可以根據(jù)什么進(jìn)行配置?()A、1.028.Docker運(yùn)行的核心模塊是()。答案:B29.查看Docker鏡像信息的命令是()。30.Kafka最初是由哪家公司開(kāi)發(fā)的?()31.啟動(dòng)一個(gè)容器的操作命令是()。32.關(guān)于MapReduce優(yōu)點(diǎn),下列說(shuō)法不正確的是()。A、高容錯(cuò)性B、適合PB級(jí)以上海量數(shù)據(jù)的離線處理33.ZooKeeper中的數(shù)據(jù)模型是基于()。34.Spark采用RDD以后能夠?qū)崿F(xiàn)高效計(jì)算不是因?yàn)?)。B、中間結(jié)果持久化到內(nèi)存,數(shù)據(jù)在內(nèi)存中的多個(gè)RDD操作之間進(jìn)行傳遞,避免C、存放的數(shù)據(jù)可以是Java對(duì)象,避免了D、RDD采用了高效的“轉(zhuǎn)換”和“動(dòng)作”算子B、MapReduce是基于內(nèi)存計(jì)算的框架C、MapReduce是分布式文件存儲(chǔ)系統(tǒng)D、MapReduce1.0既是一個(gè)計(jì)算框架又是一個(gè)資源調(diào)度框架36.Hive中以下操作不正確的是()。38.在Sqoop中,使用哪個(gè)命令可以列出可用的數(shù)據(jù)庫(kù)連接?()D、取決于Watcher的設(shè)置40.下列說(shuō)法錯(cuò)誤的是()。D、partition是一個(gè)沒(méi)有順序的隊(duì)列41.Flume的哪個(gè)版本加入了對(duì)Avro事件的的支持?()42.將大數(shù)據(jù)平臺(tái)數(shù)據(jù)導(dǎo)出到mysql可以使用()工具。A、Dataset能從RDD中構(gòu)建B、Dataset提供了特定域?qū)ο笾械娜躅愋图螦、hive.query.plan.cache.dir答案:B45.在Hive中,以下哪個(gè)配置參數(shù)用于指定Hive執(zhí)行計(jì)劃的輸出目錄()?A、hive.query.plan.output.direc答案:A46.在Hive中,以下哪個(gè)配置參數(shù)用于指定HiveCLI的歷史命令記錄文件名(A、hive.history.file.n答案:B47.創(chuàng)建一個(gè)容器的操作命令是()。C、dockerbuild答案:D答案:D49.DStream的轉(zhuǎn)換操作方法中,()方法可以直接調(diào)用RDD上的操作方法。50.Flink的分布式部署需要的組件是()。51.消費(fèi)者出現(xiàn)活鎖問(wèn)題時(shí)應(yīng)該()。A、增加erval.ms相關(guān)參數(shù)B、減少消費(fèi)者數(shù)量D、提高poll頻率庫(kù)用于(),幫助檢測(cè)和處理特A、執(zhí)行復(fù)雜數(shù)據(jù)處理操作C、處理實(shí)時(shí)事件流D、控制數(shù)據(jù)流速度53.Kafka的主題分區(qū)數(shù)量可以根據(jù)什么進(jìn)行配置?()54.關(guān)于SparkSQL,以下說(shuō)法正確的是()。55.Kafka的消息傳遞語(yǔ)義是()。56.在Hive中,哪個(gè)配置參數(shù)用于指定HiveCLI的歷史命令記錄目錄()?A、hive.history.file.direct60.在Docker的運(yùn)行過(guò)程中,對(duì)鏡像的操作不包括()。61.以下哪個(gè)是正確的sqoop導(dǎo)入數(shù)據(jù)的完整命令?()A、sqoopimport--connectjdbc:mysql://localhost:3306/userdb--usernot--delete-target-dir--target-dir/MysqlToHDFS1-B、sqoopimportdata--connectjdbc:mysql://localhomeroot--delete-target-dir--target-dir/MysqlTC、bin/sqoopimport--connectjdbc:mysql://localhost:330meroot--delete-target-dir--target-dir/MysqITD、bin/sqoopimportdata--connectjdbc:mysql://loernameroot--delete-target-dir--target-dir/MysqlToHDFS162.配置Hadoop文件參數(shù)時(shí),配置項(xiàng)“dfs.replication”應(yīng)該配置在哪個(gè)文件?63.Docker中的每一個(gè)工作都可以抽象為一個(gè)()。A、實(shí)例B、進(jìn)程D、請(qǐng)求答案:C64.Hive的默認(rèn)元數(shù)據(jù)存儲(chǔ)是什么()?A、它是NameNode的熱備D、SecondaryNameNode應(yīng)與NameNode部署到一個(gè)節(jié)點(diǎn)A、persist()D、以上都不是C、只能由Leader節(jié)點(diǎn)創(chuàng)建68.Kafka的生產(chǎn)者在發(fā)送消息時(shí)可以選擇的傳遞方式是()。69.Kafka的消息是如何進(jìn)行順序?qū)懭氲?()70.Hive中的哪個(gè)配置參數(shù)用于指定Hive元數(shù)據(jù)存儲(chǔ)的連接URL()?A、hive.metastore.db.A、list72.下列關(guān)于topic和partition的描述,錯(cuò)誤的是()。73.查看Docker所有容器的命令是()。75.在ZooKeeper中,ACL(訪問(wèn)控制列表)可以設(shè)置為()。76.下面()操作是寬依賴。78.DataFrame和RDD最大的區(qū)別是()。79.Flink的作業(yè)調(diào)度(JobScheduling)通常由()負(fù)責(zé)。81.下面中不屬于HIVE中的元數(shù)據(jù)信息()。C、表的屬性(只存儲(chǔ)內(nèi)部表信息)82.Flink中的Watermark是用來(lái)(),83.關(guān)于Hive各個(gè)格式使用場(chǎng)景描述錯(cuò)誤的是()。A、Parquet對(duì)于大型查詢的類型是高效的,對(duì)于掃描特定表格中的特定列的查A、Partition85.Hive適合()環(huán)境。A、Hive適合用于聯(lián)機(jī)(online)事務(wù)處理D、Hive適合關(guān)系型數(shù)據(jù)環(huán)境86.以下對(duì)hive中表數(shù)據(jù)操作描述正確的是()。A、hive可以修改行值B、hive可以修改列值C、hive不可以修改特定行值、列值88.Docker的()命令用于構(gòu)建鏡像。89.Flink的高可用性(HighAvailability)設(shè)置通常需要配置的組件是()。90.Hive是由哪家公司開(kāi)源的()。91.Flume的哪個(gè)版本加入了Kafka作為源和匯點(diǎn)?()A、1.X版本C、3.X版本93.以下關(guān)于Spark與Hadoop對(duì)比,說(shuō)法錯(cuò)誤的是()。B、Spark提供了內(nèi)存計(jì)算,可將中間結(jié)果放到內(nèi)C、Spark磁盤(pán)10開(kāi)銷較大,任務(wù)之間的銜接涉及10開(kāi)銷D、Spark基于DAG的任務(wù)調(diào)度執(zhí)行機(jī)制,要優(yōu)于HadoopMapReduce的迭代執(zhí)行機(jī)制94.在Hive中,以下哪個(gè)配置參數(shù)用于指定Hive表的默認(rèn)存儲(chǔ)格式()?A、hive.default.storage.fo95.Hive中的配置文件通常位于哪個(gè)目錄中()?A、/etc/hive/conf97.要在Hive中啟用Kerberos認(rèn)證,應(yīng)該設(shè)置哪個(gè)配置參數(shù)()?A、hive.security.authentica98.在Hive中,以下哪個(gè)配置參數(shù)用于指定Hive服務(wù)器的端口號(hào)()?99.關(guān)于Hive查詢通常延遲較高的原因描述錯(cuò)誤的是()。答案:D100.關(guān)于ZooKeeper說(shuō)法錯(cuò)誤的是()。A、ZooKeeper是一個(gè)高可用的分布式數(shù)據(jù)管理和協(xié)調(diào)框架B、能夠很好的保證分布式環(huán)境中數(shù)據(jù)的一致性C、越來(lái)越多的分布式系統(tǒng)(Hadoop、HBase、Kafka)中使用ZooKeeperD、Hadoop的高可用不需要用到ZooKeeper答案:C102.Flink的日志管理通常包括()這幾個(gè)方面。A、日志存儲(chǔ)和檢索B、日志清理和壓縮C、日志分析和報(bào)警D、以上都是答案:D103.在配置好Hadoop集群之后,通過(guò)瀏覽器登錄查看HDFS狀態(tài),以下是查看的A、RDD就是一個(gè)分布式對(duì)象集合,本質(zhì)上是一個(gè)只讀的分區(qū)記錄集合B、每個(gè)RDD可分成多個(gè)分區(qū),每個(gè)分區(qū)就是一個(gè)數(shù)據(jù)集片段D、RDD的不同分區(qū)可以被保存到集群中不同的節(jié)點(diǎn)上,從而可以在集群中的不QL類型被映射什么類型()。106.Spark默認(rèn)的存儲(chǔ)級(jí)別是()。107.Hadoop集群中存在的主要性能瓶頸是()。A、CPUC、磁盤(pán)10108.Flume的事件Body可以包含什么類型的數(shù)據(jù)?()109.Kafka的消息以什么形式進(jìn)行存儲(chǔ)?()110.在Docker數(shù)據(jù)管理中,數(shù)據(jù)卷可以提供的特性不包括()。111.Flink的狀態(tài)管理用于(),以支持容錯(cuò)性和狀態(tài)化的計(jì)算。庫(kù)是不支持使用Sqoop直接進(jìn)行數(shù)據(jù)傳送()。A、DD115.Hive中的自動(dòng)分區(qū)是通過(guò)哪個(gè)配置參數(shù)啟用的()?C、MapReduce程序只能用java語(yǔ)言編寫(xiě)D、MapReduce隱藏了并行計(jì)算的細(xì)節(jié),方便使用118.HBase依賴()技術(shù)框架提供消息通信機(jī)制。119.Hive中分組的關(guān)鍵字是什么()?121.Flume的哪個(gè)版本開(kāi)始支持Avro作為數(shù)據(jù)傳輸格式?()B、2.X版本123.Flink的安全性設(shè)置通常包括(),以確保只有授權(quán)用戶能夠訪問(wèn)Flink124.Kafka的消息傳遞保證是()。C、正好一次A、節(jié)點(diǎn)名稱具有順序性B、節(jié)點(diǎn)數(shù)據(jù)具有順序性C、節(jié)點(diǎn)的觸發(fā)器具有順序性126.Flume的攔截器實(shí)現(xiàn)了哪個(gè)接口?()127.Kafka的核心是由哪個(gè)組件組成?()答案:C129.Flink的安裝配置中,通過(guò)()來(lái)指定外部依賴庫(kù)的路徑。A、在Flink集群中心目錄中添加依賴庫(kù)B、在Flink作業(yè)中指定依賴庫(kù)路徑C、在Flink配置文件中設(shè)置lib.paths屬性答案:C130.以下哪種不是Hive支持的數(shù)據(jù)類型()。答案:D132.關(guān)于SparkStreaming的優(yōu)點(diǎn),不包括()。A、易用性B、容錯(cuò)性C、易整合性D、低吞吐量A、節(jié)點(diǎn)的數(shù)據(jù)變更操作B、節(jié)點(diǎn)的子節(jié)點(diǎn)變更操作134.Sqoop中哪個(gè)參數(shù)用于指定要使用的分隔符,以便在導(dǎo)入數(shù)據(jù)時(shí)正確處理字135.以下關(guān)于Spark計(jì)算框架,說(shuō)法錯(cuò)誤的是()。B、Spark框架是使用Java編寫(xiě)的C、Spark提供了完整而強(qiáng)大的技術(shù)棧,包括SQL查詢、流式計(jì)算、機(jī)器學(xué)習(xí)和圖算法組件D、Spark可運(yùn)行于獨(dú)立的集群模式中,可運(yùn)行于Hadoop中,也可運(yùn)行于Amazo答案:B答案:D137.停止一個(gè)容器的操作命令是()。A、dockerstop139.Flume的Sink組件負(fù)責(zé)什么?()140.當(dāng)使用sqoop將數(shù)據(jù)從MySQL導(dǎo)入到HDFS時(shí),以下哪個(gè)參數(shù)用于指定使用141.SparkStreaming中對(duì)DStream的轉(zhuǎn)換操作會(huì)轉(zhuǎn)變成對(duì)()的操作。143.允許開(kāi)發(fā)人員為容器分配MAC地址的是()。144.在Hive中,以下哪個(gè)配置參數(shù)用于指定Hive元數(shù)據(jù)存儲(chǔ)的數(shù)據(jù)庫(kù)145.ZooKeeper中的節(jié)點(diǎn)可以設(shè)置()類型的觸發(fā)器。146.下面()操作是窄依賴。147.查看HDFS的報(bào)告命令是()。148.Kafka服務(wù)器默認(rèn)能接收的最大消息是多大?()否A、1M150.以下關(guān)于RDD的寬依賴和窄依賴的說(shuō)法錯(cuò)誤的是()。151.ZooKeeper中的一致性協(xié)議ZAB是基于()算法實(shí)現(xiàn)。152.在ZooKeeper中,關(guān)于節(jié)點(diǎn)的ACL(訪問(wèn)控制列表)說(shuō)法錯(cuò)誤的是()。153.Flume的哪個(gè)組件可以保證數(shù)據(jù)不會(huì)丟失?()155.關(guān)于DStream窗口操作函數(shù),以下說(shuō)法錯(cuò)誤的是()。A、window()返回基于源DStream156.關(guān)于Hive數(shù)據(jù)傾斜問(wèn)題描述正確的是()。C、小文件合并不會(huì)解決數(shù)據(jù)傾斜的問(wèn)題C、SequenceFile是一種二進(jìn)制存儲(chǔ)159.Flink的核心概念之一是()。D、數(shù)據(jù)倉(cāng)庫(kù)A、JSON161.當(dāng)Kafka中日志片段大小達(dá)到()時(shí),當(dāng)前日志片段會(huì)被關(guān)閉。A、1M162.Flume的事件傳輸方式是什么?()163.Docker的三大核心不包括()。165.關(guān)于Hivemetastore的三種模式的描述錯(cuò)誤的是()。B、local模式中,使用MySQL本地部署實(shí)現(xiàn)metastoreC、remote模式為遠(yuǎn)程MySQL167.下列選項(xiàng)中,()不屬于轉(zhuǎn)換算子操作。168.Docker是基于()實(shí)現(xiàn)的開(kāi)源容器項(xiàng)目。D、Python語(yǔ)言169.關(guān)于Hive描述正確的是()。170.Flink的容錯(cuò)機(jī)制是()工作的,它定期記錄數(shù)據(jù)流的狀態(tài),以便在發(fā)生171.Flume的事件可以包含哪些屬性?()A、sqooplist-database--connectjdbc:mysql://:3306/--usernamB、sqooplist-databases--connectionjdbc:mysql:/C、sqooplist-databases--connectjdbc:mysql://127.0.0.D、sqooplist-databases--connectjdbc:mysql://1173.Docker配置文件的語(yǔ)法格式中,代表單個(gè)字符的符號(hào)是()。C、!A、文件的開(kāi)頭B、文件的末尾C、新文件中176.在()版本后,Kafka177.HadoopMapReduce支持多種語(yǔ)言編程,下列說(shuō)法不正確的是()。A、可以用JAVA語(yǔ)言編寫(xiě)MapReduce應(yīng)用程序B、可以用C/C++語(yǔ)言編寫(xiě)MapReduce應(yīng)用程序A、hive.tmp.dir179.Dockerfile配置文件使用()命令指定基礎(chǔ)鏡像。180.關(guān)于Hive和傳統(tǒng)數(shù)據(jù)庫(kù)的比較描述正確的是()?B、Hive使用了查詢語(yǔ)言HQL(HiveQueryLanguage),HQL與SQL沒(méi)有任何關(guān)系C、Hive是建立在Hadoop之上的,所有Hive的數(shù)據(jù)都是存儲(chǔ)在HDFS中的,而D、Hive的針對(duì)數(shù)據(jù)倉(cāng)庫(kù)設(shè)計(jì),針對(duì)的是讀多寫(xiě)少的場(chǎng)景離灘灘182.關(guān)于HiveSQL編譯描述正確的是()。A、HiveSQL的Parser層是為了將SQL轉(zhuǎn)化為執(zhí)行計(jì)劃的184.下列語(yǔ)句中,描述錯(cuò)誤的是()。B、Sqoop底層會(huì)將Sqoop命令轉(zhuǎn)換為MapReduce任務(wù),并通過(guò)Sqoop連接器進(jìn)行t”或“”A、實(shí)現(xiàn)Exactly-once語(yǔ)義A、Leader-Follower初始通信時(shí)限B、Leader-Follower同步通信時(shí)限C、lient-Server通信心跳時(shí)間D、Client-Server初始通信時(shí)限187.下面哪個(gè)命令是導(dǎo)入到集群()。A、import188.制作鏡像時(shí),復(fù)制文件到鏡像中使用的命令是()。A、DD190.關(guān)于Hive數(shù)據(jù)模型描述正確的是()。A、Hive的元數(shù)據(jù)存儲(chǔ)在HDFS中B、Hive的數(shù)據(jù)模型只包含:表、分區(qū)191.Flink的安裝過(guò)程中,通常需要設(shè)置()來(lái)指定Flink的根目錄。192.Flume的哪個(gè)攔截器可以按類型區(qū)分事件?()195.在ZooKeeper中,每個(gè)節(jié)點(diǎn)都有一個(gè)唯一的標(biāo)識(shí)符,這個(gè)標(biāo)識(shí)符是()。答案:A196.在Sqoop中,哪個(gè)參數(shù)用于指定要導(dǎo)入的目標(biāo)表?()A、計(jì)算作業(yè)的結(jié)果B、控制作業(yè)的執(zhí)行順序C、定義數(shù)據(jù)源D、過(guò)濾和轉(zhuǎn)換數(shù)據(jù)流答案:DC、無(wú)D、運(yùn)行時(shí)指定200.ZooKeeper使用的是()文件系統(tǒng)。201.Flink支持處理各種類型的數(shù)據(jù),包括()數(shù)據(jù)。答案:B203.dockerfile文件的作用是()。A、普通文件B、用于自定義鏡像C、用于保存容器配置D、用于存放docker配置答案:B204.當(dāng)之前下線的分區(qū)重新上線時(shí),要執(zhí)行Leader選舉,選舉策略為()。C、PreferredReplicaPartitionLeaderD、ControlledShutdownPartitionLeader選舉205.SparkSQL中,model函數(shù)可以接收的參數(shù)有哪些A、Override、Ignore答案:D207.Kafka使用的是什么類型的消息傳遞模式?()208.Flink的本地模式(LocalMode)和集群模式(ClusterMode)之間的主要區(qū)別是()。210.Dataset最終在()版本中被定義成Spark新特性。211.Hive是為了解決哪類問(wèn)題()?A、增加MapReduce2213.以下選項(xiàng)中說(shuō)法正確的是()。A、DAG是彈性分布式數(shù)據(jù)集的簡(jiǎn)稱,是分布式內(nèi)存的一個(gè)抽象概念,提供了一C、Job是運(yùn)行在Executor上的工作單元2.Flume可以用于哪些類型的數(shù)據(jù)采集?()3.在Hive中,以下哪個(gè)配置屬性用于設(shè)置Hive表的默認(rèn)壓縮格式()。4.RDD的操作主要是()操作。6.Hadoop集群的三大核心組件是()。7.Docker可以解決的問(wèn)題有()。8.關(guān)于ZooKeeper的特性說(shuō)法正確的是()。A、kafka將元數(shù)據(jù)信息維護(hù)在zookeeper上10.以下哪些是yarn-site.xml配置文件主要參數(shù)()。B、yarn.resourcemana13.Sqoop中的--hive-drop-import-delims參數(shù)有什么作用?()A、在將數(shù)據(jù)從MySQL導(dǎo)入到Hive時(shí),刪除MySQL中存在的所有分隔符B、在將數(shù)據(jù)從MySQL導(dǎo)入到Hive時(shí),刪除MySQL中存在的所有換行符C、在將數(shù)據(jù)從MySQL導(dǎo)入到Hive時(shí),刪除Hive中存在的所有分隔符A、有序節(jié)點(diǎn)16.下列關(guān)于容器操作命令匹配正確的有()。17.Sqoop是一個(gè)用于在Hadoop和結(jié)構(gòu)化數(shù)據(jù)存儲(chǔ)(如關(guān)系型數(shù)據(jù)庫(kù))之間傳輸數(shù)據(jù)的工具。以下哪些()是Sqoop的主要參數(shù)?18.Hive中的數(shù)據(jù)類型包括哪些()。19.關(guān)于spark中數(shù)據(jù)傾斜引發(fā)原因正確的選項(xiàng)有()。20.當(dāng)使用Sqoop進(jìn)行數(shù)據(jù)導(dǎo)出時(shí),以下哪些()選項(xiàng)是正確的?C、Sqoop導(dǎo)出的數(shù)據(jù)可以插入到已存在的HDFS目錄中A、批處理22.()是流計(jì)算的處理流程。23.SparkContext可以從()讀取數(shù)據(jù)。24.Hive的查詢優(yōu)化是通過(guò)什么實(shí)現(xiàn)的()。25.要配置Hive的元數(shù)據(jù)存儲(chǔ)連接字符串,應(yīng)該設(shè)置哪個(gè)屬性()。C、hive.metastore.jdbc26.如果要在Hive中啟用列級(jí)別的權(quán)限控制,哪個(gè)配置屬性應(yīng)該設(shè)置為true(A、hive.column.level.securityB、hive.security.column.authorization.enabledD、hive.column.authorization.en27.Docker容器的重要操作有()。28.Hive中的分區(qū)是如何定義的()。29.Flume的攔截器支持哪些操作?()A、Producer31.hadoopHA啟動(dòng)后,以下哪些進(jìn)程運(yùn)行在master()?A、hive.dynamic.partition.inserC、hive.enable.dynamic34.Docker容器的操作狀態(tài)有()。B、運(yùn)行狀態(tài)35.要啟用Hive的Tez執(zhí)行引擎,應(yīng)該配置哪個(gè)屬性()。36.下列屬于RDD的轉(zhuǎn)換算子的是()。37.管理自定義的網(wǎng)橋網(wǎng)絡(luò)的操作命令有()。38.Kafka負(fù)載均衡原理說(shuō)法正確的是()。A、producer根據(jù)用戶指定的算法,將消息發(fā)送到指定的partitionB、存在多個(gè)partiiton,每個(gè)partition有自己的replica,每個(gè)replica分布zookeeper負(fù)責(zé)failover39.Flink組件中流類型包括()。40.關(guān)于Docker容器的run命令,下列參數(shù)匹配正確的有()。41.下列選項(xiàng)()是ZooKeeper的應(yīng)用場(chǎng)景。42.關(guān)于partition中的數(shù)據(jù)是如何保持到硬盤(pán)上的,說(shuō)法正確的是()。持在broker節(jié)點(diǎn)上面的B、每一個(gè)分區(qū)的命名是從序號(hào)0開(kāi)始遞增C、每一個(gè)partition目錄下多個(gè)segment文件(包含xx.index,xx.log),默認(rèn)是1GD、每個(gè)分區(qū)里面的消息是有序的,數(shù)據(jù)是一樣的43.下列關(guān)于鏡像操作命令匹配正確的有()。44.spark的特點(diǎn)包括()。46.下列有關(guān)ZooKeeper中的節(jié)點(diǎn)路徑說(shuō)法正確的是()。48.Flink的Sink有哪些類型()。49.下面關(guān)于Flink窗口描述錯(cuò)誤的是()。50.Hive中的數(shù)據(jù)存儲(chǔ)是如何分區(qū)的()。54.Flink的緩存機(jī)制包含以下哪些內(nèi)容()。B、通過(guò)ExecutionEnvironment注冊(cè)緩存文件并為其起名C、當(dāng)程序執(zhí)行時(shí),F(xiàn)link自動(dòng)將文件或目錄復(fù)制到所有TaskManager節(jié)點(diǎn)的本55.Kafka相對(duì)傳統(tǒng)技術(shù)有什么優(yōu)勢(shì)說(shuō)法正確的是否()。A、GET57.Flume的可靠性機(jī)制包括哪些內(nèi)容?()58.Linux的特點(diǎn)是以下()方面。60.Hive中的哪個(gè)配置屬性用于指定Hive表的默認(rèn)存儲(chǔ)格式()。A、hive.default.storage.foB、向Driver反向注冊(cè)C、接受Driver端發(fā)送來(lái)的任務(wù)Task,作用在RDD上進(jìn)行執(zhí)行D、做資源調(diào)度任務(wù)答案:ABC62.Kafka的消息傳遞可以使用的序列化器包括()。答案:ABC63.下面關(guān)于Flink的描述正確的是()。A、Flink和Spark一樣,都是基于磁盤(pán)的計(jì)算框架B、當(dāng)全部運(yùn)行在HadoopYARN之上時(shí),F(xiàn)link的性能甚至還要略好于SparkC、Flink的流計(jì)算性能和Storm差不多,可以支持毫秒級(jí)的響應(yīng)D、Spark的市場(chǎng)影響力和社區(qū)活躍度明顯超過(guò)Flink64.Kafka的消息傳遞可以保證消息的可靠性傳遞通過(guò)()。A、復(fù)制機(jī)制B、冗余機(jī)制C、重試機(jī)制D、容錯(cuò)機(jī)制66.Task運(yùn)行不在以下選項(xiàng)中Executor上的工作單元有()。67.Flume可以用于哪些方面的數(shù)據(jù)處理?()機(jī)制是通過(guò)以下()方式實(shí)現(xiàn)。A、創(chuàng)建Hive表70.在Hive中,以下哪個(gè)配置屬性用于啟用動(dòng)態(tài)分區(qū)()。A、hive.exec.dynamic.partit71.Docker允許映射容器內(nèi)應(yīng)用的服務(wù)端口到本地宿主主機(jī),主要方式有()。72.Flume可以與其他哪些大數(shù)據(jù)技術(shù)進(jìn)行集成?()73.要讀取people.json文件生成DataFrame,可以使用下列()命令。A、spark.read.json("people.jsoC、spark.read.format("json").loD、spark.read.format("csB、無(wú)法高效存儲(chǔ)大量的小文件75.Flink支持的部署模式有()。76.利用數(shù)據(jù)卷容器可以對(duì)其中的數(shù)據(jù)卷進(jìn)行()操作。78.創(chuàng)建鏡像的主要方法有()。79.Flume的攔截器可以完成哪些操作?()80.在Hive中,以下哪個(gè)配置屬性用于指定HDFS存儲(chǔ)位置的根目錄()。A、hive.data.root.dir81.在使用Sqoop將數(shù)據(jù)從Hive導(dǎo)入到MySQL之前,需要確保以下條件已經(jīng)滿足A、已經(jīng)安裝了Hadoop集群和Hive數(shù)據(jù)庫(kù)B、已經(jīng)安裝了MySQL數(shù)據(jù)庫(kù),并且可以連接到MySQL數(shù)據(jù)庫(kù)C、已經(jīng)安裝了Sqoop,并且可以在命令行中運(yùn)行Sqoop命令82.Dockerfile配置文件中的指令包括()。83.要在Hive中配置HDFS的NameNodeURI,應(yīng)該設(shè)置哪個(gè)屬性()。84.關(guān)于ZooKeeper順序節(jié)點(diǎn)的說(shuō)法不正確的是()。85.下面哪個(gè)配置屬性用于指定Hive查詢的最大并行度()。A、hive.query.parallel86.Docker的核心概念包括()。B、通知workerC、精密的狀態(tài)管理D、事件時(shí)間支持答案:ABCD89.使用dockerps命令可以查看到的信息有()。B、鏡像名稱C、容器的端口D、生存時(shí)間E、環(huán)境變量90.以下哪些組件屬于Hadoop生態(tài)圈()。答案:BCD91.要在Hive中啟用LLAP(LowLatencyAnalyticalProcessing),哪個(gè)配置屬性應(yīng)該設(shè)置為true()。A、hive.Ilap.enabledD、hive.Ilap.execution.enabled答案:ABD92.Flink整個(gè)系統(tǒng)包含()三個(gè)部分。93.從RDD轉(zhuǎn)換得到DataFrame包含兩種典型的方法,分別是()。94.Hadoop的運(yùn)行模式分為以下()種。95.關(guān)于Flink的架構(gòu)表述正確的是()。C、Flink提供兩個(gè)核心API:DatasetAPI和DataStreamAPID、ataSetAPI做批處理,而DataStreamAPI做流處理96.在Hive中,以下哪個(gè)配置屬性用于指定Hive表的默認(rèn)文件格式()。97.Flink支持的時(shí)間操作類型包括()。98.當(dāng)使用Sqoop將數(shù)據(jù)從MySQL導(dǎo)入到HDFS時(shí),以下()參數(shù)可以使用?99.Flume可以應(yīng)用于哪些數(shù)據(jù)傳輸場(chǎng)景?()100.Flink核心組成部分提供了面向()的接口。101.Docker數(shù)據(jù)卷的操作有()。103.后端容器化環(huán)境部署中使用的數(shù)據(jù)庫(kù)一般有()。104.下列屬于RDD的行動(dòng)算子的是()。105.ZooKeeper的集群中的Leader節(jié)點(diǎn)的選舉是通過(guò)以下()方式實(shí)現(xiàn)。106.Kafka的消息傳遞保證可以是()。D、恰好兩次A、在容錯(cuò)機(jī)制中,如果一個(gè)節(jié)點(diǎn)死機(jī)了,而且運(yùn)算窄依賴,則只要把丟失的父RDD分區(qū)重算即可,依賴于其他節(jié)點(diǎn)B、寬依賴開(kāi)銷更大C、heckpoint可以節(jié)約大量的系統(tǒng)資源110.Flink流式處理的數(shù)據(jù)源類型包括()。112.Kafka的消費(fèi)者可以以以下哪種方式進(jìn)行消息的并行處理?()3.()HDFS中每個(gè)數(shù)據(jù)節(jié)點(diǎn)會(huì)定期向名稱節(jié)點(diǎn)發(fā)送信息,向名稱節(jié)點(diǎn)報(bào)告自7.()Flink支持精確一次語(yǔ)義(Exactly-0nceSemantics)來(lái)確保數(shù)據(jù)處理13.()Kafka的消息傳遞保證是“僅一次”(Exactly
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- IT系統(tǒng)災(zāi)難恢復(fù)與備份實(shí)戰(zhàn)指南
- 物流購(gòu)銷合同
- 2025年成都駕??荚囏涍\(yùn)從業(yè)資格證考試題庫(kù)
- 2025年韶關(guān)貨運(yùn)從業(yè)資格證考試題目庫(kù)存答案
- 醫(yī)療設(shè)備維修保養(yǎng)合同書(shū)
- 2025年天津貨運(yùn)從業(yè)資格證考試題庫(kù)答案解析
- 項(xiàng)目成果與經(jīng)驗(yàn)教訓(xùn)分享
- 關(guān)于產(chǎn)品發(fā)布決策的討論要點(diǎn)
- 廠家批量采購(gòu)合同共
- 學(xué)校聘用保潔員合同
- 生物補(bǔ)片及相關(guān)應(yīng)用進(jìn)展課件
- 高危新生兒管理
- 貸款調(diào)查表-經(jīng)營(yíng)類
- 做時(shí)間的主人課件- 高中時(shí)間管理主題班會(huì)
- 附件3.信息化項(xiàng)目建設(shè)方案論證審批報(bào)告書(shū)
- 小橋涵水文計(jì)算軟件
- 李德新中醫(yī)基礎(chǔ)理論講稿
- Photoshop圖像處理課件(完整版)
- 05844 全國(guó) 江蘇 自考國(guó)際商務(wù)英語(yǔ)課后習(xí)題答案 詳解
- 重慶道路交通事故認(rèn)定書(shū)(簡(jiǎn)易程序)樣本
- 2022年獸醫(yī)外科手術(shù)學(xué)作業(yè)題參考答案
評(píng)論
0/150
提交評(píng)論