數(shù)據(jù)工程師培訓(xùn)題庫四_第1頁
數(shù)據(jù)工程師培訓(xùn)題庫四_第2頁
數(shù)據(jù)工程師培訓(xùn)題庫四_第3頁
數(shù)據(jù)工程師培訓(xùn)題庫四_第4頁
數(shù)據(jù)工程師培訓(xùn)題庫四_第5頁
已閱讀5頁,還剩3頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

1、TDH數(shù)據(jù)平臺認(rèn)證工程師試題姓名:分?jǐn)?shù): 【說明】a)客觀題30題,每題 2分,總計(jì) 60分b)主觀題4題,每題10分,總計(jì) 40分c) 滿分100分?!静欢?xiàng)選擇題(每題2分共60分)】1、下列與 HDFS有關(guān)的說法正確的是()A. HDFS DataNode節(jié)點(diǎn)上的磁盤需要做RAID1 ,用來保證數(shù)據(jù)的可靠性B. HDFS可以在磁盤之間通過balance操作,平衡磁盤之間的負(fù)載情況C. HDFS建議DataNode之間的數(shù)據(jù)盤個數(shù)、容量大小不一致,以體現(xiàn)HDFS的負(fù)載均衡能力D.規(guī)戈1J HDFS集群時,建議 Active NameNode 和Standby NameNode 分配在不同的

2、 機(jī)架上2、以下哪個服務(wù)作為HDFS高可靠協(xié)調(diào)服務(wù)的共享存儲?()A. ZooKeeperB. JournalNodesC. NameNodeD. ZKFailoverController3、在集群中配置HDFS的副本數(shù)為 3,設(shè)置數(shù)據(jù)塊大小為128M ,此時我們上傳一份 64M的數(shù)據(jù)文件,該數(shù)據(jù)文件占用HDFS空間大小為()A . 64MB.128MC . 384MD . 192M4、在Yarn服務(wù)中,不包含以下哪種角色()A . ResourceManagerB . NodeManagerC . ApplicationMasterD . Contianer5、ResourceManager

3、 是YARN的主要組成部分,有關(guān)其功能描述不正確的是()A .它直接將集群所擁有的資源按需分配給運(yùn)行在YARN上的應(yīng)用程序B .它負(fù)責(zé)將集群中的所有資源進(jìn)行統(tǒng)一管理和分配C .它接受各個節(jié)點(diǎn)的資源匯報(bào)信息D .它把資源按照策略分配給各應(yīng)用6、當(dāng)前用戶提交了一個wordcount詞頻統(tǒng)計(jì)的任務(wù),最后任務(wù)執(zhí)行失敗,可能的原因有哪些()A .當(dāng)前集群中沒有足夠的資源,不足以滿足當(dāng)前wordcount任務(wù)的需求B .執(zhí)行該任務(wù)的用戶沒有權(quán)限訪問HDFS上的數(shù)據(jù)文件C .用戶在執(zhí)行任務(wù)之前在HDFS相應(yīng)的目錄下創(chuàng)建了提交任務(wù)時指定的輸出目錄D ,以上原因都有可能7、以下關(guān)于外表和托管表描述正確的是()A

4、、外表的數(shù)據(jù)存儲在本地,托管表的數(shù)據(jù)存儲在hdfs上B、刪除托管表只會刪除Inceptor上的元數(shù)據(jù)不會刪除數(shù)據(jù)文件,刪除外表兩者都會被刪除C、刪除外表只會刪除 Inceptor上的元數(shù)據(jù)不會刪除數(shù)據(jù)文件,刪除托管表兩者都會被刪除D、刪除托管表或外表, incepotr上的元數(shù)據(jù)和數(shù)據(jù)文件都會被刪除8、SQL運(yùn)行中如果出現(xiàn)maptask數(shù)據(jù)特別多,執(zhí)行時間又很短時可以通過小文件合弁來進(jìn)行優(yōu)化,以下是合弁參數(shù)有()A. SET ngmr.partition.automerge = TRUE;B. SET ngmr.partition.mergesize = n;C. SET ngmr.parti

5、tion.mergesize.mb =m;D. SET mapred.reduce.tasks = N;9、以下關(guān)于inceptor日志信息描述正確的有()A. Inceptor server日志存放于各節(jié)點(diǎn)的/var/log/inceptorsqlx/hive-server.logB. 可以通過 inceptor server 4040 查看 SQL錯誤日志C. Excutor 日志存放于 excutor 節(jié)點(diǎn)的 /var/log/inceptorsqlx/spark-excutor.logD. ExcutorGC 日志存放于excutor 節(jié)點(diǎn)的 /var/log/inceptorsqlx

6、/spark-excutor.gc.log10、tableA 有10G的數(shù)據(jù),tableB有100G的數(shù)據(jù),兩個表通過共有的id列做關(guān)聯(lián)查詢name歹U,以下方式可以優(yōu)化計(jì)算效率的是()A. select /*+MAPJOIN(a)*/ , from tableA a join tableB b on a.id=b.idB. select /*+MAPJOIN(b)*/ , from tableA a join tableB b on a.id=b.idC. 建表時將tableA和tableB根據(jù)id字段分相同數(shù)量的桶D. 建表時將 tableA

7、和tableB根據(jù)name字段分相同數(shù)量的桶11、以下屬于 HMaster功能的是()A.為 Region Server 分酉己 regionB,存儲數(shù)據(jù)元信息C. 對region 進(jìn)行 compact 操作D.管理用戶對 table的增刪改查操作12、Hyperbase 與Inceptor的關(guān)系,描述正確的是()A.兩者不可或缺, Inceptor 保證Hyperbase 的服務(wù)的正常運(yùn)行 B.兩者沒有任何關(guān)系C. Inceptor 可以訪問 HyperbaseD.兩者相輔相成13、下列創(chuàng)建全局索引的語句,正確的是()A. add_index 't1', 'index

8、_name ;COMBINE_INDEX|INDEXED=f1:q1:9|rowKey:rowKey:10,UPDATE=true'B. add_global_index 't1', 'index_name ','COMBINE_INDEX|INDEXED=f1:q1:9|rowKey:rowKey:10,UPDATE=true' C. add_fulltext_index 't1', 'index_name ;'COMBINE_INDEX|INDEXED=f1:q1:9|rowKey:rowKey:10,

9、UPDATE=true' D. create_global_index 't1', 'index_name ','COMBINE_INDEX|INDEXED=f1:q1:9|rowKey:rowKey:10,UPDATE=true'14、以下對流處理計(jì)算框架描述不正確的是()A. Spark Streaming 是基于微批(batch )對數(shù)據(jù)進(jìn)行處理的 B. Apache Storm 是基于時間(event)對數(shù)據(jù)進(jìn)行處理的 C. Transwarp StreamSQL 可基于微批或事件對數(shù)據(jù)進(jìn)行處理 D.以上說法都不對15、某交通部門

10、通過使用流監(jiān)控全市過往24小時各個卡口數(shù)據(jù),要求每分鐘更新一次,原始流為 org_stream ,以下實(shí)現(xiàn)正確的是()A. CREATESTREAMWINDOW traffic_stream AS SELECT * FROM original_stream STREAM w1 AS (length '1' minute slide '24' hour);B. CREATESTREAMtraffic_streamASSELECT*FROMoriginal_streamSTREAMWINDOW w1 AS (length '1' minute sli

11、de '24' hour);C. CREATESTREAMtraffic_streamASSELECT*FROMoriginal_streamSTREAMWINDOW w1 AS (length '24' hour slide '1' minute);D. CREATE STREAMtraffic_stream AS SELECT * FROM original_stream AS (length '24' second slide '1' minute);16、Zookeeper服務(wù)描述正確的為()A . Zoo

12、keeper 中每一個 server 互為 leader。B . Zookeeper中只有一個leader ,弁通過備份機(jī)制產(chǎn)生。C . Zookeeper中不存在 leader,所有server共同提供服務(wù)。D . Zookeeper通過選舉機(jī)制確定leader,有且僅有一個。17、通過 Hue修改HDFS目錄或文件的權(quán)限可以通過以下哪些方式實(shí)現(xiàn)()A. Hdfs相應(yīng)的權(quán)限B. 通過Hue超級用戶 hue登錄C. 以hdfs用戶登錄D. 以上都可以18、通過 Oozie使用ssh ,必須滿足以下條件()A.以root用戶登錄各個節(jié)點(diǎn)B. Oozie用戶可以免密鑰登錄C. Oozie用戶必須要

13、有bash權(quán)限D(zhuǎn).所訪問必須是集群的節(jié)點(diǎn)19、有關(guān)使用 sqoop抽取數(shù)據(jù)的原理的描述不正確的是()A . sqoop在抽取數(shù)據(jù)的時候可以指定map的個數(shù),map的個數(shù)決定在 hdfs生成的數(shù)據(jù)文件的個數(shù)B . sqoop抽取數(shù)據(jù)是個多節(jié)點(diǎn)弁行抽取的過程,因此map的個數(shù)設(shè)置的越多性能越好C . sqoop任務(wù)的切分是根據(jù)split字段的(最大值-最小彳1)/map數(shù)D . sqoop抽取數(shù)據(jù)的時候需要保證執(zhí)行當(dāng)前用戶有權(quán)限執(zhí)行相應(yīng)的操作20、在使用 sqoop連接關(guān)系型數(shù)據(jù)時,下面哪個命令可以查看關(guān)系型數(shù)據(jù)庫中有哪些 表?()A. sqoop list-databases-username

14、root-password 111111-connect jdbc:mysql:5:3306/B. sqoop list-databases-username root-P-connect jdbc:mysql:5:3306/C. sqoop list-databases-username root-password-file file:/root/.pwd-connect jdbc:mysql:5:3306/D. sqoop list-tables-username root-password 111111-con

15、nect jdbc:mysql:/5:3306/test21、要將采集的日志數(shù)據(jù)作為kafka的數(shù)據(jù)源,則 flume sink需要設(shè)置為下列哪項(xiàng)參數(shù)( )A . hdfsB . kafkaC . org.apache.flume.sink.kafka.KafkaSinkD . topicname22、下列是關(guān)于flume和sqoop對比的描述,不正確的是()A . flume主要用來采集日志而 sqoop主要用來做數(shù)據(jù)遷移B . flume主要采集流式數(shù)據(jù)而sqoop主要用來遷移規(guī)范化數(shù)據(jù)C . flume和sqoop都是分布式處理任務(wù)D . flume主要用于采集

16、多數(shù)據(jù)源小數(shù)據(jù)而sqoop用來遷移單數(shù)據(jù)源數(shù)據(jù)23、有關(guān)日asticsearch描述有誤的一項(xiàng)是()A.它會利用多播形式發(fā)現(xiàn)節(jié)點(diǎn)。B.主節(jié)點(diǎn)(master node)通過選舉方式產(chǎn)生。C.主節(jié)點(diǎn)(master node)進(jìn)行集群的管理,只負(fù)責(zé)集群節(jié)點(diǎn)添加和刪除。D.主節(jié)點(diǎn)會去讀集群狀態(tài)信息,必要的時候進(jìn)行恢復(fù)工作。24、下面措施中,不能保證 kafka數(shù)據(jù)可靠性的是()A . kafka會將所有消息持久化到硬盤中保證其數(shù)據(jù)可靠性B . kafka通過Topic Partition 設(shè)置 Replication 來保證其數(shù)據(jù)可靠性C . kafka通過設(shè)置消息重發(fā)機(jī)制保證其數(shù)據(jù)可靠性D . ka

17、fka無法保證數(shù)據(jù)可靠性25、TDH提供哪幾種認(rèn)證模式?()A.所有服務(wù)使用簡單認(rèn)證模式 一一所有服務(wù)都無需認(rèn)證即可互相訪問B.所有服務(wù)都啟用Kerberos 認(rèn)證,用戶要提供 Kerberos principal 和密碼(或者keytab )來訪問各個服務(wù)C.所有服務(wù)都啟用Kerberos 同時Inceptor 啟用LDAP認(rèn)證D.所有服務(wù)都啟用LDAP認(rèn)證26、開啟LDAP后,應(yīng)該使用哪個命令連接Inceptor ()A. transwarp -t -h $ip 。B. beeline -u jdbc:hive2:$ip:10000 -n $username -p $password 。C

18、. beeline -u"jdbc:hive2:$ip:10000/default;principal=hive/node1TDH"。D. beeline -u "jdbc:hive2:/$ip:10000/default;principal=user1TDH" 。27、Inceptor server 服務(wù)無法啟動時,該如何查看日志是()A.查看 TDH manager 所在節(jié)點(diǎn) /var/log/inceptorsql*/目錄下的 hive-server2.log 日志B. 查看 Inceptor server 所在節(jié)點(diǎn) /var/log/inceptorsql*/ 目錄下的 hive-server2.log 日志C.查看 Resource Manager 所 在節(jié)點(diǎn) /var/log/Yarn*/ 目 錄下的yarn-yarn-resourcemanager-poc-node1.log 日志D. 查看任意節(jié)點(diǎn)/var/log/inceptorsql*/ 目錄下的 hive-server2.log 日志28、現(xiàn)有一批數(shù)據(jù)需要進(jìn)行清洗,要求對其中 錄,添加部分新的記錄,則該表應(yīng)該設(shè)計(jì)為(A. Tex 表B.

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論