大數(shù)據(jù)理論考試練習(xí)題及答案3-2023-練習(xí)版_第1頁
大數(shù)據(jù)理論考試練習(xí)題及答案3-2023-練習(xí)版_第2頁
大數(shù)據(jù)理論考試練習(xí)題及答案3-2023-練習(xí)版_第3頁
大數(shù)據(jù)理論考試練習(xí)題及答案3-2023-練習(xí)版_第4頁
大數(shù)據(jù)理論考試練習(xí)題及答案3-2023-練習(xí)版_第5頁
已閱讀5頁,還剩114頁未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

試題說明

本套試題共包括1套試卷

答案和解析在每套試卷后

大數(shù)據(jù)理論考試練習(xí)題及答案3(500題)

大數(shù)據(jù)理論考試練習(xí)題及答案3

L[單選題]以下說法正確的是:Oo

A)一個(gè)機(jī)器學(xué)習(xí)模型,如果有較高準(zhǔn)確率,總是說明這個(gè)分類器是好的

B)如果增加模型復(fù)雜度,那么模型的測(cè)試錯(cuò)誤率總是會(huì)降低

C)如果增加模型復(fù)雜度,那么模型的訓(xùn)練錯(cuò)誤率總是會(huì)降

2.[單選題]第一數(shù)字定律中使用概率最大的數(shù)字是()o

A)0

B)1

02

3.[單選題]在回歸模型中,下列哪一項(xiàng)在權(quán)衡欠擬合(under-fitting)和過擬合(over-

fitting)中影響最大()

A)多項(xiàng)式階數(shù)

B)更新權(quán)重w時(shí),使用的是矩陣求逆

C)使用常數(shù)項(xiàng)D.使用梯度下降

4.[單選題]SVM在下列哪種情況下表現(xiàn)糟糕:()。

A)線性可分?jǐn)?shù)據(jù)

B)清洗過的數(shù)據(jù)

C)含噪聲數(shù)據(jù)與重疊數(shù)據(jù)

5.[單選題]留出法直接將數(shù)據(jù)集劃分為()個(gè)互斥的集合。

A)—

B)二

OS

6.[單選題]下面對(duì)集成學(xué)習(xí)模型中的弱學(xué)習(xí)者描述錯(cuò)誤的是()o

A)他們經(jīng)常不會(huì)過擬合

B)他們通常帶有高偏差,所以其并不能解決復(fù)雜學(xué)習(xí)問題

C)他們通常會(huì)過擬

7.[單選題]如果你的數(shù)據(jù)有許多異常值,那么使用數(shù)據(jù)的均值與方差去做標(biāo)準(zhǔn)化就不行了,在

preprocessing模塊中定義了哪個(gè)方法可以解決這個(gè)問題()。

A)normalizer()

B)robust_scale()

C)maxabs_scale()

D)scale()

8.[單選題]在SQL語言分類中,以下屬于DQL的是:

A)update

B)select

C)insert

D)delet

9.[單選題]一幅圖像在采樣時(shí),行、列的采樣點(diǎn)與量化級(jí)數(shù)()o

A)既影響數(shù)字圖像的質(zhì)量,也影響到該數(shù)字圖像數(shù)據(jù)量的大小

B)不影響數(shù)字圖像的質(zhì)量,只影響到該數(shù)字圖像數(shù)據(jù)量的大小

C)只影響數(shù)字圖像的質(zhì)量,不影響到該數(shù)字圖像數(shù)據(jù)量的大小

D)既不影響數(shù)字圖像的質(zhì)量,也不影響到數(shù)字圖像數(shù)據(jù)量的大

10.[單選題]讀代碼,請(qǐng)寫出程序正確的答案()。

#!/usr/bin/envpython3

N=100

Sum=0

Counter=1

Whilecounter<=n:

Sum+counter

Counter+=1

Print("1到%d之和為:%d"%(n,sum))

A)結(jié)果:1到100之和為:5000

B)結(jié)果:1到100之和為:0

C)結(jié)果:1JIJ100之和為:2050

D)結(jié)果:1到100之和為:5020

11.[單選題]關(guān)于OLAP和OLTP的區(qū)別描述,不正確的是()o

A)0L主要是關(guān)于如何理解聚集的大量不同的數(shù)據(jù).它與0T應(yīng)用程序不同。

B)與OLAP應(yīng)用程序不同,OLTP應(yīng)用程序包含大量相對(duì)簡(jiǎn)單的事務(wù)。

O0LAP的特點(diǎn)在于事務(wù)量大,但事務(wù)內(nèi)容比較簡(jiǎn)單且重復(fù)率高。

D)0LAP是以數(shù)據(jù)倉(cāng)庫為基礎(chǔ)的,但其最終數(shù)據(jù)來源與OLTP一樣均來自底層的數(shù)據(jù)庫系統(tǒng),兩者面對(duì)的

用戶是相同的

12.[單選題]絕對(duì)多數(shù)投票法的基本思想是。。

A)對(duì)于若干和弱學(xué)習(xí)器的輸出進(jìn)行平均得到最終的預(yù)測(cè)輸出

B)少數(shù)服從多數(shù),數(shù)量最多的類別為最終的分類類別

C)不光要求獲得最高票,還要求票過半數(shù)

D)將訓(xùn)練集弱學(xué)習(xí)器的學(xué)習(xí)結(jié)果作為輸入,將訓(xùn)練集的輸出作為輸出,重新訓(xùn)練一個(gè)學(xué)習(xí)器來得到

最終結(jié)果

13.[單選題]在方差分析中,()反映的是樣本數(shù)據(jù)與其組平均值的差異。

A)總離差

B)組間誤差

C)抽樣誤差

D)組內(nèi)誤

14.[單選題]平滑圖像。處理可以采用RGB彩色模型。

A)直方圖均衡化

B)直方圖均衡化

C)加權(quán)均值濾波

D)中值濾波

15.[單選題]對(duì)于Boosting算法描述錯(cuò)誤的是()。

A)可將強(qiáng)學(xué)習(xí)器降為弱學(xué)習(xí)器

B)從初始訓(xùn)練集訓(xùn)練基學(xué)習(xí)器

C)對(duì)訓(xùn)練樣本分布進(jìn)行調(diào)整

D)做錯(cuò)的訓(xùn)練樣本多次訓(xùn)

16.[單選題]多分類學(xué)習(xí)中,最經(jīng)典的三種拆分策略不包括()o

A)一對(duì)一

B)一對(duì)其余

C)一對(duì)多

D)多對(duì)多

17.[單選題]下面購(gòu)物籃能夠提取的3-項(xiàng)集的最大數(shù)量是多少()ID:購(gòu)買項(xiàng)1牛奶,啤酒,尿布2

面包,黃油,牛奶3牛奶,尿布,餅干4面包,黃油,餅干5啤酒,餅干,尿布6牛奶,尿布,面

包,黃油7面包,黃油,尿布8啤酒,尿布9牛奶,尿布,面包,黃油10啤酒,餅干

A)1

B)2

03

D)4

18.[單選題]RDD默認(rèn)的存儲(chǔ)級(jí)別是()

A)MEMORY_ONLY

B)MEMORY_ONLY_SER

C)MEMORY_AN

D)SKMEMORY_ANSKSER

19.[單選題]在linux下預(yù)裝了Python2,Python3且默認(rèn)Python版本為Python3,下列描述可以正確啟

動(dòng)Python有()o

A)在linux應(yīng)用程序Terminal,打開一個(gè)終端窗口。輸入whichPython

B)在linux應(yīng)用程序Terminal,打開一個(gè)終端窗口。輸入Python2或Python3

C)在linux應(yīng)用程序Terminal,打開一個(gè)終端窗口。輸入whichPython3

D)在linux應(yīng)用程序Terminal,打開一個(gè)終端窗口。輸入輸入whichPython2

20.[單選題]以等可能性為基礎(chǔ)的概率是()

A)古典概率

B)經(jīng)驗(yàn)概率

C)試驗(yàn)概率

D)主觀概

21.[單選題]下列關(guān)于支持向量回歸說法錯(cuò)誤的是()。

A)支持向量回歸是將支持向量的方法應(yīng)用到回歸問題中

B)支持向量回歸同樣可以應(yīng)用核函數(shù)求解線性不可分的問題

C)同分類算法不同的是,支持向量回歸要最小化一個(gè)凹函數(shù)

D)支持向量回歸的解是稀疏

22.[單選題]以下描述中錯(cuò)誤的是()。

A)數(shù)據(jù)化與數(shù)字化是兩個(gè)不同概念

B)數(shù)據(jù)與數(shù)值是一個(gè)概念

C)大數(shù)據(jù)與海量數(shù)據(jù)是兩個(gè)不同的概念

D)數(shù)據(jù)和信息是兩個(gè)不同的概

23.[單選題]對(duì)于線性回歸模型,包括附加變量在內(nèi),以下的可能正確的是()。

1)R-Squared和AdjustedR-squared都是遞增的

2)R-Squared是常量的,AdjustedR-squared是遞增的

3)R-Squared是遞減的,AdjustedR-squared也是遞減的

4)R-Squared是遞減的,AdjustedR-squared是遞增的

A)1和2

B)1和3

02和4

D)以上都不是

24.[單選題]決策樹模型的規(guī)模應(yīng)當(dāng)是。。

A)越復(fù)雜越好

B)越簡(jiǎn)單越好

C)適當(dāng)限制其復(fù)雜程度

D)盡可能利用所有特

25.[單選題]可用作數(shù)據(jù)挖掘分析中的關(guān)聯(lián)規(guī)則算法有()。

A)機(jī)器學(xué)習(xí)、對(duì)數(shù)回歸、關(guān)聯(lián)模式

B)K均值法、SOM機(jī)器學(xué)習(xí)

C)Apriori算法、FP-Tree算法

D)RBF機(jī)器學(xué)習(xí)、K均值法、機(jī)器學(xué)

26.[單選題]Maxcompute的mapreduce不支持的功能是:()。

A)統(tǒng)計(jì)信息

B)任務(wù)進(jìn)度匯報(bào)

C)推測(cè)執(zhí)行

D)文件壓縮

27.[單選題]數(shù)據(jù)科學(xué)處于哪三大領(lǐng)域的重疊之處()。

A)數(shù)學(xué)與統(tǒng)計(jì)知識(shí)、黑客精神與技能、領(lǐng)域?qū)崉?wù)知識(shí)

B)數(shù)據(jù)挖掘、黑客精神與技能、領(lǐng)域?qū)崉?wù)知識(shí)

C)數(shù)學(xué)與統(tǒng)計(jì)知識(shí)、數(shù)據(jù)挖掘、領(lǐng)域?qū)崉?wù)知識(shí)

D)數(shù)學(xué)與統(tǒng)計(jì)知識(shí)、黑客精神與技能、數(shù)據(jù)挖掘

28.[單選題]下列關(guān)于線性模型的描述錯(cuò)誤的是()。

A)支持向量機(jī)的判別函數(shù)一定屬于線性函數(shù)

B)在樣本為某些分布情況時(shí),線性判別函數(shù)可以成為最小錯(cuò)誤率或最小風(fēng)險(xiǎn)意義下的最優(yōu)分類器

C)在一般情況下,線性分類器只能是次優(yōu)分類器

D)線性分類器簡(jiǎn)單而且在很多期情況下效果接近最優(yōu),所以應(yīng)用比較廣

29.[單選題]以下選項(xiàng)正確的是()。

Importnumpyasnp

Nm=(raju,anil,ravi,amar)

Dv=(1f.y.','s.y.1,1s.y.r'f.y.1)

Ind=np.lexsort((nm,dv))

Print(ind)

A)[3012]

B)[1359]

C)[3198]

D)['amar,f.y.'anil,s.y.1raju,f.y.1ravi,s.y.1]

30.[單選題]()對(duì)應(yīng)于決策樹結(jié)果,其他節(jié)點(diǎn)對(duì)應(yīng)于()。

A)葉節(jié)點(diǎn),屬性測(cè)試

B)根結(jié)點(diǎn),學(xué)習(xí)測(cè)試

C)內(nèi)部節(jié)點(diǎn),學(xué)習(xí)測(cè)試

D)葉節(jié)點(diǎn),分類測(cè)

31.[單選題]聚類是一種典型的無監(jiān)督學(xué)習(xí)任務(wù),然而在現(xiàn)實(shí)聚類任務(wù)中我們往往能獲得一些額外的

監(jiān)督信息,于是可通過()來利用監(jiān)督信息以獲得更好的聚類效果。

A)監(jiān)督聚類

B)半監(jiān)督聚類

C)聚類

D)直推聚類

32.[單選題]后剪枝是先從訓(xùn)練集生成一顆完整的決策樹,然后。對(duì)非葉結(jié)點(diǎn)進(jìn)行考察。

A)自上而下

B)在劃分前

C)禁止分支展開

D)自底向

33.[單選題]。在劃分屬性時(shí)是在當(dāng)前結(jié)點(diǎn)的屬性集合中選擇一個(gè)最優(yōu)屬性。

A)AdaBoost

B)RF

C)Bagging

D)傳統(tǒng)決策樹

34.[單選題]下列有關(guān)HDFS的容錯(cuò)機(jī)制描述錯(cuò)誤的是()。

A)HDFS可以使用機(jī)架位感知的方法實(shí)現(xiàn)容錯(cuò)機(jī)制;

B)HDFS可以使用基于erasurecode的方法實(shí)現(xiàn)容錯(cuò)機(jī)制;

OHDFS使用機(jī)架位感知的方法先把一份拷貝放入同機(jī)架上的機(jī)器,然后再拷貝一份到其他服務(wù)器;

D)HS使用機(jī)架位感知的方法先把一份拷貝放入同機(jī)架上的機(jī)器,然后再拷貝一份到同機(jī)架機(jī)器的不

同位置上

35.[單選題]線性回歸的基本假設(shè)不包括哪個(gè)()。

A)隨機(jī)誤差項(xiàng)是一個(gè)期望值為0的隨機(jī)變量

B)對(duì)于解釋變量的所有觀測(cè)值,隨機(jī)誤差項(xiàng)有相同的方差

C)隨機(jī)誤差項(xiàng)彼此相關(guān)

D)解釋變量是確定性變量不是隨機(jī)變量,與隨機(jī)誤差項(xiàng)之間相互獨(dú)立

36.[單選題]把圖像分割問題與圖的最小割(mincut)問題相關(guān)聯(lián)的方法是()。

A)基于圖論的分割方法

B)分水嶺算法

C)SLI法

D)基于閾值的方

37.[單選題]以下分割方法中不屬于區(qū)域算法的是()。

A)分裂合并

B)閾值分割

C)區(qū)域生長(zhǎng)

D)邊緣檢

38.[單選題]二項(xiàng)分布的數(shù)學(xué)期望為()o

A)n(l-n)p

B)np(l-p)

C)np

D)n(1-p

39.[單選題]以下哪些方法不可以直接來對(duì)文本分類()

A)Kmeans

B)決策樹

C)支持向量機(jī)

D)KN

40.[單選題]考慮值集{1、2、3、4、5、90),其截?cái)嗑担╬=20%)是()

A)2

B)3

C)3.5

D)5

41.[單選題]ApacheSqoop主要設(shè)計(jì)目的是()o

A)數(shù)據(jù)清洗

B)數(shù)據(jù)轉(zhuǎn)化

C)數(shù)據(jù)ETL

D)數(shù)據(jù)可視化

42.[單選題]假設(shè)我們擁有一個(gè)已完成訓(xùn)練的、用來解決車輛檢測(cè)問題的深度神經(jīng)網(wǎng)絡(luò)模型,訓(xùn)練所

用的數(shù)據(jù)集由汽車和卡車的照片構(gòu)成,而訓(xùn)練目標(biāo)是檢測(cè)出每種車輛的名稱(車輛共有10種類型

)o現(xiàn)在想要使用這個(gè)模型來解決另外一個(gè)問題,問題數(shù)據(jù)集中僅包含一種車(福特野馬)而目標(biāo)

變?yōu)槎ㄎ卉囕v在照片中的位置()。

A)除去神經(jīng)網(wǎng)絡(luò)中的最后一層,凍結(jié)所有層然后重新訓(xùn)練

B)對(duì)神經(jīng)網(wǎng)絡(luò)中的最后幾層進(jìn)行微調(diào),同時(shí)將最后一層(分類層)更改為回歸層

C)使用新的數(shù)據(jù)集重新訓(xùn)練模型

D)所有答案均不

43.[單選題]在留出法、交叉驗(yàn)證法和自助法三種評(píng)估方法中,()更適用于數(shù)據(jù)集較小、難以劃分

訓(xùn)練集和測(cè)試集的情況。

A)留出法

B)交叉驗(yàn)證法

0自助法

D)留一

44.[單選題]下列常用模塊功能描述錯(cuò)誤的是()。

A)datetime:datetime對(duì)象不可將日期對(duì)象格式化為可讀字符串的方法

B)json:JSON(JavaScriptObjectNotation,JS對(duì)象標(biāo)記)是一種輕量級(jí)的數(shù)據(jù)交換格式

Osys:這個(gè)模塊可供訪問由解釋器使用或維護(hù)的變量和與解釋器進(jìn)行交互的函數(shù)

D)scipy:應(yīng)用廣泛的科學(xué)計(jì)算包

45.[單選題]MapReduce對(duì)map()函數(shù)的返回值進(jìn)行處理后再返回給reduce()函數(shù)的目的是()。

A)減少map()函數(shù)和reduce()函數(shù)之間的數(shù)據(jù)傳輸

B)優(yōu)化map()函數(shù)

C)優(yōu)化reduce()函數(shù)

D)這一步驟并無必

46.[單選題]大數(shù)據(jù)平臺(tái)構(gòu)建分布式文件系統(tǒng)、分布式數(shù)據(jù)倉(cāng)庫、非關(guān)系型數(shù)據(jù)庫、關(guān)系型數(shù)據(jù)庫

,實(shí)現(xiàn)各類數(shù)據(jù)的集中存儲(chǔ)與統(tǒng)一管理,滿足()存儲(chǔ)需求。

A)歷史數(shù)據(jù)

B)離線數(shù)據(jù)

C)實(shí)時(shí)數(shù)據(jù)

D)多樣化數(shù)據(jù)

47.[單選題]關(guān)于數(shù)據(jù)相關(guān)性,以下說法錯(cuò)誤的是。。

A)關(guān)性體現(xiàn)了大數(shù)據(jù)的靈魂

B)關(guān)性思維實(shí)現(xiàn)了從“為什么”到“是什么”的思維轉(zhuǎn)變

C)關(guān)性關(guān)注事物的因果關(guān)系

D)關(guān)性關(guān)注事物的相關(guān)關(guān)系

48.[單選題]數(shù)據(jù)安全不只是技術(shù)問題,還涉及到。。

A)人員問題

B)管理問題

C)行政問題

D)領(lǐng)導(dǎo)問題

49.[單選題]不參與Hadoop系統(tǒng)讀過程的組件是()

A)flink

B)NameNode

C)DataNode

D)讀流程中生成的臨時(shí)文

50.[單選題]如果使用線性回歸模型,下列說法正確的是()

A)檢查異常值是很重要的,因?yàn)榫€性回歸對(duì)離群效應(yīng)很敏感

B)線性回歸分析要求所有變量特征都必須具有正態(tài)分布

C)線性回歸假設(shè)數(shù)據(jù)中基本沒有多重共線性

D)以上說法都不

51.[單選題]在MapReduce中,reduce()函數(shù)可以將()值相同的輸入進(jìn)行合并處理。

A)input

B)key

C)value

D)number

52.[單選題]圖像灰度方差說明了圖像的哪一個(gè)屬性()。

A)平均灰度

B)圖像對(duì)比度

C)圖像整體亮度

D)圖像細(xì)

53.[單選題]Spark的特點(diǎn)不包括()

A)速度快

B)通用性

C)易用性

D)單一操作性

54.[單選題]scipy中模塊stats的作用是()。

A)統(tǒng)計(jì)

B)差值計(jì)算

C)程序輸入輸出

D)稀疏矩陣

55.[單選題]建立在相關(guān)關(guān)系分析法基礎(chǔ)上的預(yù)測(cè)是大數(shù)據(jù)的。。

A)基礎(chǔ)

B)前提

C)核心

D)條件

56.[單選題]數(shù)據(jù)管理成熟度模型一DMM模型將一個(gè)機(jī)構(gòu)的數(shù)據(jù)管理工作抽象成6個(gè)關(guān)鍵過程域,即數(shù)

據(jù)戰(zhàn)略、()、數(shù)據(jù)質(zhì)量、平臺(tái)與架構(gòu)、數(shù)據(jù)操作以及輔助性過程。

A)數(shù)據(jù)管理

B)數(shù)據(jù)治理

C)數(shù)據(jù)策略

D)數(shù)據(jù)安全

57.[單選題]關(guān)于裝飾器,下列說法錯(cuò)誤的是()。

A)裝飾器是一個(gè)包裹函數(shù)

B)裝飾器只能有一個(gè)參數(shù)

C)通過在函數(shù)定義的面前加上@符號(hào)和裝飾器名,使得裝飾器函數(shù)生效

D)如果裝飾器帶有參數(shù),則必須在裝飾函數(shù)的外層再嵌套一層函數(shù)

58.[單選題]邏輯回歸將輸出概率限定在[0,1]之間。下列哪個(gè)函數(shù)起到這樣的作用()o

A)Sigmoid函數(shù)

B)tanh函數(shù)

C)ReLU函數(shù)

D)LeakyReLU函數(shù)

59.[單選題]python不支持的數(shù)據(jù)類型有

A)char

B)int

C)float

D)list

60.[單選題]下列哪項(xiàng)關(guān)于模型能力(modelcapacity指神經(jīng)網(wǎng)絡(luò)模型能擬合復(fù)雜函數(shù)的能力)的描

述是正確的()

A)隱藏層層數(shù)增加,模型能力增加

B)Dropout的比例增加,模型能力增加

C)學(xué)習(xí)率增加,模型能力增加

D)都不正

61.[單選題]如果在大型數(shù)據(jù)集上訓(xùn)練決策樹。為了花費(fèi)更少的時(shí)間來訓(xùn)練這個(gè)模型,下列哪種做法

是正確的()

A)增加樹的深度

B)增加學(xué)習(xí)率

C)減小樹的深度

D)減少樹的數(shù)

62.[單選題]例如數(shù)據(jù)庫中有A表,包括學(xué)生,學(xué)科,成績(jī)?nèi)齻€(gè)字段,如何查詢最高分>80的學(xué)科?

A)SELECTMAX(成績(jī))FROMAGROUPBY學(xué)科HAVINGMAX(成績(jī))>80;

B)SELECT學(xué)科FROMAGROUPBY學(xué)科HAVING成績(jī)>80;

OSELECT學(xué)科FROMAGROUPBY學(xué)科HAVINGMAX(成績(jī))>80;

D)SELECT學(xué)科FROMAGROUPBY學(xué)科WHEREMAX(成績(jī))>80

63.[單選題]劃分聚類算法是一種簡(jiǎn)單的較為基本的重要聚類方法。它的主要思想是通過將數(shù)據(jù)點(diǎn)集

分為()個(gè)劃分,并使用重復(fù)的控制策略使某個(gè)準(zhǔn)則最優(yōu)化,以達(dá)到最終的結(jié)果

A)D

B)K

C)E

D)F

64.[單選題]關(guān)于Python注釋,以下選項(xiàng)中描述錯(cuò)誤的是()。

A)Python注釋語句不被解釋器過濾掉,也不被執(zhí)行

B)注釋可以輔助程序調(diào)試

0注釋可用于標(biāo)明作者和版權(quán)信息

D)注釋用于解釋代碼原理或者用途

65.[單選題]()是指為最小化總體風(fēng)險(xiǎn),只需在每個(gè)樣本上選擇能使特定條件風(fēng)險(xiǎn)最小的類別標(biāo)記

O

A)支持向量機(jī)

B)間隔最大化

C)線性分類器

D)貝葉斯判定準(zhǔn)

66.[單選題]下列關(guān)于特征編碼的敘述中,不正確的是()。

A)特征編碼是將非數(shù)值型特征轉(zhuǎn)換成數(shù)值型特征的方法;

B)數(shù)字編碼與特征的排序無關(guān);

C)One-Hot編碼中,原始特征有n種取值,轉(zhuǎn)換后就會(huì)產(chǎn)生n列新特征;

D)啞變量編碼解決了One-Hot編碼中存在線性關(guān)系的問題;

67.[單選題]以下()是對(duì)DMM(數(shù)據(jù)管理成熟度模型)中“已管理級(jí)”基本特點(diǎn)的正確表述。

A)組織機(jī)構(gòu)的數(shù)據(jù)管理關(guān)鍵活動(dòng)能夠根據(jù)結(jié)構(gòu)自身的反饋以及外部環(huán)境的變革進(jìn)行不斷優(yōu)化。

B)組織機(jī)構(gòu)已用定量化的方式管理其關(guān)鍵過程的執(zhí)行過程。

C)組織機(jī)構(gòu)只有在項(xiàng)目管理過程中執(zhí)行了

D)M給出的關(guān)鍵過程,而缺乏機(jī)構(gòu)層次的統(tǒng)籌與管理組織機(jī)構(gòu)的數(shù)據(jù)管理工作超出了項(xiàng)目管理的范

疇,由組織機(jī)構(gòu)統(tǒng)一管理了其數(shù)據(jù)管理關(guān)鍵過程

68.[單選題]關(guān)系云的一個(gè)重要功能是提供。。

A)數(shù)據(jù)庫即服務(wù)

B)虛擬服務(wù)

C)彈性計(jì)算

D)按需服務(wù)

69.[單選題]回歸分析的任務(wù),就是根據(jù)。和因變量的觀察值,估計(jì)這個(gè)函數(shù),并討論與之有關(guān)的

種種統(tǒng)計(jì)推斷的問題

A)相關(guān)變量

B)樣本

C)已知數(shù)據(jù)

D)自變

70.[單選題]隨著集成中個(gè)體分類器(相互獨(dú)立)數(shù)目T的增大,集成的錯(cuò)誤率將呈()下降,最終

趨向于零。

A)指數(shù)級(jí)

B)對(duì)數(shù)級(jí)

C)線性級(jí)

D)平方

71.[單選題]字符串的strip方法的作用是0

A)刪除字符串頭尾指定的字符

B)刪除字符串末尾的指定字符

C)刪除字符串頭部的指定字符

D)通過指定分隔符對(duì)字符串切片

72.[單選題]多分類LDA將樣本投影到N-1維空間,NT通常遠(yuǎn)小于數(shù)據(jù)原有的屬性數(shù),可通過這個(gè)投

影來減小樣本點(diǎn)的維數(shù),且投影過程中使用了類別信息,因此LDA也常被視為一種經(jīng)典的()技術(shù)。

A)無監(jiān)督特征選擇

B)無監(jiān)督降維

C)監(jiān)督特征選擇

D)監(jiān)督降維

73.[單選題]通過KMeans算法進(jìn)行聚類分析后得出的聚類結(jié)果的特征是()。

A)同一聚類中的對(duì)象間相似度高,不同聚類中的對(duì)象間相似度高

B)同一聚類中的對(duì)象間相似度高,不同聚類中的對(duì)象間相似度低

C)同一聚類中的對(duì)象間相似度低,不同聚類中的對(duì)象間相似度低

D)同一聚類中的對(duì)象間相似度低,不同聚類中的對(duì)象間相似度

74.[單選題]下列關(guān)于L1正則化與L2正則化描述錯(cuò)誤的是()。

A)L1范數(shù)正則化有助于降低過擬合風(fēng)險(xiǎn)

B)L2范數(shù)正則化有助于降低過擬合風(fēng)險(xiǎn)

C)L1范數(shù)正則化比L2范數(shù)正則化更有易于獲得稀疏解

D)L2范數(shù)正則化比L1范數(shù)正則化更有易于獲得稀疏

75.[單選題]spark的master和worker通過什么方式進(jìn)行通信的?

A)http

B)nio

C)netty

D)Akk

76.[單選題]()用于將非線性引入神經(jīng)網(wǎng)絡(luò)。它會(huì)將值縮小到較小的范圍內(nèi)。

A)損失函數(shù)

B)優(yōu)化函數(shù)

C)激活函數(shù)

D)目標(biāo)函

77.[單選題]下列的哪種方法可以用來降低深度學(xué)習(xí)模型的過擬合問題()o1增加更多的數(shù)據(jù)2使用

數(shù)據(jù)擴(kuò)增技術(shù)(dataaugmentation)3使用歸納性更好的架構(gòu)4正規(guī)化數(shù)據(jù)5降低架構(gòu)的復(fù)雜度

A)145

B)123

01345

D)所有項(xiàng)目都有

78.[單選題]一篇文章中某些名詞的TFTDF值比較大,則說明。。

A)這些名詞對(duì)這篇文章的區(qū)分度比較高

B)這些名詞對(duì)這篇文章的區(qū)分度比較低

C)不能說明什么

D)以上答案都不正

79.[單選題]下列不屬于數(shù)據(jù)科學(xué)跨平臺(tái)基礎(chǔ)設(shè)施和分析工具的是()。

A)微軟ure

B)Google云平臺(tái)

C)阿里云

D)Adobephotosho

80.[單選題]stats,describe()函數(shù)的作用是()。

A)計(jì)算變異系數(shù)

B)計(jì)算數(shù)據(jù)集的樣本偏度

C)計(jì)算所傳遞數(shù)組的幾個(gè)描述性統(tǒng)計(jì)信息

D)計(jì)算關(guān)于樣本平均值的第n個(gè)矩

81.[單選題]在邏輯回歸輸出與目標(biāo)對(duì)比的情況下,以下評(píng)估指標(biāo)中哪一項(xiàng)不適用。。

A)C-R0C

B)準(zhǔn)確度

C)Logloss

D)均方誤

82.[單選題]下面代碼的輸出結(jié)果是()。

Print(0.1+0.2==0.3)

A)True

B)False

C)true

D)false

83.[單選題]以下關(guān)于隨機(jī)森林的說法正確的是。。

A)隨機(jī)森林對(duì)于高維數(shù)據(jù)集的處理能力比較好

B)在對(duì)缺失數(shù)據(jù)進(jìn)行估計(jì)時(shí),隨機(jī)森林是一個(gè)十分有效的方法

C)當(dāng)存在分類不平衡的情況時(shí),隨機(jī)森林能夠提供平衡數(shù)據(jù)集誤差的有效方法

D)以上答案都正

84.[單選題]以下()不是NoSQL數(shù)據(jù)庫。

A)MongoDB

B)BigTable

OHBase

D)Access

85.[單選題]可視化視覺下的數(shù)據(jù)類型不包括()。

A)定類數(shù)據(jù)

B)定序數(shù)據(jù)

C)定寬數(shù)據(jù)

D)定比數(shù)據(jù)

86.[單選題]一般而言,在個(gè)體學(xué)習(xí)器性能相差較大時(shí)宜使用(),而在個(gè)體學(xué)習(xí)器性能相近時(shí)宜使

用()。

A)簡(jiǎn)單平均法,加權(quán)平均法

B)加權(quán)平均法,簡(jiǎn)單平均法

C)簡(jiǎn)單平均法,簡(jiǎn)單平均法

D)加權(quán)平均法,加權(quán)平均法

87.[單選題]在SQL語句中,與表達(dá)式"倉(cāng)庫號(hào)NOTIN("wh","wh2")"功能相同的表達(dá)式是(D)

A)倉(cāng)庫號(hào)="wh"AND倉(cāng)庫號(hào)="wh2"

B)倉(cāng)庫號(hào)!="wh"OR倉(cāng)庫號(hào)!="wh2"

C)倉(cāng)庫號(hào)="wh"OR倉(cāng)庫號(hào)="wh2"

D)倉(cāng)庫號(hào)!="wh"AND倉(cāng)庫號(hào)!="wh2

88.[單選題]數(shù)據(jù)故事話的‘情景'不包括。。

A)還原情景

B)統(tǒng)計(jì)情景

C)移植情景

D)虛構(gòu)情

89.[單選題]數(shù)據(jù)可視化技術(shù)可以將所有數(shù)據(jù)的特性通過。的方式展現(xiàn)出來

A)文字

B)圖

C)表格

D)樹

90.[單選題]數(shù)據(jù)科學(xué)中,人們開始注意到傳統(tǒng)數(shù)據(jù)處理方式中普遍存在的“信息丟失”現(xiàn)象,進(jìn)而

數(shù)據(jù)處理范式從()轉(zhuǎn)向OO

A)產(chǎn)品在先,數(shù)據(jù)在后范式;數(shù)據(jù)在先,產(chǎn)品在后范式或無模式

B)模式在先,產(chǎn)品在后范式;產(chǎn)品在先,模式在后范式或無模式

C)數(shù)據(jù)在先,模式在后范式或無模式;模式在先,數(shù)據(jù)在后范式

D)模式在先,數(shù)據(jù)在后范式;數(shù)據(jù)在先,模式在后范式或無模式

91.[單選題]()是指對(duì)于數(shù)據(jù)局部不良行為的非敏感性,它是探索性分析追求的主要目標(biāo)之一。

A)魯棒性

B)穩(wěn)定性

C)可靠性

D)耐抗性

92.[單選題]大數(shù)據(jù)計(jì)算服務(wù)(MaxCompute,原ODPS)的MapReduce由多個(gè)步驟組成,以下()步驟

不是必須的。

A)combine

B)shuffle

C)map

D)reduce

93.[單選題]視覺通道表現(xiàn)力評(píng)價(jià)指標(biāo)不包括。。

A)精確性

B)可辨認(rèn)性

C)可分離性

D)可轉(zhuǎn)換性

94.[單選題]下列關(guān)于TFTDF說法正確的是()

A)該值與特征項(xiàng)在文檔中出現(xiàn)的頻率成反比

B)該值與特征項(xiàng)在文檔中出現(xiàn)的頻率成正比

C)該值與在整個(gè)語料庫中出現(xiàn)該特征項(xiàng)的文檔庫成正比

D)該值與特征項(xiàng)在文檔中出現(xiàn)的頻率無

95.[單選題]下列關(guān)于Hive特點(diǎn)總結(jié)正確的選項(xiàng)是()

A)Hive支持自由的擴(kuò)展集群的規(guī)模,只需要重啟服務(wù)即可

B)Hive支持自定義函數(shù),用戶可以根據(jù)自己的需求去定義函數(shù)

OHiveSQL執(zhí)行時(shí),需要避免節(jié)點(diǎn)出現(xiàn)問題

D)Hive適合處理小批量數(shù)

96.[單選題]Flink的哪種機(jī)制可以保證task運(yùn)行失敗時(shí),其狀態(tài)能夠恢復(fù)?

A)窗口

B)有狀態(tài)處理

C)事件時(shí)間

D)檢查

97.[單選題]Spark中引入RDD概念的目的是()。

A)數(shù)據(jù)存儲(chǔ)

B)數(shù)據(jù)查重

C)提升容錯(cuò)能力

D)增強(qiáng)數(shù)據(jù)一致

98.[單選題]關(guān)于可視分析學(xué),下列說法錯(cuò)誤的是()。

A)可視分析學(xué)比較典型的模型是D.Keim等(2008年)提出的數(shù)據(jù)分析模型。

B)數(shù)據(jù)可視化的本質(zhì)是將數(shù)據(jù)轉(zhuǎn)換為知識(shí),而不僅僅停留在數(shù)據(jù)可視化化呈現(xiàn)層次之上。

0可視分析學(xué)流程強(qiáng)調(diào)可視化分析與自動(dòng)化建模之間的相互作用。

D)數(shù)據(jù)映射和數(shù)據(jù)挖掘是數(shù)據(jù)可視化的兩個(gè)重要支撐技術(shù)。

99.[單選題]關(guān)于混合模型聚類算法的優(yōu)缺點(diǎn),下面說法正確的是。。

A)當(dāng)簇只包含少量數(shù)據(jù)點(diǎn),或者數(shù)據(jù)點(diǎn)近似協(xié)線性時(shí),混合模型也能很好地處理

B)混合模型很難發(fā)現(xiàn)不同大小和橢球形狀的簇

C)混合模型比K均值或模糊c均值更一般,因?yàn)樗梢允褂酶鞣N類型的分布

D)混合模型在有噪聲和離群點(diǎn)時(shí)不會(huì)存在問題

100.[單選題]邏輯回歸將輸出概率限定在[0,1]之間。下列哪個(gè)函數(shù)起到這樣的作用()。

A)Sigmoid函數(shù)

B)tanh函數(shù)

C)ReLU函數(shù)

D)LeakyReLU函

101.[單選題]在一個(gè)線性回歸問題中,我們使用R平方(R-Squared)來判斷擬合度。此時(shí),如果增

加一個(gè)特征,模型不變,則下面說法正確的是()O

A)如果R-Squared增加,則這個(gè)特征有意義

B)如果R-Squared減小,則這個(gè)特征沒有意義

C)僅看R-Squared單一變量,無法確定這個(gè)特征是否有意義。

D)以上說法都不

102.[單選題]以下可以作為文本分類準(zhǔn)則的是()o

A)預(yù)測(cè)準(zhǔn)確率

B)魯棒性

C)可擴(kuò)展性

D)以上答案都正

103.[單選題]MaxcomputeSQL提供了CASE…WHEN…,可以進(jìn)行條件判斷。表tbl中包含了字段(iD、

bigint,agebigint),目前有三條紀(jì)錄,分別為(1,20),(2,30),(3,60),執(zhí)行以下

SQL:selectid,casewhenage>60then'A'whenage>40then'B'whenage>20then

'C'else'D'enD、fromtblwhereid=3;()是正確的執(zhí)行結(jié)果。

A)A

B)B

C)C

D)D

104.[單選題]下列哪個(gè)程序通常與NameNode在一個(gè)節(jié)點(diǎn)啟動(dòng)()。

A)SecondaryNameNode

B)DataNode

C)TaskTracker

D)Jobtracker

105.[單選題]下列算法中,不屬于外推法的是。。

A)移動(dòng)平均法

B)回歸分析法

C)指數(shù)平滑法

D)季節(jié)指數(shù)法

106.[單選題]A=np.array([[l,1],[0,1]]),B=np.array([[2,0],[3,4]]),A*B的結(jié)果是()。

A)[[2,0],[0,4]]

B)[[5,4],[3,4]]

0[[3,4],[5,4]]

D)無法計(jì)算

107.[單選題]以下現(xiàn)象不能直接通過低通濾波器解決的是()o

A)低分辨率文本圖像中出現(xiàn)的字符斷裂問題

B)指紋圖像中的去污染問題

C)人臉圖像中需要美容的去皺紋問題

D)遙感圖像中的掃描線濾除問

108.[單選題]Hadoop環(huán)境下MapReduce中,。實(shí)現(xiàn)中間結(jié)果中的重復(fù)key做合并

A)OutputKeyClass

B)OutputValueClass

Ombinerass

D)ReducerClas

109.[單選題]Hbase依靠。提供消息通信機(jī)制

A)Zoopkeeper

B)Chubby

ORPC

D)Socket

110.[單選題]()不是Spark服務(wù)層的功能。

A)SQL查詢

B)實(shí)時(shí)處理

C)機(jī)器學(xué)習(xí)

D)內(nèi)存計(jì)

111.[單選題]以下關(guān)于Hive說法正確的是()o

A)一種數(shù)據(jù)倉(cāng)庫

B)一種數(shù)據(jù)處理工具

C)一種可視化工具

D)一種分析算法

112.[單選題]情感信息歸納常見的存在形式是()o

A)語料庫

B)情感文摘

C)情感評(píng)論

D)情感傾

113.[單選題]回歸方程判定系數(shù)的計(jì)算公式R-2=SSR/SST=bSSE/SST,對(duì)判定系數(shù)描述錯(cuò)誤的是

()0

A)式中的SSE指殘差平方和

B)式中的SSR指總離差平方和

0判定系數(shù)用來衡量回歸方程的擾合優(yōu)度

D)判定系數(shù)R'2等于相關(guān)系數(shù)的平方

114.[單選題]神經(jīng)網(wǎng)絡(luò)感知機(jī)只有(_)神經(jīng)元進(jìn)行激活函數(shù)處理,即只擁有一層功能神經(jīng)元。

A)輸出層

B)輸入層

C)感知層

D)網(wǎng)絡(luò)

115.[單選題]給定一個(gè)長(zhǎng)度為n的不完整單詞序列,我們希望預(yù)測(cè)下一個(gè)字母是什么。比如輸入是

prediction個(gè)字母組成),希望預(yù)測(cè)第十個(gè)字母是什么。下面哪種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)適用于解決這個(gè)工

作()

A)循環(huán)神經(jīng)網(wǎng)絡(luò)

B)全連接神經(jīng)網(wǎng)絡(luò)

C)受限波爾茲曼機(jī)

D)卷積神經(jīng)網(wǎng)

116.[單選題]Kafka通過()避免任務(wù)重復(fù)執(zhí)行。

A)實(shí)現(xiàn)記錄唯一鍵約束

B)對(duì)每個(gè)Producer分配唯一ID

C)通過事務(wù)檢查是否重復(fù)執(zhí)行

D)利用Redis的原子性去實(shí)

117.[單選題]在空間維度上刻畫數(shù)據(jù)連續(xù)性是數(shù)據(jù)的()特點(diǎn)。

A)可關(guān)聯(lián)性

B)可溯源性

C)可理解性

D)可復(fù)制性

118.[單選題]以下關(guān)于異常處理的描述,正確的是()o

A)try語句中有except子句就不能有finally子句

B)Python中,可以用異常處理捕獲程序中的所有錯(cuò)誤

C)引發(fā)一個(gè)不存在索引的列表元素會(huì)引發(fā)NameError錯(cuò)誤

D)Python中允許利用raise語句由程序主動(dòng)引發(fā)異常

119.[單選題]關(guān)于Hive中窗口函數(shù)下列描述正確的是()

A)LAG用于統(tǒng)計(jì)窗口內(nèi)往上第n行值,空不計(jì)入窗口中

B)LEAD用于統(tǒng)計(jì)窗口內(nèi)往下第n行值,空不計(jì)入窗口中

C)FIRST_VALUE取分組排序后,截止到當(dāng)前行的第一個(gè)值

D)LAST_VALUE取分組不需要指定ORDERBY后,截止到當(dāng)前行的最后一個(gè)

120.[單選題]線性判別分析(LDA)從貝葉斯決策理論闡釋,當(dāng)兩類數(shù)據(jù)同先驗(yàn)且滿足()時(shí)

,LDA達(dá)到最優(yōu)分類。

A)滿足高斯分布

B)協(xié)方差相等

C)滿足高斯分布且協(xié)方差相等

D)協(xié)方差不

121.[單選題]以下MaxcomputeSQL()效率最高。

A)select*from(select*fromawheredt=20140301)AleftouterjoinbonB.id=A.id

B)沒有區(qū)別

C)select*fromAleftouterjoinBonB.id=A.idandA.dt=20140301

D)select*fromAleftouterjoinBonB.id=A.idwhereA.dt=20140301

122.[單選題]對(duì)于SVM分類算法,待分樣本集中的大部分樣本不是支持向量,下列說法正確的是

()O

A)需要將這些樣本全部強(qiáng)制轉(zhuǎn)換為支持向量

B)需要將這些樣本中可以轉(zhuǎn)化的樣本轉(zhuǎn)換為支持向量,不能轉(zhuǎn)換的直接刪除

C)移去或者減少這些樣本對(duì)分類結(jié)果沒有影響

D)以上都不對(duì)

123.[單選題]在Apriori算法中,候選項(xiàng)集劃分為不同的桶,存放在()中。

A)字典

B)集合

C)Hash樹

D)列

124.[單選題]有關(guān)MapReduce的輸入輸出,說法錯(cuò)誤的是()

A)鏈接多個(gè)MapReduce作業(yè)時(shí),序列文件是首選格式

B)FileInputFormat中實(shí)現(xiàn)的getSplits()可以把輸入數(shù)據(jù)劃分為分片,分片數(shù)目和大小任意定義

C)想完全禁止輸出,可以使用NullOutputFormat

D)每個(gè)reduce需將它的輸出寫入自己的文件中,輸出無需分片

125.[單選題]下列哪項(xiàng)通常是集群的最主要瓶頸()o

A)CPU

B)網(wǎng)絡(luò)

C)磁盤10

D)內(nèi)存

126.[單選題]以下哪個(gè)分類方法可以較好地避免樣本的不平衡問題()o

A)KNN

B)SVM

C)Bayes

D)神經(jīng)網(wǎng)

127.[單選題]已知一組數(shù)據(jù)的協(xié)方差矩陣P,下面關(guān)于主分量說法錯(cuò)誤的是()o

A)主分量分析的最佳準(zhǔn)則是對(duì)一組數(shù)據(jù)進(jìn)行按一組正交基分解,在只取相同數(shù)量分量的條件下,以均

方誤差計(jì)算截尾誤差最小

B)在經(jīng)主分量分解后,協(xié)方差矩陣成為對(duì)角矩陣

C)主分量分析就是K-L變換

D)主分量是通過求協(xié)方差矩陣的特征值得到

128.[單選題]Hadoop生態(tài)系統(tǒng)中,()的主要設(shè)計(jì)目的是在Hadoop與傳統(tǒng)數(shù)據(jù)庫之間進(jìn)行數(shù)據(jù)的

ETL操作。

A)HDFS

B)Flume

OHive

D)Sqoop

129.[單選題]以下聚合函數(shù),用于求數(shù)據(jù)平均值的是

A)MAX

B)SUM

C)COUNT

D)AV

130.[單選題]下列關(guān)于Python中的函數(shù)的說法,正確的是()。

A)函數(shù)用關(guān)鍵字function定義

B)函數(shù)定義時(shí),函數(shù)的主體內(nèi)容應(yīng)與定義語句開頭對(duì)齊

C)polynomial(x=l,2,z=3)的傳遞參數(shù)的方法是正確的

D)默認(rèn)參數(shù)值可以在傳遞參數(shù)時(shí)修改

131.[單選題]大數(shù)據(jù)環(huán)境下的隱私擔(dān)憂,主要表現(xiàn)為()

A)人信息的被識(shí)別與暴露

B)戶畫像的生成

C)意廣告的推送

D)毒入侵

132.[單選題]scipy.stats模塊中隨機(jī)變量的概率密度函數(shù)是()。

A)stats

B)fit

C)pdf

D)ppf

133.[單選題]以下代碼的輸出結(jié)果為()o

Importnumpyasnp

A=np.array([[3,7,5],[8,4,3],[2,4,9]])

Print(np.ptp(a))

A)[[375][843][249]]

B)7

C)[457]

D)[636]

134.[單選題]以下關(guān)于繪圖標(biāo)準(zhǔn)流程說法錯(cuò)誤的是()o

A)繪制最簡(jiǎn)單的圖形可以不用創(chuàng)建畫布

B)添加圖例可以在繪制圖形之前

C)添加x軸、y軸的標(biāo)簽可以在繪制圖形之前

D)修改x軸標(biāo)簽、y軸標(biāo)簽和繪制圖形沒有先后

135.[單選題]機(jī)器學(xué)習(xí)中,基于樣本分布的距離是以下哪一個(gè)()

A)馬氏距離

B)歐式距離

C)曼哈頓距離

D)閔可夫斯基距離

136.[單選題]以下不屬于基于圖像灰度分布的閾值分割方法的是()o

A)類間最大距離法

B)最大類間方差法

C)0tsu方法

D)區(qū)域生長(zhǎng)

137.[單選題]以下關(guān)于人工神經(jīng)網(wǎng)絡(luò)(ANN)的描述錯(cuò)誤的有。。

A)神經(jīng)網(wǎng)絡(luò)對(duì)訓(xùn)練數(shù)據(jù)中的噪聲非常魯棒

B)可以處理冗余特征

0訓(xùn)練ANN是一個(gè)很耗時(shí)的過程

D)至少含有一個(gè)隱藏層的多層神經(jīng)網(wǎng)

138.[單選題]()是指給目標(biāo)用戶產(chǎn)生的錯(cuò)誤或不準(zhǔn)確的視覺感知,而這種感知與數(shù)據(jù)可視化者的

意圖或數(shù)據(jù)本身的真實(shí)情況不一致。

A)視覺假象

B)視覺認(rèn)知

C)視覺感知

D)數(shù)據(jù)可視

139.[單選題]Numpy中對(duì)數(shù)組進(jìn)行轉(zhuǎn)置的函數(shù)是哪個(gè)。。

A)transpose()

B)rollaxis()

C)swapaxes()

D)tan()

140.[單選題]令N為數(shù)據(jù)集的大小(注:設(shè)訓(xùn)練樣本(xi,yi),N即訓(xùn)練樣本個(gè)數(shù)),d是輸入空間的

維數(shù)(注:d即向量xi的維數(shù))。硬間隔SVM問題的原始形式(即在不等式約束(注

:yi(wTxi+b)21)下最小化(l/2)wTw)在沒有轉(zhuǎn)化為拉格朗日對(duì)偶問題之前,是。。

A)一個(gè)含N個(gè)變量的二次規(guī)劃問題

B)一個(gè)含N+1個(gè)變量的二次規(guī)劃問題

C)一個(gè)含d個(gè)變量的二次規(guī)劃問題

D)一個(gè)含d+1個(gè)變量的二次規(guī)劃問

141.[單選題]將原始數(shù)據(jù)進(jìn)行集成、變換、維度規(guī)約、數(shù)值規(guī)約是在以下哪個(gè)步驟的任務(wù)?()

A)頻繁模式挖掘

B)分類和預(yù)測(cè)

C)數(shù)據(jù)預(yù)處理

D)數(shù)據(jù)流挖掘

142.[單選題]屬于卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用方向的是(_)。

A)圖像分類

B)目標(biāo)檢測(cè)

C)圖像語義分割

D)以上答案都正

143.[單選題]關(guān)于LI、L2正則化下列說法正確的是()

A)L2正則化能防止過擬合,提升模型的泛化能力,但L1做不到這點(diǎn)

B)L2正則化技術(shù)又稱為L(zhǎng)assoRegularization

OL1正則化得到的解更加稀疏

D)L2正則化得到的解更加稀

144.[單選題]下列哪項(xiàng)選擇是直接把最終將要使用的學(xué)習(xí)器的性能作為特征子集的評(píng)價(jià)準(zhǔn)則()o

A)嵌入式

B)過濾式

C)包裹式

D)一體

145.[單選題]Hadoop-2.6.5集群中的HDFS的默認(rèn)的數(shù)據(jù)塊的大小是()

A)32M

B)64M

C)128M

D)256M

146.[單選題]SPARK默認(rèn)的存儲(chǔ)級(jí)別

A)MEMORY_ONLY

B)MEMORY_ONLYSER

C)MEMORY_AND_DISK

D)MEMORY_ANDJISKSE

147.[單選題]二維圖像可用二維函數(shù)表示,下列說法正確地是()o

A)表示點(diǎn)的灰度值

B)對(duì)于模擬圖像來講,是離散函數(shù)

Ox,y不是平面的二維坐標(biāo)

D)以上答案都不正

148.[單選題]當(dāng)特征值大致相等時(shí)會(huì)發(fā)生什么()

A)PCA將表現(xiàn)出色

B)PCA將表現(xiàn)不佳

C)不知道

D)以上都沒有

149.[單選題]在支持向量機(jī)中,軟間隔支持向量機(jī)的目標(biāo)函數(shù)比硬間隔支持向量機(jī)多了一個(gè)(_)。

A)偏置項(xiàng)b

B)系數(shù)

C)松弛變量

D)兩種情況的目標(biāo)函數(shù)相

150.[單選題]IDLE環(huán)境的退出命令是()o

A)exit()

B)回車鍵

C)close()

D)esc()

151.[單選題]學(xué)習(xí)率對(duì)機(jī)器學(xué)習(xí)模型結(jié)果會(huì)產(chǎn)生影響,通常我希望學(xué)習(xí)率()。

A)越小越好

B)越大越好

C)較小而迭代次數(shù)較多

D)較大而迭代次數(shù)較

152.[單選題]一元線性回歸方程y=0.7+0.82x,判定系數(shù)等于0.64,則x與y的相關(guān)系數(shù)為O。

A)0.82

B)0.64

00.8

D)0.7

153.[單選題]安裝DWS時(shí),建議的數(shù)據(jù)盤類型為:

A)RA1D1

B)RAID0

C)RAID5

D)RAID1

154.[單選題]()試圖學(xué)得一個(gè)屬性的線性組合來進(jìn)行預(yù)測(cè)的函數(shù)。

A)決策樹

B)貝葉斯分類器

C)神經(jīng)網(wǎng)絡(luò)

D)線性模

155.[單選題]隨機(jī)森林等樹狀算法通過哪個(gè)模塊進(jìn)行調(diào)用()o

A)dummy

B)ensemble

C)tree

D)experimental

156.[單選題]MapReduce計(jì)算框架的輸入是()數(shù)據(jù)結(jié)構(gòu)。

A)key-value

B)input-output

C)map-reduce

D)key-column

157.[單選題]在運(yùn)行時(shí),由MaxCompute依據(jù)上下文使用環(huán)境及類型轉(zhuǎn)換規(guī)則自動(dòng)進(jìn)行的類型轉(zhuǎn)換是

:()O

A)顯示轉(zhuǎn)換

B)影式專換

C)cast轉(zhuǎn)換

D)SQL轉(zhuǎn)換

158.[單選題]大數(shù)據(jù)平臺(tái)技術(shù)架構(gòu)不包含的是()

A)數(shù)據(jù)整合

B)數(shù)據(jù)存儲(chǔ)

C)數(shù)據(jù)計(jì)算

D)數(shù)據(jù)溯

159.[單選題]DIKW金字塔模型中,頂層與底層的名稱分別為()o

A)智慧與數(shù)據(jù)

B)知識(shí)與數(shù)據(jù)

C)智慧與數(shù)值

D)知識(shí)與數(shù)值

160.[單選題]關(guān)于神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的權(quán)重共享現(xiàn)象,下面哪個(gè)選項(xiàng)是正確的()

A)只有全連接神經(jīng)網(wǎng)絡(luò)會(huì)出現(xiàn)

B)只有卷積神經(jīng)網(wǎng)絡(luò)(CNN)會(huì)出現(xiàn)

C)只有循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)會(huì)出現(xiàn)

D)卷積神經(jīng)網(wǎng)絡(luò)和循環(huán)神經(jīng)網(wǎng)絡(luò)都會(huì)出

161.[單選題]以下選項(xiàng)不屬于Flume的特點(diǎn)的是?

A)支持定制各類方數(shù)據(jù)發(fā)送

B)支持結(jié)構(gòu)化、非結(jié)構(gòu)化數(shù)據(jù)源

C)支持多級(jí)聯(lián)操作

D)支持?jǐn)?shù)據(jù)實(shí)時(shí)檢索

162.[單選題]下列不屬于聚類性能度量外部指標(biāo)的是()o

A)Jaccard系數(shù)

B)FM系數(shù)

C)Rand指數(shù)

D)DB指數(shù);

163.[單選題]下列哪個(gè)用于說明在RDD上執(zhí)行何種計(jì)算()。

A)分區(qū);

B)算子;

0日志;

D)數(shù)據(jù)塊;

164.[單選題]以下跟RNN相關(guān)的是(_)。

A)梯度消失

B)時(shí)間步

C)梯度爆炸

D)以上答案都正

165.[單選題]Redis中String數(shù)據(jù)類型不含以下哪種操作?

A)mget

B)size

C)strlen

D)appen

166.[單選題]K-Means算法無法聚以下哪種形狀的樣本()

A)圓形分布

B)螺旋分布

C)帶狀分布

D)凸多邊形分布

167.[單選題]依托(),結(jié)合應(yīng)用推進(jìn)數(shù)據(jù)歸集,形成統(tǒng)一的數(shù)據(jù)資源中心。

A)全業(yè)務(wù)數(shù)據(jù)中心和數(shù)據(jù)中臺(tái)

B)營(yíng)銷基礎(chǔ)數(shù)據(jù)平臺(tái)和大數(shù)據(jù)平臺(tái)

C)全業(yè)務(wù)中心和營(yíng)銷基礎(chǔ)數(shù)據(jù)平臺(tái)

D)全業(yè)務(wù)數(shù)據(jù)中心和大數(shù)據(jù)平

168.[單選題]ggplot2的核心理念是()0

A)繪圖與數(shù)據(jù)分離

B)結(jié)構(gòu)與數(shù)據(jù)分離

C)繪圖與結(jié)構(gòu)分離

D)繪圖與數(shù)據(jù)和結(jié)構(gòu)分離

169.[單選題]下面哪個(gè)問題不適合使用機(jī)器學(xué)習(xí)方法解決()o

A)判斷電子郵件是否是垃圾郵件

B)判斷給定的圖中是否有環(huán)

C)判斷是否給指定用戶辦理信用卡

D)對(duì)滴滴拼車乘客分簇

170.[單選題]下列關(guān)于bootstrap說法正確的是。。

A)從總的M個(gè)特征中,有放回地抽取m個(gè)特征(m<M)

B)從總的M個(gè)特征中,無放回地抽取in個(gè)特征(m<M)

C)從總的N個(gè)樣本中,有放回地抽取n個(gè)樣本(n<N)

D)從總的N個(gè)樣本中,無放回地抽取n個(gè)樣本(n<N

171.[單選題]數(shù)據(jù)安全技術(shù)保護(hù)與信息系統(tǒng)“三同步”原則不包括以下哪項(xiàng)()o

A)同步規(guī)劃

B)同步建設(shè)

C)同步使用

D)同步運(yùn)維

172.[單選題]在圖集合中發(fā)現(xiàn)一組公共子結(jié)構(gòu),這樣的任務(wù)稱為()o

A)頻繁子集挖掘

B)頻繁子圖挖掘

C)頻繁數(shù)據(jù)項(xiàng)挖掘

D)頻繁模式挖

173.[單選題]stats。函數(shù)不能求以下哪個(gè)值()。

A)均值

B)方差

C)峰度

D)眾數(shù)

174.[單選題]以下()屬于NoSQL數(shù)據(jù)庫中Key-Value的缺點(diǎn)。

A)數(shù)據(jù)無結(jié)構(gòu)

B)查詢性能不高,缺乏統(tǒng)一查詢語法

C)功能相對(duì)有限

D)功能相對(duì)有限,不易于做分布式集群

175.[單選題]假設(shè)你需要調(diào)整參數(shù)來最小化代價(jià)函數(shù)(costfunction),會(huì)使用()技術(shù)。

A)窮舉搜索

B)隨機(jī)搜索

C)Bayesian優(yōu)化

D)以上全

176.[單選題]下面哪一項(xiàng)用決策樹法訓(xùn)練大量數(shù)據(jù)集最節(jié)約時(shí)間()o

A)增加樹的深度

B)增加學(xué)習(xí)率

C)減少數(shù)的深度

D)減少樹的個(gè)

177.[單選題]以下描述中不屬于“規(guī)整數(shù)據(jù)(TidyData)”三個(gè)基本原則的是()。

A)每一類觀察單元構(gòu)成一個(gè)關(guān)系(表)

B)每個(gè)觀察占且僅占一行

C)每個(gè)變量占且僅占一列

D)每個(gè)觀察占且僅占一個(gè)關(guān)系(表)

178.[單選題]三維以上數(shù)組是以()的形式輸出的。

A)按行輸出

B)按矩陣輸出

C)按矩陣列表輸出

D)按字符串輸出

179.[單選題]執(zhí)行一個(gè)job,如果這個(gè)job的輸出路徑已經(jīng)存在,那么程序會(huì)()

A)覆蓋這個(gè)輸出路徑

B)拋出警告,但是能夠繼續(xù)執(zhí)行

C)拋出一個(gè)異常,然后退出

D)創(chuàng)建一個(gè)新的輸出路徑

180.[單選題]在Hadoop生態(tài)系統(tǒng)中,()建立在MapReduce之上,主要用來彌補(bǔ)MapReduce編程的復(fù)

雜性。

A)Hbase

B)Flume

OPig

D)Sqoop

181.[單選題]以下關(guān)于圖像識(shí)別任務(wù)的敘述,錯(cuò)誤的是()o

A)目標(biāo)在于檢測(cè)出圖像中的對(duì)象是什么

B)在識(shí)別前往往需要對(duì)圖像進(jìn)行預(yù)處理

C)N是一種常用的圖像識(shí)別網(wǎng)絡(luò)

D)圖像的采集和傳輸方式對(duì)于圖像識(shí)別結(jié)果沒有影

182.[單選題]卷積的過程是讓過濾器在圖像上()o

A)縮放

B)剪切

C)窗口滑動(dòng)

D)鏡像對(duì)

183.[單選題]已知表test(name)的記錄如下:tomtom_greentomlylil.y代碼select*fromtest

wherenamerlike'tom.*'的結(jié)果有幾條記錄。

A)1

B)2

03

D)0

184.[單選題]SDK是消費(fèi)者在調(diào)用API時(shí),需要在請(qǐng)求Header頭中添加身份認(rèn)證信息,而這個(gè)操作比

較繁瑣,故我們?yōu)槭褂谜咛峁┝薙DK,簡(jiǎn)化用戶操作。目前華為SDK支持:()種語言的支持。

A)7

B)8

C)9

D)1

185.[單選題]下列哪一種架構(gòu)有反饋連接

A)循環(huán)神經(jīng)網(wǎng)絡(luò)

B)卷積神經(jīng)網(wǎng)絡(luò)

C)受限玻爾茲曼機(jī)

D)都不

186.[單選題]下面關(guān)于HiveSQL將table2中所有的數(shù)據(jù)遷移至tablel中描述正確的是(),要求一

模一樣

A)INSERTOVERWRITETABLEtablelPARTITION(dt='{{yyyyWdd-ld}}')SELECT*FROMtable2;

B)INSERTOVERWRITETABLEtablelPARTITION(dt='{{yyyyMMddTd}}')SELECT*FROMtable2

WHEREdt='{{yyyyMMdd-ld)}';

C)INSERTOVERWRITETABLEtablelSELECT*FROMtable2;

D)INSERTOVERWRITETABLEtablelSELECT*FROMtable2WHEREdt='{{yyyyMMdd-ld}}';

187.[單選題]MapReduce編程模型,鍵值對(duì)〈key,value》的key必須實(shí)現(xiàn)哪個(gè)接口()

A)WritableComparab1e;

B)Comparable;

C)Writable;

D)LongWritable;

188.[單選題]多層前饋神經(jīng)網(wǎng)絡(luò)描述錯(cuò)誤的是:(_)。

A)輸出層與輸入層之間包含隱含層,且隱含層和輸出層都擁有激活函數(shù)的神經(jīng)元

B)神經(jīng)元之間存在同層連接以及跨層連接

C)輸入層僅僅是接收輸入,不進(jìn)行函數(shù)處理

D)每層神經(jīng)元上一層與下一層全互

189.[單選題]下面關(guān)于HiveSQL編譯順序正確的是()(1)遍歷Que:ryBlock,翻譯為執(zhí)行操作樹

0peratorTree(2)遍歷OperatorTree,翻譯為MapReduce任務(wù)(3)遍歷ASTTree,抽象出查詢的基本

組成單元QueryBlock(4)邏輯層優(yōu)化器進(jìn)行OperatorTree變換,合并不必要的

ReduceSinkOperator,減少shuffle數(shù)據(jù)量(5)物理層優(yōu)化器進(jìn)行MapReduce任務(wù)的變換,生成執(zhí)行

計(jì)劃(6)將SQL轉(zhuǎn)化為抽象語法樹ASTTree

A)⑶⑴⑵⑷⑸⑹

B)⑸⑶⑴⑵⑷⑸

C)⑹⑶⑴⑵(4)⑸

D)(5)(3)(1)(2)(4)(6

190.[單選題]以下選項(xiàng)中說法不正確的是()o

A)解釋是將源代碼逐條轉(zhuǎn)換成目標(biāo)代碼同時(shí)逐條運(yùn)行目標(biāo)代碼的過程

B)編譯是將源代碼轉(zhuǎn)換成目標(biāo)代碼的過程

C)C語言是靜態(tài)語言,Python語言是腳本語言

D)靜態(tài)語言采用解釋方式執(zhí)行,腳本語言采用編譯方式執(zhí)行

191.[單選題]選擇哪一個(gè)解作為輸出,將由學(xué)習(xí)算法的歸納偏好決定,常見的做法是引入()o

A)線性回歸

B)線性判別分析

C)正則化項(xiàng)

D)偏置

192.[單選題]()是指理解挖掘項(xiàng)目的目標(biāo)業(yè)務(wù)需求。

A)業(yè)務(wù)理解

B)數(shù)據(jù)理解

C)數(shù)據(jù)準(zhǔn)備

D)數(shù)據(jù)建模

193.[單選題]()算法是分類算法。

A)DBSC

B)C4.5

C)K-Mean

D)E

194.[單選題]采用主成分分析法映射到低維空間,將最小的d-d'個(gè)特征向量舍棄,有。影響。

A)使樣本采樣密度增大

B)丟失最優(yōu)解

C)增大噪聲

D)使樣本采樣密度減

195.[單選題]數(shù)據(jù)清洗的方法不包括()o

A)缺失值處理

B)噪聲數(shù)據(jù)清除

C)一致性檢查

D)重復(fù)數(shù)據(jù)記錄處理

196.[單選題]關(guān)于循環(huán)神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)的敘述中,錯(cuò)誤的是()o

A)能處理可變長(zhǎng)度的序列

B)基于圖展開思想

C)基于參數(shù)共享思想

D)循環(huán)神經(jīng)網(wǎng)絡(luò)不可應(yīng)用于圖像數(shù)

197.[單選題]下面檢索結(jié)果最多只有一行的命令是

A)SELECTDISTINCT*FROMorders;

B)SELECT*FROMordersLIMIT1,2;

C)SELECT*FROMordersGROUPBY1;

D)SELECT*FROMordersLIMIT1

198.[單選題]變量的不確定性越大,相對(duì)應(yīng)信息嫡有什么變化()o

A)病變小

B)病變大

C)不變

D)以上答案都不正

199.[單選題]Kafka對(duì)于某一topic中指定數(shù)據(jù)默認(rèn)保存時(shí)間為()

A)12小時(shí)

B)24小時(shí)

048小時(shí)

D)168小

200.[單選題]下列哪個(gè)不屬于常用的文本分類的特征選擇算法()o

A)卡方檢驗(yàn)值

B).互信息

C).信息增益

D).主成分分

201.[單選題]下列方法中,用于獲取當(dāng)前目錄的是()o

A)open

B)write

OGetpwd

D)read

202.[單選題]圖像分割方法主要可以分為哪幾類()o

A)基于閾值的分割方法;

B)基于區(qū)域的分割方法;

C)基于邊緣的分割方法;

D)以上答案都正

203.[單選題]從復(fù)雜度及價(jià)值高低兩個(gè)維度,可以將數(shù)據(jù)分析分為()o

A)描述性分析、診斷性分析、預(yù)測(cè)性分析、探索性分析

B)探索性分析、診斷性分析、預(yù)測(cè)性分析、規(guī)范性分析

C)探索性分析、描述性分析、預(yù)測(cè)性分析、規(guī)范性分析

D)描述性分析、診斷性分析、預(yù)測(cè)性分析、規(guī)范性分析

204.[單選題]我們建立一個(gè)5000個(gè)特征,100萬數(shù)據(jù)的機(jī)器學(xué)習(xí)模型.我們?cè)趺从行У貞?yīng)對(duì)這樣的大數(shù)

據(jù)訓(xùn)練()O

A)我們隨機(jī)抽取一些樣本,在這些少量樣本之上訓(xùn)練

B)我們可以試用在線機(jī)器學(xué)習(xí)算法

C)我們應(yīng)用PCA算法降維,減少特征數(shù)

D)以上答案都正確

205.[單選題]關(guān)于Maxcompute類型之間的類型轉(zhuǎn)化,說法不正確的是:()。

A)隱式類型轉(zhuǎn)換是Maxcompute依據(jù)上下文使用環(huán)境自動(dòng)進(jìn)行的類型轉(zhuǎn)換

B)部分類型之間不可以通過顯式的類型轉(zhuǎn)換,但可以通過SQL的隱式轉(zhuǎn)換完成

C)不支持的隱式類型轉(zhuǎn)換會(huì)導(dǎo)致異常

D)Maxcompute支持的隱式類型轉(zhuǎn)換規(guī)則與顯式轉(zhuǎn)換相同

206.[單選題]下列算法中屬于局部處理的是:()

A)灰度線性變換

B)二值化

C)傅立葉變換

D)中值濾波

207.[單選題]假定你現(xiàn)在訓(xùn)練了一個(gè)線性SVM并推斷出這個(gè)模型出現(xiàn)了欠擬合現(xiàn)象,在下一次訓(xùn)練時(shí)

,應(yīng)該采取下列什么措施()

A)增加數(shù)據(jù)點(diǎn)

B)減少數(shù)據(jù)點(diǎn)

C)增加特征

D)減少特

208.[單選題]下面關(guān)于Hive四種排序方式的區(qū)別,描述正確的是()

A)orderby是要對(duì)輸出的結(jié)果進(jìn)行全局排序,多個(gè)reducer可以實(shí)現(xiàn)全局排序

B)sortby不是全局排序,只是在進(jìn)入到reducer之前完成排序

C)distributeby指的是按照指定的字段劃分到不同的輸出reduce文件中,常見使用方式是order

bydistributeby

D)clusterby不僅支持正序排序,也支持逆序排

209.[單選題]以下哪項(xiàng)關(guān)于決策樹的說法是錯(cuò)誤的()o

A)冗余屬性不會(huì)對(duì)決策樹的準(zhǔn)確率造成不利的影響

B)子樹可能在決策樹中重復(fù)多次

C)決策樹算法對(duì)于噪聲的干擾非常敏感

D)尋找最佳決策樹是NP完全問題

210.[單選題]以下哪個(gè)不屬于數(shù)據(jù)治理的內(nèi)容。

A)理解自己的數(shù)據(jù)

B)行為規(guī)范的制定

C)崗位職責(zé)的定義

D)獲得更多的數(shù)據(jù)

211.[單選題]假設(shè)有4個(gè)數(shù)據(jù)節(jié)點(diǎn),每個(gè)節(jié)點(diǎn)上有2個(gè)主DN實(shí)例,那么每個(gè)節(jié)點(diǎn)上有幾個(gè)DN實(shí)例:

A)4個(gè)

B)6個(gè)

08個(gè)

D)12

212.[單選題]MapReduce編程模型中以下組件哪個(gè)是最后執(zhí)行的()

A)Mapper

B)Partitioner

C)Reducer

D)RecordReader

213.[單選題]關(guān)于以下深度學(xué)習(xí)框架描述正確的是(_)。

A)Tensorflow是一款使用C++語言開發(fā)的開源數(shù)學(xué)計(jì)算軟件

B)Caffe對(duì)于卷積網(wǎng)絡(luò)的支持特別好,同時(shí)提供的C++接口,也提供了matlab接口和python接口

C)PyTorch的前身便是Torch,其底層和Torch框架一樣,但是使用Python重新寫了很多內(nèi)容

D)以上答案都正

214.[單選題]下面哪種不屬于數(shù)據(jù)預(yù)處理的方法?()

A)變量代換

B)離散化

C)聚集

D)估計(jì)遺漏值

215.[單選題]下面哪個(gè)操作肯定是寬依賴

A)map

B)flatMap

C)reduceByKey

D)sampl

216.[單選題]模塊的定義與導(dǎo)入方法錯(cuò)誤的是()o

A)將寫好的python模塊保存為.py模式的文件。拷貝到sys.path對(duì)應(yīng)的文件目錄下,就可以在

shell中通過指令導(dǎo)入

B)importmodulel[,module2[,...moduleN]]

C)frommodnameimportnamel[,name2[,…nameN]]

D)from*importmodname

217.[單選題]診斷性分析主要采取的分析方法是()和()。

A)關(guān)聯(lián)分析和因果分析法

B)關(guān)聯(lián)分析和分類分析法

C)關(guān)聯(lián)分析和運(yùn)籌學(xué)

D)因果分析和分類分析

218.[單選題]關(guān)于MapReduce的描述錯(cuò)誤的是()

A)MapReduce框架由一個(gè)單獨(dú)的masterJobTracker和每個(gè)集群設(shè)備一個(gè)slaveTaskTracker共同組

B)master負(fù)責(zé)調(diào)度構(gòu)成一個(gè)作業(yè)的所有任務(wù),這些任務(wù)分布在不同的slave上

Omaster監(jiān)控slave上任務(wù)的執(zhí)行,重新執(zhí)行已經(jīng)失敗的任務(wù)。而slave僅負(fù)責(zé)執(zhí)行由master指派的

任務(wù)

D)slave不僅負(fù)責(zé)執(zhí)行由master指派的任務(wù),還會(huì)重新執(zhí)行失敗的任

219.[單選題]下列關(guān)于支持向量的說法正確的是()o

A)到分類超平面的距離最近的且滿足一定條件的幾個(gè)訓(xùn)練樣本點(diǎn)是支持向量

B)訓(xùn)練集中的所有樣本點(diǎn)都是支持向量

C)每一類樣本集中都分別只有一個(gè)支持向量

D)支持向量的個(gè)數(shù)越多越

220.[單選題]關(guān)于數(shù)據(jù)創(chuàng)新,下列說法正確的是()o

A)個(gè)數(shù)據(jù)集的總和價(jià)值等于單個(gè)數(shù)據(jù)集價(jià)值相加

B)于數(shù)據(jù)的再利用,數(shù)據(jù)應(yīng)該永久保存下去

C)同數(shù)據(jù)多次用于相同或類似用途,其有效性會(huì)降低

D)數(shù)據(jù)開放價(jià)值可以得到真正釋放

221.[單選題]在Hive中一個(gè)查詢語句執(zhí)行后顯示的結(jié)果為:2018081250;20180813

32;20180814NULL,則最有可能的查詢語句是()

A)SELECTinc_day,count(taskno)FROM任務(wù)表WHEREinc-day

B)SELECTinc_day,count(task_no)FROM任務(wù)表WHEREinc_day

C)SELECTincday,count(taskno)FROM任務(wù)表WHEREinc_day

D)SELECTinc_day,count(task_no)FROM任務(wù)表HAVINGinc_day

222.[單選題]Hadoop中,Reduce

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論