版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
試題說明
本套試題共包括1套試卷
答案和解析在每套試卷后
大數(shù)據(jù)理論考試練習(xí)題及答案3(500題)
大數(shù)據(jù)理論考試練習(xí)題及答案3
L[單選題]以下說法正確的是:Oo
A)一個(gè)機(jī)器學(xué)習(xí)模型,如果有較高準(zhǔn)確率,總是說明這個(gè)分類器是好的
B)如果增加模型復(fù)雜度,那么模型的測(cè)試錯(cuò)誤率總是會(huì)降低
C)如果增加模型復(fù)雜度,那么模型的訓(xùn)練錯(cuò)誤率總是會(huì)降
2.[單選題]第一數(shù)字定律中使用概率最大的數(shù)字是()o
A)0
B)1
02
3.[單選題]在回歸模型中,下列哪一項(xiàng)在權(quán)衡欠擬合(under-fitting)和過擬合(over-
fitting)中影響最大()
A)多項(xiàng)式階數(shù)
B)更新權(quán)重w時(shí),使用的是矩陣求逆
C)使用常數(shù)項(xiàng)D.使用梯度下降
4.[單選題]SVM在下列哪種情況下表現(xiàn)糟糕:()。
A)線性可分?jǐn)?shù)據(jù)
B)清洗過的數(shù)據(jù)
C)含噪聲數(shù)據(jù)與重疊數(shù)據(jù)
5.[單選題]留出法直接將數(shù)據(jù)集劃分為()個(gè)互斥的集合。
A)—
B)二
OS
6.[單選題]下面對(duì)集成學(xué)習(xí)模型中的弱學(xué)習(xí)者描述錯(cuò)誤的是()o
A)他們經(jīng)常不會(huì)過擬合
B)他們通常帶有高偏差,所以其并不能解決復(fù)雜學(xué)習(xí)問題
C)他們通常會(huì)過擬
7.[單選題]如果你的數(shù)據(jù)有許多異常值,那么使用數(shù)據(jù)的均值與方差去做標(biāo)準(zhǔn)化就不行了,在
preprocessing模塊中定義了哪個(gè)方法可以解決這個(gè)問題()。
A)normalizer()
B)robust_scale()
C)maxabs_scale()
D)scale()
8.[單選題]在SQL語言分類中,以下屬于DQL的是:
A)update
B)select
C)insert
D)delet
9.[單選題]一幅圖像在采樣時(shí),行、列的采樣點(diǎn)與量化級(jí)數(shù)()o
A)既影響數(shù)字圖像的質(zhì)量,也影響到該數(shù)字圖像數(shù)據(jù)量的大小
B)不影響數(shù)字圖像的質(zhì)量,只影響到該數(shù)字圖像數(shù)據(jù)量的大小
C)只影響數(shù)字圖像的質(zhì)量,不影響到該數(shù)字圖像數(shù)據(jù)量的大小
D)既不影響數(shù)字圖像的質(zhì)量,也不影響到數(shù)字圖像數(shù)據(jù)量的大
10.[單選題]讀代碼,請(qǐng)寫出程序正確的答案()。
#!/usr/bin/envpython3
N=100
Sum=0
Counter=1
Whilecounter<=n:
Sum+counter
Counter+=1
Print("1到%d之和為:%d"%(n,sum))
A)結(jié)果:1到100之和為:5000
B)結(jié)果:1到100之和為:0
C)結(jié)果:1JIJ100之和為:2050
D)結(jié)果:1到100之和為:5020
11.[單選題]關(guān)于OLAP和OLTP的區(qū)別描述,不正確的是()o
A)0L主要是關(guān)于如何理解聚集的大量不同的數(shù)據(jù).它與0T應(yīng)用程序不同。
B)與OLAP應(yīng)用程序不同,OLTP應(yīng)用程序包含大量相對(duì)簡(jiǎn)單的事務(wù)。
O0LAP的特點(diǎn)在于事務(wù)量大,但事務(wù)內(nèi)容比較簡(jiǎn)單且重復(fù)率高。
D)0LAP是以數(shù)據(jù)倉(cāng)庫為基礎(chǔ)的,但其最終數(shù)據(jù)來源與OLTP一樣均來自底層的數(shù)據(jù)庫系統(tǒng),兩者面對(duì)的
用戶是相同的
12.[單選題]絕對(duì)多數(shù)投票法的基本思想是。。
A)對(duì)于若干和弱學(xué)習(xí)器的輸出進(jìn)行平均得到最終的預(yù)測(cè)輸出
B)少數(shù)服從多數(shù),數(shù)量最多的類別為最終的分類類別
C)不光要求獲得最高票,還要求票過半數(shù)
D)將訓(xùn)練集弱學(xué)習(xí)器的學(xué)習(xí)結(jié)果作為輸入,將訓(xùn)練集的輸出作為輸出,重新訓(xùn)練一個(gè)學(xué)習(xí)器來得到
最終結(jié)果
13.[單選題]在方差分析中,()反映的是樣本數(shù)據(jù)與其組平均值的差異。
A)總離差
B)組間誤差
C)抽樣誤差
D)組內(nèi)誤
14.[單選題]平滑圖像。處理可以采用RGB彩色模型。
A)直方圖均衡化
B)直方圖均衡化
C)加權(quán)均值濾波
D)中值濾波
15.[單選題]對(duì)于Boosting算法描述錯(cuò)誤的是()。
A)可將強(qiáng)學(xué)習(xí)器降為弱學(xué)習(xí)器
B)從初始訓(xùn)練集訓(xùn)練基學(xué)習(xí)器
C)對(duì)訓(xùn)練樣本分布進(jìn)行調(diào)整
D)做錯(cuò)的訓(xùn)練樣本多次訓(xùn)
16.[單選題]多分類學(xué)習(xí)中,最經(jīng)典的三種拆分策略不包括()o
A)一對(duì)一
B)一對(duì)其余
C)一對(duì)多
D)多對(duì)多
17.[單選題]下面購(gòu)物籃能夠提取的3-項(xiàng)集的最大數(shù)量是多少()ID:購(gòu)買項(xiàng)1牛奶,啤酒,尿布2
面包,黃油,牛奶3牛奶,尿布,餅干4面包,黃油,餅干5啤酒,餅干,尿布6牛奶,尿布,面
包,黃油7面包,黃油,尿布8啤酒,尿布9牛奶,尿布,面包,黃油10啤酒,餅干
A)1
B)2
03
D)4
18.[單選題]RDD默認(rèn)的存儲(chǔ)級(jí)別是()
A)MEMORY_ONLY
B)MEMORY_ONLY_SER
C)MEMORY_AN
D)SKMEMORY_ANSKSER
19.[單選題]在linux下預(yù)裝了Python2,Python3且默認(rèn)Python版本為Python3,下列描述可以正確啟
動(dòng)Python有()o
A)在linux應(yīng)用程序Terminal,打開一個(gè)終端窗口。輸入whichPython
B)在linux應(yīng)用程序Terminal,打開一個(gè)終端窗口。輸入Python2或Python3
C)在linux應(yīng)用程序Terminal,打開一個(gè)終端窗口。輸入whichPython3
D)在linux應(yīng)用程序Terminal,打開一個(gè)終端窗口。輸入輸入whichPython2
20.[單選題]以等可能性為基礎(chǔ)的概率是()
A)古典概率
B)經(jīng)驗(yàn)概率
C)試驗(yàn)概率
D)主觀概
21.[單選題]下列關(guān)于支持向量回歸說法錯(cuò)誤的是()。
A)支持向量回歸是將支持向量的方法應(yīng)用到回歸問題中
B)支持向量回歸同樣可以應(yīng)用核函數(shù)求解線性不可分的問題
C)同分類算法不同的是,支持向量回歸要最小化一個(gè)凹函數(shù)
D)支持向量回歸的解是稀疏
22.[單選題]以下描述中錯(cuò)誤的是()。
A)數(shù)據(jù)化與數(shù)字化是兩個(gè)不同概念
B)數(shù)據(jù)與數(shù)值是一個(gè)概念
C)大數(shù)據(jù)與海量數(shù)據(jù)是兩個(gè)不同的概念
D)數(shù)據(jù)和信息是兩個(gè)不同的概
23.[單選題]對(duì)于線性回歸模型,包括附加變量在內(nèi),以下的可能正確的是()。
1)R-Squared和AdjustedR-squared都是遞增的
2)R-Squared是常量的,AdjustedR-squared是遞增的
3)R-Squared是遞減的,AdjustedR-squared也是遞減的
4)R-Squared是遞減的,AdjustedR-squared是遞增的
A)1和2
B)1和3
02和4
D)以上都不是
24.[單選題]決策樹模型的規(guī)模應(yīng)當(dāng)是。。
A)越復(fù)雜越好
B)越簡(jiǎn)單越好
C)適當(dāng)限制其復(fù)雜程度
D)盡可能利用所有特
25.[單選題]可用作數(shù)據(jù)挖掘分析中的關(guān)聯(lián)規(guī)則算法有()。
A)機(jī)器學(xué)習(xí)、對(duì)數(shù)回歸、關(guān)聯(lián)模式
B)K均值法、SOM機(jī)器學(xué)習(xí)
C)Apriori算法、FP-Tree算法
D)RBF機(jī)器學(xué)習(xí)、K均值法、機(jī)器學(xué)
26.[單選題]Maxcompute的mapreduce不支持的功能是:()。
A)統(tǒng)計(jì)信息
B)任務(wù)進(jìn)度匯報(bào)
C)推測(cè)執(zhí)行
D)文件壓縮
27.[單選題]數(shù)據(jù)科學(xué)處于哪三大領(lǐng)域的重疊之處()。
A)數(shù)學(xué)與統(tǒng)計(jì)知識(shí)、黑客精神與技能、領(lǐng)域?qū)崉?wù)知識(shí)
B)數(shù)據(jù)挖掘、黑客精神與技能、領(lǐng)域?qū)崉?wù)知識(shí)
C)數(shù)學(xué)與統(tǒng)計(jì)知識(shí)、數(shù)據(jù)挖掘、領(lǐng)域?qū)崉?wù)知識(shí)
D)數(shù)學(xué)與統(tǒng)計(jì)知識(shí)、黑客精神與技能、數(shù)據(jù)挖掘
28.[單選題]下列關(guān)于線性模型的描述錯(cuò)誤的是()。
A)支持向量機(jī)的判別函數(shù)一定屬于線性函數(shù)
B)在樣本為某些分布情況時(shí),線性判別函數(shù)可以成為最小錯(cuò)誤率或最小風(fēng)險(xiǎn)意義下的最優(yōu)分類器
C)在一般情況下,線性分類器只能是次優(yōu)分類器
D)線性分類器簡(jiǎn)單而且在很多期情況下效果接近最優(yōu),所以應(yīng)用比較廣
29.[單選題]以下選項(xiàng)正確的是()。
Importnumpyasnp
Nm=(raju,anil,ravi,amar)
Dv=(1f.y.','s.y.1,1s.y.r'f.y.1)
Ind=np.lexsort((nm,dv))
Print(ind)
A)[3012]
B)[1359]
C)[3198]
D)['amar,f.y.'anil,s.y.1raju,f.y.1ravi,s.y.1]
30.[單選題]()對(duì)應(yīng)于決策樹結(jié)果,其他節(jié)點(diǎn)對(duì)應(yīng)于()。
A)葉節(jié)點(diǎn),屬性測(cè)試
B)根結(jié)點(diǎn),學(xué)習(xí)測(cè)試
C)內(nèi)部節(jié)點(diǎn),學(xué)習(xí)測(cè)試
D)葉節(jié)點(diǎn),分類測(cè)
31.[單選題]聚類是一種典型的無監(jiān)督學(xué)習(xí)任務(wù),然而在現(xiàn)實(shí)聚類任務(wù)中我們往往能獲得一些額外的
監(jiān)督信息,于是可通過()來利用監(jiān)督信息以獲得更好的聚類效果。
A)監(jiān)督聚類
B)半監(jiān)督聚類
C)聚類
D)直推聚類
32.[單選題]后剪枝是先從訓(xùn)練集生成一顆完整的決策樹,然后。對(duì)非葉結(jié)點(diǎn)進(jìn)行考察。
A)自上而下
B)在劃分前
C)禁止分支展開
D)自底向
33.[單選題]。在劃分屬性時(shí)是在當(dāng)前結(jié)點(diǎn)的屬性集合中選擇一個(gè)最優(yōu)屬性。
A)AdaBoost
B)RF
C)Bagging
D)傳統(tǒng)決策樹
34.[單選題]下列有關(guān)HDFS的容錯(cuò)機(jī)制描述錯(cuò)誤的是()。
A)HDFS可以使用機(jī)架位感知的方法實(shí)現(xiàn)容錯(cuò)機(jī)制;
B)HDFS可以使用基于erasurecode的方法實(shí)現(xiàn)容錯(cuò)機(jī)制;
OHDFS使用機(jī)架位感知的方法先把一份拷貝放入同機(jī)架上的機(jī)器,然后再拷貝一份到其他服務(wù)器;
D)HS使用機(jī)架位感知的方法先把一份拷貝放入同機(jī)架上的機(jī)器,然后再拷貝一份到同機(jī)架機(jī)器的不
同位置上
35.[單選題]線性回歸的基本假設(shè)不包括哪個(gè)()。
A)隨機(jī)誤差項(xiàng)是一個(gè)期望值為0的隨機(jī)變量
B)對(duì)于解釋變量的所有觀測(cè)值,隨機(jī)誤差項(xiàng)有相同的方差
C)隨機(jī)誤差項(xiàng)彼此相關(guān)
D)解釋變量是確定性變量不是隨機(jī)變量,與隨機(jī)誤差項(xiàng)之間相互獨(dú)立
36.[單選題]把圖像分割問題與圖的最小割(mincut)問題相關(guān)聯(lián)的方法是()。
A)基于圖論的分割方法
B)分水嶺算法
C)SLI法
D)基于閾值的方
37.[單選題]以下分割方法中不屬于區(qū)域算法的是()。
A)分裂合并
B)閾值分割
C)區(qū)域生長(zhǎng)
D)邊緣檢
38.[單選題]二項(xiàng)分布的數(shù)學(xué)期望為()o
A)n(l-n)p
B)np(l-p)
C)np
D)n(1-p
39.[單選題]以下哪些方法不可以直接來對(duì)文本分類()
A)Kmeans
B)決策樹
C)支持向量機(jī)
D)KN
40.[單選題]考慮值集{1、2、3、4、5、90),其截?cái)嗑担╬=20%)是()
A)2
B)3
C)3.5
D)5
41.[單選題]ApacheSqoop主要設(shè)計(jì)目的是()o
A)數(shù)據(jù)清洗
B)數(shù)據(jù)轉(zhuǎn)化
C)數(shù)據(jù)ETL
D)數(shù)據(jù)可視化
42.[單選題]假設(shè)我們擁有一個(gè)已完成訓(xùn)練的、用來解決車輛檢測(cè)問題的深度神經(jīng)網(wǎng)絡(luò)模型,訓(xùn)練所
用的數(shù)據(jù)集由汽車和卡車的照片構(gòu)成,而訓(xùn)練目標(biāo)是檢測(cè)出每種車輛的名稱(車輛共有10種類型
)o現(xiàn)在想要使用這個(gè)模型來解決另外一個(gè)問題,問題數(shù)據(jù)集中僅包含一種車(福特野馬)而目標(biāo)
變?yōu)槎ㄎ卉囕v在照片中的位置()。
A)除去神經(jīng)網(wǎng)絡(luò)中的最后一層,凍結(jié)所有層然后重新訓(xùn)練
B)對(duì)神經(jīng)網(wǎng)絡(luò)中的最后幾層進(jìn)行微調(diào),同時(shí)將最后一層(分類層)更改為回歸層
C)使用新的數(shù)據(jù)集重新訓(xùn)練模型
D)所有答案均不
43.[單選題]在留出法、交叉驗(yàn)證法和自助法三種評(píng)估方法中,()更適用于數(shù)據(jù)集較小、難以劃分
訓(xùn)練集和測(cè)試集的情況。
A)留出法
B)交叉驗(yàn)證法
0自助法
D)留一
44.[單選題]下列常用模塊功能描述錯(cuò)誤的是()。
A)datetime:datetime對(duì)象不可將日期對(duì)象格式化為可讀字符串的方法
B)json:JSON(JavaScriptObjectNotation,JS對(duì)象標(biāo)記)是一種輕量級(jí)的數(shù)據(jù)交換格式
Osys:這個(gè)模塊可供訪問由解釋器使用或維護(hù)的變量和與解釋器進(jìn)行交互的函數(shù)
D)scipy:應(yīng)用廣泛的科學(xué)計(jì)算包
45.[單選題]MapReduce對(duì)map()函數(shù)的返回值進(jìn)行處理后再返回給reduce()函數(shù)的目的是()。
A)減少map()函數(shù)和reduce()函數(shù)之間的數(shù)據(jù)傳輸
B)優(yōu)化map()函數(shù)
C)優(yōu)化reduce()函數(shù)
D)這一步驟并無必
46.[單選題]大數(shù)據(jù)平臺(tái)構(gòu)建分布式文件系統(tǒng)、分布式數(shù)據(jù)倉(cāng)庫、非關(guān)系型數(shù)據(jù)庫、關(guān)系型數(shù)據(jù)庫
,實(shí)現(xiàn)各類數(shù)據(jù)的集中存儲(chǔ)與統(tǒng)一管理,滿足()存儲(chǔ)需求。
A)歷史數(shù)據(jù)
B)離線數(shù)據(jù)
C)實(shí)時(shí)數(shù)據(jù)
D)多樣化數(shù)據(jù)
47.[單選題]關(guān)于數(shù)據(jù)相關(guān)性,以下說法錯(cuò)誤的是。。
A)關(guān)性體現(xiàn)了大數(shù)據(jù)的靈魂
B)關(guān)性思維實(shí)現(xiàn)了從“為什么”到“是什么”的思維轉(zhuǎn)變
C)關(guān)性關(guān)注事物的因果關(guān)系
D)關(guān)性關(guān)注事物的相關(guān)關(guān)系
48.[單選題]數(shù)據(jù)安全不只是技術(shù)問題,還涉及到。。
A)人員問題
B)管理問題
C)行政問題
D)領(lǐng)導(dǎo)問題
49.[單選題]不參與Hadoop系統(tǒng)讀過程的組件是()
A)flink
B)NameNode
C)DataNode
D)讀流程中生成的臨時(shí)文
50.[單選題]如果使用線性回歸模型,下列說法正確的是()
A)檢查異常值是很重要的,因?yàn)榫€性回歸對(duì)離群效應(yīng)很敏感
B)線性回歸分析要求所有變量特征都必須具有正態(tài)分布
C)線性回歸假設(shè)數(shù)據(jù)中基本沒有多重共線性
D)以上說法都不
51.[單選題]在MapReduce中,reduce()函數(shù)可以將()值相同的輸入進(jìn)行合并處理。
A)input
B)key
C)value
D)number
52.[單選題]圖像灰度方差說明了圖像的哪一個(gè)屬性()。
A)平均灰度
B)圖像對(duì)比度
C)圖像整體亮度
D)圖像細(xì)
53.[單選題]Spark的特點(diǎn)不包括()
A)速度快
B)通用性
C)易用性
D)單一操作性
54.[單選題]scipy中模塊stats的作用是()。
A)統(tǒng)計(jì)
B)差值計(jì)算
C)程序輸入輸出
D)稀疏矩陣
55.[單選題]建立在相關(guān)關(guān)系分析法基礎(chǔ)上的預(yù)測(cè)是大數(shù)據(jù)的。。
A)基礎(chǔ)
B)前提
C)核心
D)條件
56.[單選題]數(shù)據(jù)管理成熟度模型一DMM模型將一個(gè)機(jī)構(gòu)的數(shù)據(jù)管理工作抽象成6個(gè)關(guān)鍵過程域,即數(shù)
據(jù)戰(zhàn)略、()、數(shù)據(jù)質(zhì)量、平臺(tái)與架構(gòu)、數(shù)據(jù)操作以及輔助性過程。
A)數(shù)據(jù)管理
B)數(shù)據(jù)治理
C)數(shù)據(jù)策略
D)數(shù)據(jù)安全
57.[單選題]關(guān)于裝飾器,下列說法錯(cuò)誤的是()。
A)裝飾器是一個(gè)包裹函數(shù)
B)裝飾器只能有一個(gè)參數(shù)
C)通過在函數(shù)定義的面前加上@符號(hào)和裝飾器名,使得裝飾器函數(shù)生效
D)如果裝飾器帶有參數(shù),則必須在裝飾函數(shù)的外層再嵌套一層函數(shù)
58.[單選題]邏輯回歸將輸出概率限定在[0,1]之間。下列哪個(gè)函數(shù)起到這樣的作用()o
A)Sigmoid函數(shù)
B)tanh函數(shù)
C)ReLU函數(shù)
D)LeakyReLU函數(shù)
59.[單選題]python不支持的數(shù)據(jù)類型有
A)char
B)int
C)float
D)list
60.[單選題]下列哪項(xiàng)關(guān)于模型能力(modelcapacity指神經(jīng)網(wǎng)絡(luò)模型能擬合復(fù)雜函數(shù)的能力)的描
述是正確的()
A)隱藏層層數(shù)增加,模型能力增加
B)Dropout的比例增加,模型能力增加
C)學(xué)習(xí)率增加,模型能力增加
D)都不正
61.[單選題]如果在大型數(shù)據(jù)集上訓(xùn)練決策樹。為了花費(fèi)更少的時(shí)間來訓(xùn)練這個(gè)模型,下列哪種做法
是正確的()
A)增加樹的深度
B)增加學(xué)習(xí)率
C)減小樹的深度
D)減少樹的數(shù)
62.[單選題]例如數(shù)據(jù)庫中有A表,包括學(xué)生,學(xué)科,成績(jī)?nèi)齻€(gè)字段,如何查詢最高分>80的學(xué)科?
A)SELECTMAX(成績(jī))FROMAGROUPBY學(xué)科HAVINGMAX(成績(jī))>80;
B)SELECT學(xué)科FROMAGROUPBY學(xué)科HAVING成績(jī)>80;
OSELECT學(xué)科FROMAGROUPBY學(xué)科HAVINGMAX(成績(jī))>80;
D)SELECT學(xué)科FROMAGROUPBY學(xué)科WHEREMAX(成績(jī))>80
63.[單選題]劃分聚類算法是一種簡(jiǎn)單的較為基本的重要聚類方法。它的主要思想是通過將數(shù)據(jù)點(diǎn)集
分為()個(gè)劃分,并使用重復(fù)的控制策略使某個(gè)準(zhǔn)則最優(yōu)化,以達(dá)到最終的結(jié)果
A)D
B)K
C)E
D)F
64.[單選題]關(guān)于Python注釋,以下選項(xiàng)中描述錯(cuò)誤的是()。
A)Python注釋語句不被解釋器過濾掉,也不被執(zhí)行
B)注釋可以輔助程序調(diào)試
0注釋可用于標(biāo)明作者和版權(quán)信息
D)注釋用于解釋代碼原理或者用途
65.[單選題]()是指為最小化總體風(fēng)險(xiǎn),只需在每個(gè)樣本上選擇能使特定條件風(fēng)險(xiǎn)最小的類別標(biāo)記
O
A)支持向量機(jī)
B)間隔最大化
C)線性分類器
D)貝葉斯判定準(zhǔn)
66.[單選題]下列關(guān)于特征編碼的敘述中,不正確的是()。
A)特征編碼是將非數(shù)值型特征轉(zhuǎn)換成數(shù)值型特征的方法;
B)數(shù)字編碼與特征的排序無關(guān);
C)One-Hot編碼中,原始特征有n種取值,轉(zhuǎn)換后就會(huì)產(chǎn)生n列新特征;
D)啞變量編碼解決了One-Hot編碼中存在線性關(guān)系的問題;
67.[單選題]以下()是對(duì)DMM(數(shù)據(jù)管理成熟度模型)中“已管理級(jí)”基本特點(diǎn)的正確表述。
A)組織機(jī)構(gòu)的數(shù)據(jù)管理關(guān)鍵活動(dòng)能夠根據(jù)結(jié)構(gòu)自身的反饋以及外部環(huán)境的變革進(jìn)行不斷優(yōu)化。
B)組織機(jī)構(gòu)已用定量化的方式管理其關(guān)鍵過程的執(zhí)行過程。
C)組織機(jī)構(gòu)只有在項(xiàng)目管理過程中執(zhí)行了
D)M給出的關(guān)鍵過程,而缺乏機(jī)構(gòu)層次的統(tǒng)籌與管理組織機(jī)構(gòu)的數(shù)據(jù)管理工作超出了項(xiàng)目管理的范
疇,由組織機(jī)構(gòu)統(tǒng)一管理了其數(shù)據(jù)管理關(guān)鍵過程
68.[單選題]關(guān)系云的一個(gè)重要功能是提供。。
A)數(shù)據(jù)庫即服務(wù)
B)虛擬服務(wù)
C)彈性計(jì)算
D)按需服務(wù)
69.[單選題]回歸分析的任務(wù),就是根據(jù)。和因變量的觀察值,估計(jì)這個(gè)函數(shù),并討論與之有關(guān)的
種種統(tǒng)計(jì)推斷的問題
A)相關(guān)變量
B)樣本
C)已知數(shù)據(jù)
D)自變
70.[單選題]隨著集成中個(gè)體分類器(相互獨(dú)立)數(shù)目T的增大,集成的錯(cuò)誤率將呈()下降,最終
趨向于零。
A)指數(shù)級(jí)
B)對(duì)數(shù)級(jí)
C)線性級(jí)
D)平方
71.[單選題]字符串的strip方法的作用是0
A)刪除字符串頭尾指定的字符
B)刪除字符串末尾的指定字符
C)刪除字符串頭部的指定字符
D)通過指定分隔符對(duì)字符串切片
72.[單選題]多分類LDA將樣本投影到N-1維空間,NT通常遠(yuǎn)小于數(shù)據(jù)原有的屬性數(shù),可通過這個(gè)投
影來減小樣本點(diǎn)的維數(shù),且投影過程中使用了類別信息,因此LDA也常被視為一種經(jīng)典的()技術(shù)。
A)無監(jiān)督特征選擇
B)無監(jiān)督降維
C)監(jiān)督特征選擇
D)監(jiān)督降維
73.[單選題]通過KMeans算法進(jìn)行聚類分析后得出的聚類結(jié)果的特征是()。
A)同一聚類中的對(duì)象間相似度高,不同聚類中的對(duì)象間相似度高
B)同一聚類中的對(duì)象間相似度高,不同聚類中的對(duì)象間相似度低
C)同一聚類中的對(duì)象間相似度低,不同聚類中的對(duì)象間相似度低
D)同一聚類中的對(duì)象間相似度低,不同聚類中的對(duì)象間相似度
74.[單選題]下列關(guān)于L1正則化與L2正則化描述錯(cuò)誤的是()。
A)L1范數(shù)正則化有助于降低過擬合風(fēng)險(xiǎn)
B)L2范數(shù)正則化有助于降低過擬合風(fēng)險(xiǎn)
C)L1范數(shù)正則化比L2范數(shù)正則化更有易于獲得稀疏解
D)L2范數(shù)正則化比L1范數(shù)正則化更有易于獲得稀疏
75.[單選題]spark的master和worker通過什么方式進(jìn)行通信的?
A)http
B)nio
C)netty
D)Akk
76.[單選題]()用于將非線性引入神經(jīng)網(wǎng)絡(luò)。它會(huì)將值縮小到較小的范圍內(nèi)。
A)損失函數(shù)
B)優(yōu)化函數(shù)
C)激活函數(shù)
D)目標(biāo)函
77.[單選題]下列的哪種方法可以用來降低深度學(xué)習(xí)模型的過擬合問題()o1增加更多的數(shù)據(jù)2使用
數(shù)據(jù)擴(kuò)增技術(shù)(dataaugmentation)3使用歸納性更好的架構(gòu)4正規(guī)化數(shù)據(jù)5降低架構(gòu)的復(fù)雜度
A)145
B)123
01345
D)所有項(xiàng)目都有
78.[單選題]一篇文章中某些名詞的TFTDF值比較大,則說明。。
A)這些名詞對(duì)這篇文章的區(qū)分度比較高
B)這些名詞對(duì)這篇文章的區(qū)分度比較低
C)不能說明什么
D)以上答案都不正
79.[單選題]下列不屬于數(shù)據(jù)科學(xué)跨平臺(tái)基礎(chǔ)設(shè)施和分析工具的是()。
A)微軟ure
B)Google云平臺(tái)
C)阿里云
D)Adobephotosho
80.[單選題]stats,describe()函數(shù)的作用是()。
A)計(jì)算變異系數(shù)
B)計(jì)算數(shù)據(jù)集的樣本偏度
C)計(jì)算所傳遞數(shù)組的幾個(gè)描述性統(tǒng)計(jì)信息
D)計(jì)算關(guān)于樣本平均值的第n個(gè)矩
81.[單選題]在邏輯回歸輸出與目標(biāo)對(duì)比的情況下,以下評(píng)估指標(biāo)中哪一項(xiàng)不適用。。
A)C-R0C
B)準(zhǔn)確度
C)Logloss
D)均方誤
82.[單選題]下面代碼的輸出結(jié)果是()。
Print(0.1+0.2==0.3)
A)True
B)False
C)true
D)false
83.[單選題]以下關(guān)于隨機(jī)森林的說法正確的是。。
A)隨機(jī)森林對(duì)于高維數(shù)據(jù)集的處理能力比較好
B)在對(duì)缺失數(shù)據(jù)進(jìn)行估計(jì)時(shí),隨機(jī)森林是一個(gè)十分有效的方法
C)當(dāng)存在分類不平衡的情況時(shí),隨機(jī)森林能夠提供平衡數(shù)據(jù)集誤差的有效方法
D)以上答案都正
84.[單選題]以下()不是NoSQL數(shù)據(jù)庫。
A)MongoDB
B)BigTable
OHBase
D)Access
85.[單選題]可視化視覺下的數(shù)據(jù)類型不包括()。
A)定類數(shù)據(jù)
B)定序數(shù)據(jù)
C)定寬數(shù)據(jù)
D)定比數(shù)據(jù)
86.[單選題]一般而言,在個(gè)體學(xué)習(xí)器性能相差較大時(shí)宜使用(),而在個(gè)體學(xué)習(xí)器性能相近時(shí)宜使
用()。
A)簡(jiǎn)單平均法,加權(quán)平均法
B)加權(quán)平均法,簡(jiǎn)單平均法
C)簡(jiǎn)單平均法,簡(jiǎn)單平均法
D)加權(quán)平均法,加權(quán)平均法
87.[單選題]在SQL語句中,與表達(dá)式"倉(cāng)庫號(hào)NOTIN("wh","wh2")"功能相同的表達(dá)式是(D)
A)倉(cāng)庫號(hào)="wh"AND倉(cāng)庫號(hào)="wh2"
B)倉(cāng)庫號(hào)!="wh"OR倉(cāng)庫號(hào)!="wh2"
C)倉(cāng)庫號(hào)="wh"OR倉(cāng)庫號(hào)="wh2"
D)倉(cāng)庫號(hào)!="wh"AND倉(cāng)庫號(hào)!="wh2
88.[單選題]數(shù)據(jù)故事話的‘情景'不包括。。
A)還原情景
B)統(tǒng)計(jì)情景
C)移植情景
D)虛構(gòu)情
89.[單選題]數(shù)據(jù)可視化技術(shù)可以將所有數(shù)據(jù)的特性通過。的方式展現(xiàn)出來
A)文字
B)圖
C)表格
D)樹
90.[單選題]數(shù)據(jù)科學(xué)中,人們開始注意到傳統(tǒng)數(shù)據(jù)處理方式中普遍存在的“信息丟失”現(xiàn)象,進(jìn)而
數(shù)據(jù)處理范式從()轉(zhuǎn)向OO
A)產(chǎn)品在先,數(shù)據(jù)在后范式;數(shù)據(jù)在先,產(chǎn)品在后范式或無模式
B)模式在先,產(chǎn)品在后范式;產(chǎn)品在先,模式在后范式或無模式
C)數(shù)據(jù)在先,模式在后范式或無模式;模式在先,數(shù)據(jù)在后范式
D)模式在先,數(shù)據(jù)在后范式;數(shù)據(jù)在先,模式在后范式或無模式
91.[單選題]()是指對(duì)于數(shù)據(jù)局部不良行為的非敏感性,它是探索性分析追求的主要目標(biāo)之一。
A)魯棒性
B)穩(wěn)定性
C)可靠性
D)耐抗性
92.[單選題]大數(shù)據(jù)計(jì)算服務(wù)(MaxCompute,原ODPS)的MapReduce由多個(gè)步驟組成,以下()步驟
不是必須的。
A)combine
B)shuffle
C)map
D)reduce
93.[單選題]視覺通道表現(xiàn)力評(píng)價(jià)指標(biāo)不包括。。
A)精確性
B)可辨認(rèn)性
C)可分離性
D)可轉(zhuǎn)換性
94.[單選題]下列關(guān)于TFTDF說法正確的是()
A)該值與特征項(xiàng)在文檔中出現(xiàn)的頻率成反比
B)該值與特征項(xiàng)在文檔中出現(xiàn)的頻率成正比
C)該值與在整個(gè)語料庫中出現(xiàn)該特征項(xiàng)的文檔庫成正比
D)該值與特征項(xiàng)在文檔中出現(xiàn)的頻率無
95.[單選題]下列關(guān)于Hive特點(diǎn)總結(jié)正確的選項(xiàng)是()
A)Hive支持自由的擴(kuò)展集群的規(guī)模,只需要重啟服務(wù)即可
B)Hive支持自定義函數(shù),用戶可以根據(jù)自己的需求去定義函數(shù)
OHiveSQL執(zhí)行時(shí),需要避免節(jié)點(diǎn)出現(xiàn)問題
D)Hive適合處理小批量數(shù)
96.[單選題]Flink的哪種機(jī)制可以保證task運(yùn)行失敗時(shí),其狀態(tài)能夠恢復(fù)?
A)窗口
B)有狀態(tài)處理
C)事件時(shí)間
D)檢查
97.[單選題]Spark中引入RDD概念的目的是()。
A)數(shù)據(jù)存儲(chǔ)
B)數(shù)據(jù)查重
C)提升容錯(cuò)能力
D)增強(qiáng)數(shù)據(jù)一致
98.[單選題]關(guān)于可視分析學(xué),下列說法錯(cuò)誤的是()。
A)可視分析學(xué)比較典型的模型是D.Keim等(2008年)提出的數(shù)據(jù)分析模型。
B)數(shù)據(jù)可視化的本質(zhì)是將數(shù)據(jù)轉(zhuǎn)換為知識(shí),而不僅僅停留在數(shù)據(jù)可視化化呈現(xiàn)層次之上。
0可視分析學(xué)流程強(qiáng)調(diào)可視化分析與自動(dòng)化建模之間的相互作用。
D)數(shù)據(jù)映射和數(shù)據(jù)挖掘是數(shù)據(jù)可視化的兩個(gè)重要支撐技術(shù)。
99.[單選題]關(guān)于混合模型聚類算法的優(yōu)缺點(diǎn),下面說法正確的是。。
A)當(dāng)簇只包含少量數(shù)據(jù)點(diǎn),或者數(shù)據(jù)點(diǎn)近似協(xié)線性時(shí),混合模型也能很好地處理
B)混合模型很難發(fā)現(xiàn)不同大小和橢球形狀的簇
C)混合模型比K均值或模糊c均值更一般,因?yàn)樗梢允褂酶鞣N類型的分布
D)混合模型在有噪聲和離群點(diǎn)時(shí)不會(huì)存在問題
100.[單選題]邏輯回歸將輸出概率限定在[0,1]之間。下列哪個(gè)函數(shù)起到這樣的作用()。
A)Sigmoid函數(shù)
B)tanh函數(shù)
C)ReLU函數(shù)
D)LeakyReLU函
101.[單選題]在一個(gè)線性回歸問題中,我們使用R平方(R-Squared)來判斷擬合度。此時(shí),如果增
加一個(gè)特征,模型不變,則下面說法正確的是()O
A)如果R-Squared增加,則這個(gè)特征有意義
B)如果R-Squared減小,則這個(gè)特征沒有意義
C)僅看R-Squared單一變量,無法確定這個(gè)特征是否有意義。
D)以上說法都不
102.[單選題]以下可以作為文本分類準(zhǔn)則的是()o
A)預(yù)測(cè)準(zhǔn)確率
B)魯棒性
C)可擴(kuò)展性
D)以上答案都正
103.[單選題]MaxcomputeSQL提供了CASE…WHEN…,可以進(jìn)行條件判斷。表tbl中包含了字段(iD、
bigint,agebigint),目前有三條紀(jì)錄,分別為(1,20),(2,30),(3,60),執(zhí)行以下
SQL:selectid,casewhenage>60then'A'whenage>40then'B'whenage>20then
'C'else'D'enD、fromtblwhereid=3;()是正確的執(zhí)行結(jié)果。
A)A
B)B
C)C
D)D
104.[單選題]下列哪個(gè)程序通常與NameNode在一個(gè)節(jié)點(diǎn)啟動(dòng)()。
A)SecondaryNameNode
B)DataNode
C)TaskTracker
D)Jobtracker
105.[單選題]下列算法中,不屬于外推法的是。。
A)移動(dòng)平均法
B)回歸分析法
C)指數(shù)平滑法
D)季節(jié)指數(shù)法
106.[單選題]A=np.array([[l,1],[0,1]]),B=np.array([[2,0],[3,4]]),A*B的結(jié)果是()。
A)[[2,0],[0,4]]
B)[[5,4],[3,4]]
0[[3,4],[5,4]]
D)無法計(jì)算
107.[單選題]以下現(xiàn)象不能直接通過低通濾波器解決的是()o
A)低分辨率文本圖像中出現(xiàn)的字符斷裂問題
B)指紋圖像中的去污染問題
C)人臉圖像中需要美容的去皺紋問題
D)遙感圖像中的掃描線濾除問
108.[單選題]Hadoop環(huán)境下MapReduce中,。實(shí)現(xiàn)中間結(jié)果中的重復(fù)key做合并
A)OutputKeyClass
B)OutputValueClass
Ombinerass
D)ReducerClas
109.[單選題]Hbase依靠。提供消息通信機(jī)制
A)Zoopkeeper
B)Chubby
ORPC
D)Socket
110.[單選題]()不是Spark服務(wù)層的功能。
A)SQL查詢
B)實(shí)時(shí)處理
C)機(jī)器學(xué)習(xí)
D)內(nèi)存計(jì)
111.[單選題]以下關(guān)于Hive說法正確的是()o
A)一種數(shù)據(jù)倉(cāng)庫
B)一種數(shù)據(jù)處理工具
C)一種可視化工具
D)一種分析算法
112.[單選題]情感信息歸納常見的存在形式是()o
A)語料庫
B)情感文摘
C)情感評(píng)論
D)情感傾
113.[單選題]回歸方程判定系數(shù)的計(jì)算公式R-2=SSR/SST=bSSE/SST,對(duì)判定系數(shù)描述錯(cuò)誤的是
()0
A)式中的SSE指殘差平方和
B)式中的SSR指總離差平方和
0判定系數(shù)用來衡量回歸方程的擾合優(yōu)度
D)判定系數(shù)R'2等于相關(guān)系數(shù)的平方
114.[單選題]神經(jīng)網(wǎng)絡(luò)感知機(jī)只有(_)神經(jīng)元進(jìn)行激活函數(shù)處理,即只擁有一層功能神經(jīng)元。
A)輸出層
B)輸入層
C)感知層
D)網(wǎng)絡(luò)
115.[單選題]給定一個(gè)長(zhǎng)度為n的不完整單詞序列,我們希望預(yù)測(cè)下一個(gè)字母是什么。比如輸入是
prediction個(gè)字母組成),希望預(yù)測(cè)第十個(gè)字母是什么。下面哪種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)適用于解決這個(gè)工
作()
A)循環(huán)神經(jīng)網(wǎng)絡(luò)
B)全連接神經(jīng)網(wǎng)絡(luò)
C)受限波爾茲曼機(jī)
D)卷積神經(jīng)網(wǎng)
116.[單選題]Kafka通過()避免任務(wù)重復(fù)執(zhí)行。
A)實(shí)現(xiàn)記錄唯一鍵約束
B)對(duì)每個(gè)Producer分配唯一ID
C)通過事務(wù)檢查是否重復(fù)執(zhí)行
D)利用Redis的原子性去實(shí)
117.[單選題]在空間維度上刻畫數(shù)據(jù)連續(xù)性是數(shù)據(jù)的()特點(diǎn)。
A)可關(guān)聯(lián)性
B)可溯源性
C)可理解性
D)可復(fù)制性
118.[單選題]以下關(guān)于異常處理的描述,正確的是()o
A)try語句中有except子句就不能有finally子句
B)Python中,可以用異常處理捕獲程序中的所有錯(cuò)誤
C)引發(fā)一個(gè)不存在索引的列表元素會(huì)引發(fā)NameError錯(cuò)誤
D)Python中允許利用raise語句由程序主動(dòng)引發(fā)異常
119.[單選題]關(guān)于Hive中窗口函數(shù)下列描述正確的是()
A)LAG用于統(tǒng)計(jì)窗口內(nèi)往上第n行值,空不計(jì)入窗口中
B)LEAD用于統(tǒng)計(jì)窗口內(nèi)往下第n行值,空不計(jì)入窗口中
C)FIRST_VALUE取分組排序后,截止到當(dāng)前行的第一個(gè)值
D)LAST_VALUE取分組不需要指定ORDERBY后,截止到當(dāng)前行的最后一個(gè)
120.[單選題]線性判別分析(LDA)從貝葉斯決策理論闡釋,當(dāng)兩類數(shù)據(jù)同先驗(yàn)且滿足()時(shí)
,LDA達(dá)到最優(yōu)分類。
A)滿足高斯分布
B)協(xié)方差相等
C)滿足高斯分布且協(xié)方差相等
D)協(xié)方差不
121.[單選題]以下MaxcomputeSQL()效率最高。
A)select*from(select*fromawheredt=20140301)AleftouterjoinbonB.id=A.id
B)沒有區(qū)別
C)select*fromAleftouterjoinBonB.id=A.idandA.dt=20140301
D)select*fromAleftouterjoinBonB.id=A.idwhereA.dt=20140301
122.[單選題]對(duì)于SVM分類算法,待分樣本集中的大部分樣本不是支持向量,下列說法正確的是
()O
A)需要將這些樣本全部強(qiáng)制轉(zhuǎn)換為支持向量
B)需要將這些樣本中可以轉(zhuǎn)化的樣本轉(zhuǎn)換為支持向量,不能轉(zhuǎn)換的直接刪除
C)移去或者減少這些樣本對(duì)分類結(jié)果沒有影響
D)以上都不對(duì)
123.[單選題]在Apriori算法中,候選項(xiàng)集劃分為不同的桶,存放在()中。
A)字典
B)集合
C)Hash樹
D)列
124.[單選題]有關(guān)MapReduce的輸入輸出,說法錯(cuò)誤的是()
A)鏈接多個(gè)MapReduce作業(yè)時(shí),序列文件是首選格式
B)FileInputFormat中實(shí)現(xiàn)的getSplits()可以把輸入數(shù)據(jù)劃分為分片,分片數(shù)目和大小任意定義
C)想完全禁止輸出,可以使用NullOutputFormat
D)每個(gè)reduce需將它的輸出寫入自己的文件中,輸出無需分片
125.[單選題]下列哪項(xiàng)通常是集群的最主要瓶頸()o
A)CPU
B)網(wǎng)絡(luò)
C)磁盤10
D)內(nèi)存
126.[單選題]以下哪個(gè)分類方法可以較好地避免樣本的不平衡問題()o
A)KNN
B)SVM
C)Bayes
D)神經(jīng)網(wǎng)
127.[單選題]已知一組數(shù)據(jù)的協(xié)方差矩陣P,下面關(guān)于主分量說法錯(cuò)誤的是()o
A)主分量分析的最佳準(zhǔn)則是對(duì)一組數(shù)據(jù)進(jìn)行按一組正交基分解,在只取相同數(shù)量分量的條件下,以均
方誤差計(jì)算截尾誤差最小
B)在經(jīng)主分量分解后,協(xié)方差矩陣成為對(duì)角矩陣
C)主分量分析就是K-L變換
D)主分量是通過求協(xié)方差矩陣的特征值得到
128.[單選題]Hadoop生態(tài)系統(tǒng)中,()的主要設(shè)計(jì)目的是在Hadoop與傳統(tǒng)數(shù)據(jù)庫之間進(jìn)行數(shù)據(jù)的
ETL操作。
A)HDFS
B)Flume
OHive
D)Sqoop
129.[單選題]以下聚合函數(shù),用于求數(shù)據(jù)平均值的是
A)MAX
B)SUM
C)COUNT
D)AV
130.[單選題]下列關(guān)于Python中的函數(shù)的說法,正確的是()。
A)函數(shù)用關(guān)鍵字function定義
B)函數(shù)定義時(shí),函數(shù)的主體內(nèi)容應(yīng)與定義語句開頭對(duì)齊
C)polynomial(x=l,2,z=3)的傳遞參數(shù)的方法是正確的
D)默認(rèn)參數(shù)值可以在傳遞參數(shù)時(shí)修改
131.[單選題]大數(shù)據(jù)環(huán)境下的隱私擔(dān)憂,主要表現(xiàn)為()
A)人信息的被識(shí)別與暴露
B)戶畫像的生成
C)意廣告的推送
D)毒入侵
132.[單選題]scipy.stats模塊中隨機(jī)變量的概率密度函數(shù)是()。
A)stats
B)fit
C)pdf
D)ppf
133.[單選題]以下代碼的輸出結(jié)果為()o
Importnumpyasnp
A=np.array([[3,7,5],[8,4,3],[2,4,9]])
Print(np.ptp(a))
A)[[375][843][249]]
B)7
C)[457]
D)[636]
134.[單選題]以下關(guān)于繪圖標(biāo)準(zhǔn)流程說法錯(cuò)誤的是()o
A)繪制最簡(jiǎn)單的圖形可以不用創(chuàng)建畫布
B)添加圖例可以在繪制圖形之前
C)添加x軸、y軸的標(biāo)簽可以在繪制圖形之前
D)修改x軸標(biāo)簽、y軸標(biāo)簽和繪制圖形沒有先后
135.[單選題]機(jī)器學(xué)習(xí)中,基于樣本分布的距離是以下哪一個(gè)()
A)馬氏距離
B)歐式距離
C)曼哈頓距離
D)閔可夫斯基距離
136.[單選題]以下不屬于基于圖像灰度分布的閾值分割方法的是()o
A)類間最大距離法
B)最大類間方差法
C)0tsu方法
D)區(qū)域生長(zhǎng)
137.[單選題]以下關(guān)于人工神經(jīng)網(wǎng)絡(luò)(ANN)的描述錯(cuò)誤的有。。
A)神經(jīng)網(wǎng)絡(luò)對(duì)訓(xùn)練數(shù)據(jù)中的噪聲非常魯棒
B)可以處理冗余特征
0訓(xùn)練ANN是一個(gè)很耗時(shí)的過程
D)至少含有一個(gè)隱藏層的多層神經(jīng)網(wǎng)
138.[單選題]()是指給目標(biāo)用戶產(chǎn)生的錯(cuò)誤或不準(zhǔn)確的視覺感知,而這種感知與數(shù)據(jù)可視化者的
意圖或數(shù)據(jù)本身的真實(shí)情況不一致。
A)視覺假象
B)視覺認(rèn)知
C)視覺感知
D)數(shù)據(jù)可視
139.[單選題]Numpy中對(duì)數(shù)組進(jìn)行轉(zhuǎn)置的函數(shù)是哪個(gè)。。
A)transpose()
B)rollaxis()
C)swapaxes()
D)tan()
140.[單選題]令N為數(shù)據(jù)集的大小(注:設(shè)訓(xùn)練樣本(xi,yi),N即訓(xùn)練樣本個(gè)數(shù)),d是輸入空間的
維數(shù)(注:d即向量xi的維數(shù))。硬間隔SVM問題的原始形式(即在不等式約束(注
:yi(wTxi+b)21)下最小化(l/2)wTw)在沒有轉(zhuǎn)化為拉格朗日對(duì)偶問題之前,是。。
A)一個(gè)含N個(gè)變量的二次規(guī)劃問題
B)一個(gè)含N+1個(gè)變量的二次規(guī)劃問題
C)一個(gè)含d個(gè)變量的二次規(guī)劃問題
D)一個(gè)含d+1個(gè)變量的二次規(guī)劃問
141.[單選題]將原始數(shù)據(jù)進(jìn)行集成、變換、維度規(guī)約、數(shù)值規(guī)約是在以下哪個(gè)步驟的任務(wù)?()
A)頻繁模式挖掘
B)分類和預(yù)測(cè)
C)數(shù)據(jù)預(yù)處理
D)數(shù)據(jù)流挖掘
142.[單選題]屬于卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用方向的是(_)。
A)圖像分類
B)目標(biāo)檢測(cè)
C)圖像語義分割
D)以上答案都正
143.[單選題]關(guān)于LI、L2正則化下列說法正確的是()
A)L2正則化能防止過擬合,提升模型的泛化能力,但L1做不到這點(diǎn)
B)L2正則化技術(shù)又稱為L(zhǎng)assoRegularization
OL1正則化得到的解更加稀疏
D)L2正則化得到的解更加稀
144.[單選題]下列哪項(xiàng)選擇是直接把最終將要使用的學(xué)習(xí)器的性能作為特征子集的評(píng)價(jià)準(zhǔn)則()o
A)嵌入式
B)過濾式
C)包裹式
D)一體
145.[單選題]Hadoop-2.6.5集群中的HDFS的默認(rèn)的數(shù)據(jù)塊的大小是()
A)32M
B)64M
C)128M
D)256M
146.[單選題]SPARK默認(rèn)的存儲(chǔ)級(jí)別
A)MEMORY_ONLY
B)MEMORY_ONLYSER
C)MEMORY_AND_DISK
D)MEMORY_ANDJISKSE
147.[單選題]二維圖像可用二維函數(shù)表示,下列說法正確地是()o
A)表示點(diǎn)的灰度值
B)對(duì)于模擬圖像來講,是離散函數(shù)
Ox,y不是平面的二維坐標(biāo)
D)以上答案都不正
148.[單選題]當(dāng)特征值大致相等時(shí)會(huì)發(fā)生什么()
A)PCA將表現(xiàn)出色
B)PCA將表現(xiàn)不佳
C)不知道
D)以上都沒有
149.[單選題]在支持向量機(jī)中,軟間隔支持向量機(jī)的目標(biāo)函數(shù)比硬間隔支持向量機(jī)多了一個(gè)(_)。
A)偏置項(xiàng)b
B)系數(shù)
C)松弛變量
D)兩種情況的目標(biāo)函數(shù)相
150.[單選題]IDLE環(huán)境的退出命令是()o
A)exit()
B)回車鍵
C)close()
D)esc()
151.[單選題]學(xué)習(xí)率對(duì)機(jī)器學(xué)習(xí)模型結(jié)果會(huì)產(chǎn)生影響,通常我希望學(xué)習(xí)率()。
A)越小越好
B)越大越好
C)較小而迭代次數(shù)較多
D)較大而迭代次數(shù)較
152.[單選題]一元線性回歸方程y=0.7+0.82x,判定系數(shù)等于0.64,則x與y的相關(guān)系數(shù)為O。
A)0.82
B)0.64
00.8
D)0.7
153.[單選題]安裝DWS時(shí),建議的數(shù)據(jù)盤類型為:
A)RA1D1
B)RAID0
C)RAID5
D)RAID1
154.[單選題]()試圖學(xué)得一個(gè)屬性的線性組合來進(jìn)行預(yù)測(cè)的函數(shù)。
A)決策樹
B)貝葉斯分類器
C)神經(jīng)網(wǎng)絡(luò)
D)線性模
155.[單選題]隨機(jī)森林等樹狀算法通過哪個(gè)模塊進(jìn)行調(diào)用()o
A)dummy
B)ensemble
C)tree
D)experimental
156.[單選題]MapReduce計(jì)算框架的輸入是()數(shù)據(jù)結(jié)構(gòu)。
A)key-value
B)input-output
C)map-reduce
D)key-column
157.[單選題]在運(yùn)行時(shí),由MaxCompute依據(jù)上下文使用環(huán)境及類型轉(zhuǎn)換規(guī)則自動(dòng)進(jìn)行的類型轉(zhuǎn)換是
:()O
A)顯示轉(zhuǎn)換
B)影式專換
C)cast轉(zhuǎn)換
D)SQL轉(zhuǎn)換
158.[單選題]大數(shù)據(jù)平臺(tái)技術(shù)架構(gòu)不包含的是()
A)數(shù)據(jù)整合
B)數(shù)據(jù)存儲(chǔ)
C)數(shù)據(jù)計(jì)算
D)數(shù)據(jù)溯
159.[單選題]DIKW金字塔模型中,頂層與底層的名稱分別為()o
A)智慧與數(shù)據(jù)
B)知識(shí)與數(shù)據(jù)
C)智慧與數(shù)值
D)知識(shí)與數(shù)值
160.[單選題]關(guān)于神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的權(quán)重共享現(xiàn)象,下面哪個(gè)選項(xiàng)是正確的()
A)只有全連接神經(jīng)網(wǎng)絡(luò)會(huì)出現(xiàn)
B)只有卷積神經(jīng)網(wǎng)絡(luò)(CNN)會(huì)出現(xiàn)
C)只有循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)會(huì)出現(xiàn)
D)卷積神經(jīng)網(wǎng)絡(luò)和循環(huán)神經(jīng)網(wǎng)絡(luò)都會(huì)出
161.[單選題]以下選項(xiàng)不屬于Flume的特點(diǎn)的是?
A)支持定制各類方數(shù)據(jù)發(fā)送
B)支持結(jié)構(gòu)化、非結(jié)構(gòu)化數(shù)據(jù)源
C)支持多級(jí)聯(lián)操作
D)支持?jǐn)?shù)據(jù)實(shí)時(shí)檢索
162.[單選題]下列不屬于聚類性能度量外部指標(biāo)的是()o
A)Jaccard系數(shù)
B)FM系數(shù)
C)Rand指數(shù)
D)DB指數(shù);
163.[單選題]下列哪個(gè)用于說明在RDD上執(zhí)行何種計(jì)算()。
A)分區(qū);
B)算子;
0日志;
D)數(shù)據(jù)塊;
164.[單選題]以下跟RNN相關(guān)的是(_)。
A)梯度消失
B)時(shí)間步
C)梯度爆炸
D)以上答案都正
165.[單選題]Redis中String數(shù)據(jù)類型不含以下哪種操作?
A)mget
B)size
C)strlen
D)appen
166.[單選題]K-Means算法無法聚以下哪種形狀的樣本()
A)圓形分布
B)螺旋分布
C)帶狀分布
D)凸多邊形分布
167.[單選題]依托(),結(jié)合應(yīng)用推進(jìn)數(shù)據(jù)歸集,形成統(tǒng)一的數(shù)據(jù)資源中心。
A)全業(yè)務(wù)數(shù)據(jù)中心和數(shù)據(jù)中臺(tái)
B)營(yíng)銷基礎(chǔ)數(shù)據(jù)平臺(tái)和大數(shù)據(jù)平臺(tái)
C)全業(yè)務(wù)中心和營(yíng)銷基礎(chǔ)數(shù)據(jù)平臺(tái)
D)全業(yè)務(wù)數(shù)據(jù)中心和大數(shù)據(jù)平
168.[單選題]ggplot2的核心理念是()0
A)繪圖與數(shù)據(jù)分離
B)結(jié)構(gòu)與數(shù)據(jù)分離
C)繪圖與結(jié)構(gòu)分離
D)繪圖與數(shù)據(jù)和結(jié)構(gòu)分離
169.[單選題]下面哪個(gè)問題不適合使用機(jī)器學(xué)習(xí)方法解決()o
A)判斷電子郵件是否是垃圾郵件
B)判斷給定的圖中是否有環(huán)
C)判斷是否給指定用戶辦理信用卡
D)對(duì)滴滴拼車乘客分簇
170.[單選題]下列關(guān)于bootstrap說法正確的是。。
A)從總的M個(gè)特征中,有放回地抽取m個(gè)特征(m<M)
B)從總的M個(gè)特征中,無放回地抽取in個(gè)特征(m<M)
C)從總的N個(gè)樣本中,有放回地抽取n個(gè)樣本(n<N)
D)從總的N個(gè)樣本中,無放回地抽取n個(gè)樣本(n<N
171.[單選題]數(shù)據(jù)安全技術(shù)保護(hù)與信息系統(tǒng)“三同步”原則不包括以下哪項(xiàng)()o
A)同步規(guī)劃
B)同步建設(shè)
C)同步使用
D)同步運(yùn)維
172.[單選題]在圖集合中發(fā)現(xiàn)一組公共子結(jié)構(gòu),這樣的任務(wù)稱為()o
A)頻繁子集挖掘
B)頻繁子圖挖掘
C)頻繁數(shù)據(jù)項(xiàng)挖掘
D)頻繁模式挖
173.[單選題]stats。函數(shù)不能求以下哪個(gè)值()。
A)均值
B)方差
C)峰度
D)眾數(shù)
174.[單選題]以下()屬于NoSQL數(shù)據(jù)庫中Key-Value的缺點(diǎn)。
A)數(shù)據(jù)無結(jié)構(gòu)
B)查詢性能不高,缺乏統(tǒng)一查詢語法
C)功能相對(duì)有限
D)功能相對(duì)有限,不易于做分布式集群
175.[單選題]假設(shè)你需要調(diào)整參數(shù)來最小化代價(jià)函數(shù)(costfunction),會(huì)使用()技術(shù)。
A)窮舉搜索
B)隨機(jī)搜索
C)Bayesian優(yōu)化
D)以上全
176.[單選題]下面哪一項(xiàng)用決策樹法訓(xùn)練大量數(shù)據(jù)集最節(jié)約時(shí)間()o
A)增加樹的深度
B)增加學(xué)習(xí)率
C)減少數(shù)的深度
D)減少樹的個(gè)
177.[單選題]以下描述中不屬于“規(guī)整數(shù)據(jù)(TidyData)”三個(gè)基本原則的是()。
A)每一類觀察單元構(gòu)成一個(gè)關(guān)系(表)
B)每個(gè)觀察占且僅占一行
C)每個(gè)變量占且僅占一列
D)每個(gè)觀察占且僅占一個(gè)關(guān)系(表)
178.[單選題]三維以上數(shù)組是以()的形式輸出的。
A)按行輸出
B)按矩陣輸出
C)按矩陣列表輸出
D)按字符串輸出
179.[單選題]執(zhí)行一個(gè)job,如果這個(gè)job的輸出路徑已經(jīng)存在,那么程序會(huì)()
A)覆蓋這個(gè)輸出路徑
B)拋出警告,但是能夠繼續(xù)執(zhí)行
C)拋出一個(gè)異常,然后退出
D)創(chuàng)建一個(gè)新的輸出路徑
180.[單選題]在Hadoop生態(tài)系統(tǒng)中,()建立在MapReduce之上,主要用來彌補(bǔ)MapReduce編程的復(fù)
雜性。
A)Hbase
B)Flume
OPig
D)Sqoop
181.[單選題]以下關(guān)于圖像識(shí)別任務(wù)的敘述,錯(cuò)誤的是()o
A)目標(biāo)在于檢測(cè)出圖像中的對(duì)象是什么
B)在識(shí)別前往往需要對(duì)圖像進(jìn)行預(yù)處理
C)N是一種常用的圖像識(shí)別網(wǎng)絡(luò)
D)圖像的采集和傳輸方式對(duì)于圖像識(shí)別結(jié)果沒有影
182.[單選題]卷積的過程是讓過濾器在圖像上()o
A)縮放
B)剪切
C)窗口滑動(dòng)
D)鏡像對(duì)
183.[單選題]已知表test(name)的記錄如下:tomtom_greentomlylil.y代碼select*fromtest
wherenamerlike'tom.*'的結(jié)果有幾條記錄。
A)1
B)2
03
D)0
184.[單選題]SDK是消費(fèi)者在調(diào)用API時(shí),需要在請(qǐng)求Header頭中添加身份認(rèn)證信息,而這個(gè)操作比
較繁瑣,故我們?yōu)槭褂谜咛峁┝薙DK,簡(jiǎn)化用戶操作。目前華為SDK支持:()種語言的支持。
A)7
B)8
C)9
D)1
185.[單選題]下列哪一種架構(gòu)有反饋連接
A)循環(huán)神經(jīng)網(wǎng)絡(luò)
B)卷積神經(jīng)網(wǎng)絡(luò)
C)受限玻爾茲曼機(jī)
D)都不
186.[單選題]下面關(guān)于HiveSQL將table2中所有的數(shù)據(jù)遷移至tablel中描述正確的是(),要求一
模一樣
A)INSERTOVERWRITETABLEtablelPARTITION(dt='{{yyyyWdd-ld}}')SELECT*FROMtable2;
B)INSERTOVERWRITETABLEtablelPARTITION(dt='{{yyyyMMddTd}}')SELECT*FROMtable2
WHEREdt='{{yyyyMMdd-ld)}';
C)INSERTOVERWRITETABLEtablelSELECT*FROMtable2;
D)INSERTOVERWRITETABLEtablelSELECT*FROMtable2WHEREdt='{{yyyyMMdd-ld}}';
187.[單選題]MapReduce編程模型,鍵值對(duì)〈key,value》的key必須實(shí)現(xiàn)哪個(gè)接口()
A)WritableComparab1e;
B)Comparable;
C)Writable;
D)LongWritable;
188.[單選題]多層前饋神經(jīng)網(wǎng)絡(luò)描述錯(cuò)誤的是:(_)。
A)輸出層與輸入層之間包含隱含層,且隱含層和輸出層都擁有激活函數(shù)的神經(jīng)元
B)神經(jīng)元之間存在同層連接以及跨層連接
C)輸入層僅僅是接收輸入,不進(jìn)行函數(shù)處理
D)每層神經(jīng)元上一層與下一層全互
189.[單選題]下面關(guān)于HiveSQL編譯順序正確的是()(1)遍歷Que:ryBlock,翻譯為執(zhí)行操作樹
0peratorTree(2)遍歷OperatorTree,翻譯為MapReduce任務(wù)(3)遍歷ASTTree,抽象出查詢的基本
組成單元QueryBlock(4)邏輯層優(yōu)化器進(jìn)行OperatorTree變換,合并不必要的
ReduceSinkOperator,減少shuffle數(shù)據(jù)量(5)物理層優(yōu)化器進(jìn)行MapReduce任務(wù)的變換,生成執(zhí)行
計(jì)劃(6)將SQL轉(zhuǎn)化為抽象語法樹ASTTree
A)⑶⑴⑵⑷⑸⑹
B)⑸⑶⑴⑵⑷⑸
C)⑹⑶⑴⑵(4)⑸
D)(5)(3)(1)(2)(4)(6
190.[單選題]以下選項(xiàng)中說法不正確的是()o
A)解釋是將源代碼逐條轉(zhuǎn)換成目標(biāo)代碼同時(shí)逐條運(yùn)行目標(biāo)代碼的過程
B)編譯是將源代碼轉(zhuǎn)換成目標(biāo)代碼的過程
C)C語言是靜態(tài)語言,Python語言是腳本語言
D)靜態(tài)語言采用解釋方式執(zhí)行,腳本語言采用編譯方式執(zhí)行
191.[單選題]選擇哪一個(gè)解作為輸出,將由學(xué)習(xí)算法的歸納偏好決定,常見的做法是引入()o
A)線性回歸
B)線性判別分析
C)正則化項(xiàng)
D)偏置
192.[單選題]()是指理解挖掘項(xiàng)目的目標(biāo)業(yè)務(wù)需求。
A)業(yè)務(wù)理解
B)數(shù)據(jù)理解
C)數(shù)據(jù)準(zhǔn)備
D)數(shù)據(jù)建模
193.[單選題]()算法是分類算法。
A)DBSC
B)C4.5
C)K-Mean
D)E
194.[單選題]采用主成分分析法映射到低維空間,將最小的d-d'個(gè)特征向量舍棄,有。影響。
A)使樣本采樣密度增大
B)丟失最優(yōu)解
C)增大噪聲
D)使樣本采樣密度減
195.[單選題]數(shù)據(jù)清洗的方法不包括()o
A)缺失值處理
B)噪聲數(shù)據(jù)清除
C)一致性檢查
D)重復(fù)數(shù)據(jù)記錄處理
196.[單選題]關(guān)于循環(huán)神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)的敘述中,錯(cuò)誤的是()o
A)能處理可變長(zhǎng)度的序列
B)基于圖展開思想
C)基于參數(shù)共享思想
D)循環(huán)神經(jīng)網(wǎng)絡(luò)不可應(yīng)用于圖像數(shù)
197.[單選題]下面檢索結(jié)果最多只有一行的命令是
A)SELECTDISTINCT*FROMorders;
B)SELECT*FROMordersLIMIT1,2;
C)SELECT*FROMordersGROUPBY1;
D)SELECT*FROMordersLIMIT1
198.[單選題]變量的不確定性越大,相對(duì)應(yīng)信息嫡有什么變化()o
A)病變小
B)病變大
C)不變
D)以上答案都不正
199.[單選題]Kafka對(duì)于某一topic中指定數(shù)據(jù)默認(rèn)保存時(shí)間為()
A)12小時(shí)
B)24小時(shí)
048小時(shí)
D)168小
200.[單選題]下列哪個(gè)不屬于常用的文本分類的特征選擇算法()o
A)卡方檢驗(yàn)值
B).互信息
C).信息增益
D).主成分分
201.[單選題]下列方法中,用于獲取當(dāng)前目錄的是()o
A)open
B)write
OGetpwd
D)read
202.[單選題]圖像分割方法主要可以分為哪幾類()o
A)基于閾值的分割方法;
B)基于區(qū)域的分割方法;
C)基于邊緣的分割方法;
D)以上答案都正
203.[單選題]從復(fù)雜度及價(jià)值高低兩個(gè)維度,可以將數(shù)據(jù)分析分為()o
A)描述性分析、診斷性分析、預(yù)測(cè)性分析、探索性分析
B)探索性分析、診斷性分析、預(yù)測(cè)性分析、規(guī)范性分析
C)探索性分析、描述性分析、預(yù)測(cè)性分析、規(guī)范性分析
D)描述性分析、診斷性分析、預(yù)測(cè)性分析、規(guī)范性分析
204.[單選題]我們建立一個(gè)5000個(gè)特征,100萬數(shù)據(jù)的機(jī)器學(xué)習(xí)模型.我們?cè)趺从行У貞?yīng)對(duì)這樣的大數(shù)
據(jù)訓(xùn)練()O
A)我們隨機(jī)抽取一些樣本,在這些少量樣本之上訓(xùn)練
B)我們可以試用在線機(jī)器學(xué)習(xí)算法
C)我們應(yīng)用PCA算法降維,減少特征數(shù)
D)以上答案都正確
205.[單選題]關(guān)于Maxcompute類型之間的類型轉(zhuǎn)化,說法不正確的是:()。
A)隱式類型轉(zhuǎn)換是Maxcompute依據(jù)上下文使用環(huán)境自動(dòng)進(jìn)行的類型轉(zhuǎn)換
B)部分類型之間不可以通過顯式的類型轉(zhuǎn)換,但可以通過SQL的隱式轉(zhuǎn)換完成
C)不支持的隱式類型轉(zhuǎn)換會(huì)導(dǎo)致異常
D)Maxcompute支持的隱式類型轉(zhuǎn)換規(guī)則與顯式轉(zhuǎn)換相同
206.[單選題]下列算法中屬于局部處理的是:()
A)灰度線性變換
B)二值化
C)傅立葉變換
D)中值濾波
207.[單選題]假定你現(xiàn)在訓(xùn)練了一個(gè)線性SVM并推斷出這個(gè)模型出現(xiàn)了欠擬合現(xiàn)象,在下一次訓(xùn)練時(shí)
,應(yīng)該采取下列什么措施()
A)增加數(shù)據(jù)點(diǎn)
B)減少數(shù)據(jù)點(diǎn)
C)增加特征
D)減少特
208.[單選題]下面關(guān)于Hive四種排序方式的區(qū)別,描述正確的是()
A)orderby是要對(duì)輸出的結(jié)果進(jìn)行全局排序,多個(gè)reducer可以實(shí)現(xiàn)全局排序
B)sortby不是全局排序,只是在進(jìn)入到reducer之前完成排序
C)distributeby指的是按照指定的字段劃分到不同的輸出reduce文件中,常見使用方式是order
bydistributeby
D)clusterby不僅支持正序排序,也支持逆序排
209.[單選題]以下哪項(xiàng)關(guān)于決策樹的說法是錯(cuò)誤的()o
A)冗余屬性不會(huì)對(duì)決策樹的準(zhǔn)確率造成不利的影響
B)子樹可能在決策樹中重復(fù)多次
C)決策樹算法對(duì)于噪聲的干擾非常敏感
D)尋找最佳決策樹是NP完全問題
210.[單選題]以下哪個(gè)不屬于數(shù)據(jù)治理的內(nèi)容。
A)理解自己的數(shù)據(jù)
B)行為規(guī)范的制定
C)崗位職責(zé)的定義
D)獲得更多的數(shù)據(jù)
211.[單選題]假設(shè)有4個(gè)數(shù)據(jù)節(jié)點(diǎn),每個(gè)節(jié)點(diǎn)上有2個(gè)主DN實(shí)例,那么每個(gè)節(jié)點(diǎn)上有幾個(gè)DN實(shí)例:
A)4個(gè)
B)6個(gè)
08個(gè)
D)12
212.[單選題]MapReduce編程模型中以下組件哪個(gè)是最后執(zhí)行的()
A)Mapper
B)Partitioner
C)Reducer
D)RecordReader
213.[單選題]關(guān)于以下深度學(xué)習(xí)框架描述正確的是(_)。
A)Tensorflow是一款使用C++語言開發(fā)的開源數(shù)學(xué)計(jì)算軟件
B)Caffe對(duì)于卷積網(wǎng)絡(luò)的支持特別好,同時(shí)提供的C++接口,也提供了matlab接口和python接口
C)PyTorch的前身便是Torch,其底層和Torch框架一樣,但是使用Python重新寫了很多內(nèi)容
D)以上答案都正
214.[單選題]下面哪種不屬于數(shù)據(jù)預(yù)處理的方法?()
A)變量代換
B)離散化
C)聚集
D)估計(jì)遺漏值
215.[單選題]下面哪個(gè)操作肯定是寬依賴
A)map
B)flatMap
C)reduceByKey
D)sampl
216.[單選題]模塊的定義與導(dǎo)入方法錯(cuò)誤的是()o
A)將寫好的python模塊保存為.py模式的文件。拷貝到sys.path對(duì)應(yīng)的文件目錄下,就可以在
shell中通過指令導(dǎo)入
B)importmodulel[,module2[,...moduleN]]
C)frommodnameimportnamel[,name2[,…nameN]]
D)from*importmodname
217.[單選題]診斷性分析主要采取的分析方法是()和()。
A)關(guān)聯(lián)分析和因果分析法
B)關(guān)聯(lián)分析和分類分析法
C)關(guān)聯(lián)分析和運(yùn)籌學(xué)
D)因果分析和分類分析
218.[單選題]關(guān)于MapReduce的描述錯(cuò)誤的是()
A)MapReduce框架由一個(gè)單獨(dú)的masterJobTracker和每個(gè)集群設(shè)備一個(gè)slaveTaskTracker共同組
成
B)master負(fù)責(zé)調(diào)度構(gòu)成一個(gè)作業(yè)的所有任務(wù),這些任務(wù)分布在不同的slave上
Omaster監(jiān)控slave上任務(wù)的執(zhí)行,重新執(zhí)行已經(jīng)失敗的任務(wù)。而slave僅負(fù)責(zé)執(zhí)行由master指派的
任務(wù)
D)slave不僅負(fù)責(zé)執(zhí)行由master指派的任務(wù),還會(huì)重新執(zhí)行失敗的任
219.[單選題]下列關(guān)于支持向量的說法正確的是()o
A)到分類超平面的距離最近的且滿足一定條件的幾個(gè)訓(xùn)練樣本點(diǎn)是支持向量
B)訓(xùn)練集中的所有樣本點(diǎn)都是支持向量
C)每一類樣本集中都分別只有一個(gè)支持向量
D)支持向量的個(gè)數(shù)越多越
220.[單選題]關(guān)于數(shù)據(jù)創(chuàng)新,下列說法正確的是()o
A)個(gè)數(shù)據(jù)集的總和價(jià)值等于單個(gè)數(shù)據(jù)集價(jià)值相加
B)于數(shù)據(jù)的再利用,數(shù)據(jù)應(yīng)該永久保存下去
C)同數(shù)據(jù)多次用于相同或類似用途,其有效性會(huì)降低
D)數(shù)據(jù)開放價(jià)值可以得到真正釋放
221.[單選題]在Hive中一個(gè)查詢語句執(zhí)行后顯示的結(jié)果為:2018081250;20180813
32;20180814NULL,則最有可能的查詢語句是()
A)SELECTinc_day,count(taskno)FROM任務(wù)表WHEREinc-day
B)SELECTinc_day,count(task_no)FROM任務(wù)表WHEREinc_day
C)SELECTincday,count(taskno)FROM任務(wù)表WHEREinc_day
D)SELECTinc_day,count(task_no)FROM任務(wù)表HAVINGinc_day
222.[單選題]Hadoop中,Reduce
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 電商行業(yè)的消費(fèi)者購(gòu)買決策影響因素培訓(xùn)課程開發(fā)
- 江蘇省蘇北地區(qū)達(dá)標(biāo)名校2023-2024學(xué)年中考沖刺卷數(shù)學(xué)試題含解析
- 神經(jīng)藥物行業(yè)投資機(jī)會(huì)分析與策略研究報(bào)告
- 2023年四川綿陽科技城科技服務(wù)有限責(zé)任公司招聘警務(wù)輔助人員考試試題及答案
- 2023年昆明市盤龍區(qū)金辰街道辦事處社區(qū)服務(wù)中心崗位考試試題及答案
- 2023年嘉興市平湖市國(guó)企招聘筆試真題
- 2024年山東客運(yùn)從業(yè)資格證下載
- 2024年安徽客運(yùn)從業(yè)資格證題目及答案
- 2024年巴音郭楞客車上崗證模擬考試
- 2024年邵陽赤峰客運(yùn)從業(yè)資格證模擬考試
- 月考試卷(1-2單元)(月考)-2024-2025學(xué)年人教版數(shù)學(xué)六年級(jí)上冊(cè)
- 南京市2025屆高三年級(jí)學(xué)情調(diào)研(零模)生物試卷(含答案)
- 第一次月考試卷(試題)-2024-2025學(xué)年人教版數(shù)學(xué)六年級(jí)上冊(cè)
- 3.1《世界的海陸分布》教案-2024-2025學(xué)年湘教版(2024)地理七年級(jí)上冊(cè)
- 法律服務(wù)技術(shù)規(guī)范書2024年
- 做有夢(mèng)想的少年 課件-2024-2025學(xué)年統(tǒng)編版道德與法治七年級(jí)上冊(cè)
- 財(cái)務(wù)主管崗位招聘筆試題及解答(某大型集團(tuán)公司)
- 綜合實(shí)踐項(xiàng)目(一)制作細(xì)胞模型教案-2024-2025學(xué)年人教版七年級(jí)生物學(xué)上冊(cè)
- 簡(jiǎn)易呼吸器的使用-
- 企業(yè)誠(chéng)信管理體系培訓(xùn)試題附有答案
- 2024年中國(guó)中信集團(tuán)招聘筆試參考題庫含答案解析
評(píng)論
0/150
提交評(píng)論