2024年數(shù)據(jù)價(jià)值挖掘技能競賽決賽試題庫500題_第1頁
2024年數(shù)據(jù)價(jià)值挖掘技能競賽決賽試題庫500題_第2頁
2024年數(shù)據(jù)價(jià)值挖掘技能競賽決賽試題庫500題_第3頁
2024年數(shù)據(jù)價(jià)值挖掘技能競賽決賽試題庫500題_第4頁
2024年數(shù)據(jù)價(jià)值挖掘技能競賽決賽試題庫500題_第5頁
已閱讀5頁,還剩140頁未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

2024年數(shù)據(jù)價(jià)值挖掘技能競賽決賽試題庫500題(供參考)

一、單選題

1.中文同義詞替換時(shí),常用到Word2Vec,以下說法錯(cuò)誤的是()。

A、Word2Vec基丁概率統(tǒng)計(jì)

B、Word2Vec結(jié)果符合當(dāng)前預(yù)料環(huán)境

C、Word2Vec得到的都是語義上的同義詞

D、Word2Vec受限于訓(xùn)練語料的數(shù)量和質(zhì)量

答案:C

2.()是以樣本統(tǒng)計(jì)量作為未知總體參數(shù)的估計(jì)量,并通過對樣本單位的實(shí)際觀

察取得樣本數(shù)據(jù),計(jì)算樣本統(tǒng)計(jì)量的取值作為被估計(jì)參數(shù)的估計(jì)值。

A、參數(shù)估計(jì)

B、邏輯分析

C、方差分析

D、回歸分析

答案:A

3.圖像平滑會(huì)造成()o

A、圖像邊緣模糊化

B、圖像邊緣清晰化

C、無影響

D、以上答案都不正確

答案:A

4.以下代碼的輸出結(jié)果為()o

A、[[1,2],[3,4],[1,2].[3,4]]

B、[[1,2,3,4],[1,2,3,4]]

C、[[1,2].[3,4]]

D、[1,2,3,4,1,2,3,4]

答案:A

5.scipy.stats,moment函數(shù)的作用是()。

A、隨機(jī)變量的概率密度函數(shù)

B、隨機(jī)變量的累積分布函數(shù)

C、隨機(jī)變量的生存函數(shù)

D、計(jì)算分布的非中心矩

答案:D

6.已知一個(gè)數(shù)據(jù)集,n為特征數(shù),m為訓(xùn)練樣本數(shù),如果n較小,而且m大小中

等(例如n為1~1000,而m為10?10000),則一般選擇()。

A、邏輯回歸模型

B、不帶核的支持向量機(jī)

C、高斯核的支持向量機(jī)

D、多項(xiàng)式核的支持向量機(jī)

答案:C

7.以下代碼的輸出結(jié)果為()。

A、[[01][23][45]]

B、[0.6252.6254.625]

G(array([0.625,2.625,4.625]),array([8.,8.,8.])

D、以上答案都不正確

答案:B

8.Python語句print(OxA+OxB)的輸出結(jié)果是()。

A、OxA+OxB

B、A+B

GOxAOxB

D、21

答案:D

9.K折交叉驗(yàn)證器是以下哪個(gè)()方法()o

Axmodel_seIection.GroupKFold)

B、model_seIection.GroupShuffIeSpIit)

C、model_seIection.KFoId)

D、modeI_seIection.RepeatedKFoId)

答案:C

10.隨機(jī)森林與Bagging中基學(xué)習(xí)器多樣性的區(qū)別是()。

A、都來自樣本擾動(dòng)

B、都來自屬性擾動(dòng)

C、來自樣本擾動(dòng)和自屬性擾動(dòng)

D、多樣本集結(jié)合

答案:C

11.常見的圖像預(yù)處理方法不包括()。

A、圖像降噪

B、圖像增強(qiáng)

C、圖像尺寸歸一化

D、圖像標(biāo)注

答案:D

12.邏輯回歸將輸出概率范圍限定為[0,1]。()函數(shù)能起到這樣的作用。

A、Sigmoid函數(shù)

B、tanh函數(shù)

C\ReLU函數(shù)

D、LeakyReLU函數(shù)

答案:A

13.在多元線性回歸模型中,若某個(gè)解釋變量對其余解釋變量的判定系數(shù)接近于

1,則表明模型中存在()o

A、異方差

B、序列相關(guān)

C、多重共線性

D、高擬合優(yōu)度

答案:C

14.一幅灰度均勻分布的圖像,其灰度范圍為[0,255],則該圖像的信息量為()。

A、0

B、6

C、8

D、255

答案:C

15.在抽樣估計(jì)中,隨著樣本容量的增大,樣本統(tǒng)計(jì)量接近總體參數(shù)的概率就越

大,這一性質(zhì)稱為()O

A、無偏性

B、有效性

C、及時(shí)性

D、一致性

答案:D

16.在數(shù)據(jù)科學(xué)中,通??梢圆捎?)有效避免數(shù)據(jù)加工和數(shù)據(jù)備份的偏見。

A、/B測試

B、訓(xùn)練集和測試集的劃分

C、測試集和驗(yàn)證集的劃分D.圖靈測試

D、-

答案:A

17.使用pip工具查看當(dāng)前已安裝的Python擴(kuò)展庫的完整命令是()o

A、pipupdate

B、pipIist

C、pipinstaII

D、pipshowaII

答案:B

18.將原始數(shù)據(jù)進(jìn)行集成、變換、維度規(guī)約、數(shù)值規(guī)約是以下哪個(gè)步驟的任務(wù)()。

A、頻繁模式挖掘

B、分類和預(yù)測

C、數(shù)據(jù)預(yù)處理

D、數(shù)據(jù)流挖掘

答案:C

19.如果在大型數(shù)據(jù)集上訓(xùn)練決策樹。為了花費(fèi)更少的時(shí)間來訓(xùn)練這個(gè)模型,下

列哪種做法是正確的0

A、增加樹的深度

B、增加學(xué)習(xí)率

C、減小樹的深度

D、減少樹的數(shù)量

答案:C

20.下列方法中,不可以使用類名訪問的是()。

A、實(shí)例方法

B、類方法

C、靜態(tài)方法

D、以上答案都不正確

答案:A

21.下列關(guān)于IPython的說法,錯(cuò)誤的是()。

AxIPython集成了交互式Python的很多優(yōu)點(diǎn);

IPython的性能遠(yuǎn)遠(yuǎn)優(yōu)于標(biāo)準(zhǔn)的Python的shelI;

C、IPython支持變量自動(dòng)補(bǔ)全,自動(dòng)收縮;

D、與標(biāo)準(zhǔn)的Python相比,IPython缺少內(nèi)置的功能和函數(shù);

答案:D

22.下列關(guān)于數(shù)據(jù)轉(zhuǎn)換,正確的是()。

A、Json內(nèi)的取值只能有統(tǒng)一格式

B、PDF文件在不同平臺(tái)上打開顯示不同

C、可以通過Python將CSV文件轉(zhuǎn)換成Excel格式

D、Excel存儲(chǔ)數(shù)據(jù)的量無限制

答案:C

23.下面哪行代碼中最適合接受系統(tǒng)輸入的一個(gè)整數(shù)是()o

Axnum二input)

B、num=input("6")

C、num=int(input)

D、num=float(input)

答案:C

24.機(jī)器學(xué)習(xí)中,基于洋本分布的距離是()。

A、馬氏距離

B、歐式距離

C、曼哈頓距離

D、閔可夫斯基距離

答案:A

25.對于線性回歸模型,包括附加變量在內(nèi),以下可能正確的是()。

A、1和2

B、1和3

C、2和4

D、以上都不是

答案:D

26.下列方法中,不屬于情感分析的評測的方法是()。

A、COAE評測

B、cifarlO數(shù)據(jù)集評測

C、CFTCCI評測

D、TAC評測

答案:B

27.以下關(guān)于pandas數(shù)據(jù)讀寫說法錯(cuò)誤的是()。

Axread_csv能夠讀取數(shù)據(jù)庫的數(shù)據(jù)

B、read_sql能夠讀取數(shù)據(jù)庫的數(shù)據(jù)

C、to_csv函數(shù)能夠?qū)⒔Y(jié)構(gòu)化數(shù)據(jù)寫入csv文件

D、to_exceI函數(shù)能夠?qū)⒔Y(jié)構(gòu)化數(shù)據(jù)寫入ExceI文件

答案:A

28.k近鄰算法在()的情況下效果較好。

A、樣本較多但典型性不好

B、樣本較少但典型性好

C、樣本呈團(tuán)狀分布

D、樣本呈鏈狀分布

答案:B

29.txt=open(filenane)返回的是()。

A、變量

B、常數(shù)

C、文件內(nèi)容

D、文件對象

答案:D

30.下列說法錯(cuò)誤的是()o

A、當(dāng)目標(biāo)函數(shù)是凸函數(shù)時(shí),梯度下降算法的解一般就是全局最優(yōu)解

B、進(jìn)行PCA降維時(shí),需要計(jì)算協(xié)方差矩

C、沿負(fù)梯度的方向一定是最優(yōu)的方向

D、利用拉格朗日函數(shù)能解帶約束的優(yōu)化問題

答案:C

31.在回歸模型中,0在權(quán)衡欠擬合(under-fitting)和過擬合(over-fitt

ing)中影響最大。

A、多項(xiàng)式階數(shù)

B、更新權(quán)重w時(shí),使用的是矩陣求逆

C、使用常數(shù)項(xiàng)

D、使用梯度下降法

答案:A

32.在pit中通常的lw參數(shù)代表的作用是()。

A、線條的風(fēng)格

B、文字的顏色

C、線條的寬度

D、線條的透明度

答案:C

33.評估完模型之后,發(fā)現(xiàn)模型存在高偏差(highbias),應(yīng)采取的解決方法是

()O

A、減少模型的特征數(shù)量

B、增加模型的特征數(shù)量

C、增加樣本數(shù)量

D、以上答案都正確

答案:B

34.HadoopMapReduce2.0中,()負(fù)責(zé)資源的管理和調(diào)度。

AxJobTracker

B、YARN

C、TaskTracker

D、AppIicationMaster

答案:B

35.Python安裝擴(kuò)展庫常用的是。工具。

A、pyinstaII

B、pip

C、pop

D、post

答案:B

36.關(guān)于Python程序中與“縮進(jìn)”有關(guān)的說法中,以下選項(xiàng)中正確的是()。

A、縮進(jìn)統(tǒng)一為4個(gè)空格

B、縮進(jìn)是非強(qiáng)制性的,僅為了提高代碼可讀性

C、縮進(jìn)在程序中長度統(tǒng)一且強(qiáng)制使用

D、縮進(jìn)可以用在任何語句之后,表示語句間的包含關(guān)系

答案:C

37.以下代碼的輸出結(jié)果為()。

A、[[0,2,3],[4,6,7],[8,10,11],[12,14,15]]

B、[[0,1,2,3],[8,9,10,11],[12,13,14,15]]

C、[[0,1,2,3],[4,5,6,7],[8,9,10,11],[12,13,14,15]]

D、[[1,2,3],[5,6,7],[9,10,11],[13,14,15]]

答案:C

38.數(shù)據(jù)的原始內(nèi)容及其備份數(shù)據(jù),是數(shù)據(jù)產(chǎn)品的研發(fā)的哪個(gè)階段()o

A、零次數(shù)據(jù)

B、一次數(shù)據(jù)

C、二次數(shù)據(jù)

D、采集數(shù)據(jù)

答案:A

39.以下描述中不屬于“規(guī)整數(shù)據(jù)(TidyData)”三個(gè)基本原則的是()。

A、每一類觀察單元構(gòu)成一個(gè)關(guān)系(表)

B、每個(gè)觀察占且僅占一行

C、每個(gè)變量占且僅占一列

D、每個(gè)觀察占且僅占一個(gè)關(guān)系(表)

答案:D

40.Windows系統(tǒng)下安裝MatplotIib的命令是()。

A、pythonpipinstaIInatplotiib

B、python-mpipinstaIImatplotIib

C、sudoapt-getinstaIIpython-matplotiib

D、sudopython-mpipinstaIImatpIotIib

答案:B

41.LSTM中,()的作用是確定哪些新的信息留在細(xì)胞狀態(tài)中,并更新細(xì)胞狀態(tài)。

A、輸入門

B、遺忘門

C、輸出門

D、更新門

答案:A

42.以下關(guān)于pandas中g(shù)roupby方法說法正確的是()。

A、groupby能夠?qū)崿F(xiàn)分組聚合

B、groupby方法的結(jié)吳能夠直接查看

C、groupby是pandas提供的一個(gè)用來分組的方法

D、groupby方法是pandas提供的一個(gè)用來聚合的方法

答案:C

43.()是指為最小化總體風(fēng)險(xiǎn),只需在每個(gè)樣本上選擇能使特定條件風(fēng)險(xiǎn)最小

的類別標(biāo)記。

A、支持向量機(jī)

B、間隔最大化

C、線性分類器

D、貝葉斯判定準(zhǔn)則

答案:D

44.圖像噪聲一般可分為以下哪幾類()。

A、加性噪聲

B、乘性噪聲

C、量化噪聲

D、以上答案都正確

答案:D

45.下面哪個(gè)是針對下列程序,滿足期望輸出的代碼是()o

A、rr%2—1

B、arr[arr%2-1]

C、arr[arr/2==1]

D、arr[arr//2==1]

答案:B

46.使用Numpy讀取csv文件應(yīng)使用以下哪個(gè)的函數(shù)是。。

A、save)

B、read_csv)

C、Ioadtxt)

Dxopen)

答案:C

47.()是Spark的核心數(shù)據(jù)結(jié)構(gòu)。

A、彈性分布式數(shù)據(jù)集

B、列表

C、元組

D、字典

答案:A

48.大數(shù)據(jù)應(yīng)用需依托的新技術(shù)有()o

A、大規(guī)模并行處理

B、數(shù)據(jù)分析處理

C、智能化

D、三個(gè)選項(xiàng)都是

答案:D

49.關(guān)于模塊下列說法不正確的是()o

A、Python模塊(Module),是一個(gè)Python文件,以.py結(jié)尾,包含了Python

對象定義和Python語句。

B、模塊讓你能夠有邏輯地組織你的Python代碼段。

C、把相關(guān)的代碼分配到一個(gè)模塊里能讓你的代碼更好用,更易懂。

D、模塊不能定義類

答案:D

50.以下選項(xiàng)中,輸出結(jié)果是False的是()。

A、?>5isnot4

B、?>5!=4

G?>False!=O

D、?>5is5

答案:C

51.留出法直接將數(shù)據(jù)集劃分為()個(gè)互斥的集合。

A、—

B、二

C、三

D、四

答案:B

52.關(guān)于數(shù)據(jù)清洗,不正確的說法是0o

A、對單數(shù)據(jù)源,主鍵取值不能重復(fù)

B、多數(shù)據(jù)源會(huì)存在數(shù)據(jù)重復(fù)、單位不一致的問題

C、連續(xù)型數(shù)據(jù)不存在冗余問題

D、缺失值可以采用刪除和填補(bǔ)等方法處理

答案:C

53.有數(shù)組arr=Numpy.array([1,,2,,3,,4]),執(zhí)行arr.dtype后輸出結(jié)果

為()。

A、int32

B、int64

C、fIoat32

D、fIoat64

答案:A

54.對Numpy的數(shù)組Ndarray對象屬性的描述,錯(cuò)誤的是0。

A、Ndarray.dtypeNdarray對象中每個(gè)元素的大以字節(jié)為單位

B、Ndarray.flagsNdarray對象的內(nèi)存信息

C、Ndarray.reaINdarray元素的實(shí)部

D、Ndarray.imagNdarray元素的虛部

答案:A

55.執(zhí)行一個(gè)job,如具這個(gè)job的輸出路徑已經(jīng)存在,那么程序會(huì)()o

A、覆蓋這個(gè)輸出路徑

B、拋出警告,但是能夠繼續(xù)執(zhí)行

C、拋出一個(gè)異常,然后退出

D、創(chuàng)建一個(gè)新的輸出路徑

答案:C

56.關(guān)于python的類,說法錯(cuò)誤的是()。

A、類的實(shí)例方法必須創(chuàng)建對象后才可以調(diào)用

B、類的實(shí)例方法必須創(chuàng)建對象前才可以調(diào)用

C、類的類方法可以用對象和類名來調(diào)用

D、類的靜態(tài)屬性可以用類名和對象來調(diào)用

答案:B

57.bootstrap是指()。

A、有放回地從總共M個(gè)特征中抽樣m個(gè)特征

B、無放回地從總共M個(gè)特征中抽樣m個(gè)特征

C、有放回地從總共N個(gè)樣本中抽樣n個(gè)樣本

D、無放回地從總共N個(gè)樣本中抽樣n個(gè)樣本

答案:C

58.HadoopMapReduce2.0中,。負(fù)責(zé)資源的管理和調(diào)度。

A、JobTracker

B、YARN

CxTaskTracker

D、AppIicationMaster

答案:B

59.要彌補(bǔ)缺失值,可以使用均值,、中位數(shù),、眾數(shù)等等,preprocessing模

塊中那個(gè)方法??梢詫?shí)現(xiàn)()。

Axpreprocessing.Imputer)

B、preprocessing.PoynomiaIFeatures)

C、preprocessing.FunctionTransformer)

D、preprocessing.Binarizer)

答案:A

60.下列關(guān)于核函數(shù)特性的描述,錯(cuò)誤的是()。

A、只要一個(gè)對稱函數(shù)所對應(yīng)的核矩陣半正定,就能稱為核函數(shù)

B、核函數(shù)選擇作為支持向量機(jī)的最大變數(shù)

C、核函數(shù)將影響支持向量機(jī)的性能

D、核函數(shù)是一種降維模型

答案:D

61.輸入圖片大小為37X37,經(jīng)過第一層卷積(thenumberoffilters=25,kernel

size=5X5,padding=valid,stride=1)與池化層maxpooIing(kerneIsize=3

X3,padding=valid),輸出特征圖大小為()。

A、10X10

B、11X11

C、12X12

D、13X13

答案:B

62.大數(shù)據(jù)涌現(xiàn)現(xiàn)象的形式有多種,不屬于大數(shù)據(jù)涌現(xiàn)形式的是。。

A、價(jià)值涌現(xiàn)

B、隱私涌現(xiàn)

C、物質(zhì)涌現(xiàn)

D、質(zhì)量涌現(xiàn)

答案:C

63.當(dāng)訓(xùn)練集特征非常多,而實(shí)例非常少的時(shí)候,可以采用()o

A、sigmoid核的支持向量機(jī)

B、不帶核的支持向量機(jī)

C、高斯核的支持向量機(jī)

D、多項(xiàng)式核的支持向量機(jī)

答案:B

64.概率模型的訓(xùn)練過程就是()過程。

A、分類

B、聚類

C、參數(shù)估計(jì)

D、參數(shù)選擇

答案:C

65.假如使用邏輯回歸對樣本進(jìn)行分類,得到訓(xùn)練樣本的準(zhǔn)確率和測試樣本的準(zhǔn)

確率?,F(xiàn)在,在數(shù)據(jù)中增加一個(gè)新的特征,其他特征保持不變。然后重新訓(xùn)練測

試。則下列說法正確的是0o

A、訓(xùn)練樣本準(zhǔn)確率一定會(huì)降低

B、訓(xùn)練樣本準(zhǔn)確率一定增加或保持不變

C、測試樣本準(zhǔn)確率一定會(huì)降低

D、測試樣本準(zhǔn)確率一定增加或保持不變

答案:B

66.基于詞的N元文法模型,其最后的粗分結(jié)果集合大小()No

A、大于

B、大于等于

C、小于

D、小于等于

答案:B

67.下列關(guān)于LSTM的說法,錯(cuò)誤的是。。

A、LSTM中存在sigmoid函數(shù)

B、LSTM中存在tanh函數(shù)

C、LSTM又稱長短時(shí)記憶網(wǎng)絡(luò)

D、RNN是LSTM的變種

答案:D

68.在python中可以通過調(diào)用random庫來產(chǎn)生隨機(jī)數(shù)。a=random.randint

99),并賦值給變量a。以下描述正確的是()。

A、隨機(jī)產(chǎn)生一個(gè)1~~99的小數(shù);

B、隨機(jī)產(chǎn)生一個(gè)1~~99的整數(shù);

C、產(chǎn)生一個(gè)值為99的整數(shù);

D、隨機(jī)產(chǎn)生一個(gè)1~~99的無理數(shù);

答案:B

69.MapReduce計(jì)算框架的輸入是()數(shù)據(jù)結(jié)構(gòu)。

A、key-vaIue

Bxinput-output

C、map-reduce

D、key-column

答案:A

70.下列關(guān)于RBM的說法,錯(cuò)誤的是0o

A、學(xué)習(xí)過程很快

B、RBM訓(xùn)練可以看作對一個(gè)深層BP網(wǎng)絡(luò)的網(wǎng)絡(luò)權(quán)值參數(shù)的初始化

C、RBM不用人工選擇特征

D、RBM有標(biāo)簽樣本集

答案:A

71.matplotIib中的legend函數(shù)作用是什么()。

A、設(shè)置標(biāo)簽文本

B、繪制網(wǎng)格線

C、標(biāo)示不同圖形的文本標(biāo)簽圖例

D、設(shè)置x軸的數(shù)值顯示范圍

答案:C

72.以下不屬于基于圖像灰度分布的閾值分割方法的是()°

A、類間最大距離法

B、最大類間方差法

C、Otsu方法

D、區(qū)域生長法

答案:D

73.針對以下數(shù)組,如何從一個(gè)數(shù)組中移除那些存在于另一個(gè)數(shù)組中的項(xiàng)時(shí)可進(jìn)

行的操作是()。

A、np.setdiff1d(a,b)

B、setdiff1d(a)

C、setdiff1d(b)

D、以上答案都不正確

答案:A

74.數(shù)據(jù)可視化的基本類型是()。

A、科學(xué)可視化、信息可視化、可視分析學(xué)

B、物理可視化、數(shù)字可視化、化學(xué)可視化

C、科學(xué)可視化、數(shù)字可視化、可視分析學(xué)

D、科學(xué)可視化、信息可視化、文本可視化

答案:A

75.()不屬于聚類性能度量外部指標(biāo)。

AxJaccard系數(shù)

B、FM系數(shù)

C、Rand指數(shù)

D、B指數(shù)

答案:D

76.在MapReduce中,哪個(gè)組件是用戶不指定也不會(huì)有默認(rèn)的()。

AxCombiner

B、OutputFormat

C、Partitioner

D、InputFormat

答案:A

77.下列方法中,不屬于圖像分割方法的是()o

A、邊緣檢測法

B、閾值分割法

C、區(qū)域分割法

D、特征提取法

答案:D

78.在Iinux下預(yù)裝了Python2,、Python3且默認(rèn)Python版本為Python3,下

列描述可以正確啟動(dòng)Python有的是0o

A、在Iinux應(yīng)用程序TerminaI,打開一個(gè)終端窗口。輸入whichPython

B、在Iinux應(yīng)用程序Terminal,打開一個(gè)終端窗口。輸入Python2或Python3

C、在Iinux應(yīng)用程序Terminal,打開一個(gè)終端窗口。輸入whichPython3

D、在Iinux應(yīng)用程序Terminal,打開一個(gè)終端窗口。輸入輸入whichPython2

答案:B

79.事務(wù)對數(shù)據(jù)對象加鎖后擁有何種控制權(quán)是由封鎖的()決定的。

A、狀態(tài)

B、類型

C、數(shù)量

D、屬性

答案:B

80.關(guān)于層次聚類算法:①不斷重復(fù)直到達(dá)到預(yù)設(shè)的聚類簇?cái)?shù);②不斷合并距離

最近的聚類簇;③對初始聚類簇和相應(yīng)的距離矩陣初始化;④對合并得到的聚類

簇進(jìn)行更新。正確的執(zhí)行順序?yàn)?)o

A、①②③④

B、①③②④

C、③②④①

D、③④①②

答案:C

81.()是指理解挖掘項(xiàng)目的目標(biāo)業(yè)務(wù)需求。

A、業(yè)務(wù)理解

B、數(shù)據(jù)理解

C、數(shù)據(jù)準(zhǔn)備

D、數(shù)據(jù)建模

答案:A

82.你正在訓(xùn)練一個(gè)RNN網(wǎng)絡(luò),你發(fā)現(xiàn)你的權(quán)重與激活值都是NaN,下列選項(xiàng)中

導(dǎo)致這個(gè)問題的最有可能的原因是()。

A、梯度消失

B、梯度爆炸

C、ReLU函數(shù)作為激活函數(shù)g(.),在計(jì)算g(z)時(shí),z的數(shù)值過大了

D、Sigmoid函數(shù)作為激活函數(shù)g(.),在計(jì)算g(z)時(shí),z的數(shù)值過大了

答案:B

83.下面對集成學(xué)習(xí)模型中的弱學(xué)習(xí)者描述錯(cuò)誤的是00

A、他們經(jīng)常不會(huì)過擬合

B、他們通常帶有高偏差,所以其并不能解決復(fù)雜學(xué)習(xí)問題

C、他們通常會(huì)過擬合

D、-

答案:C

84.以下()不屬于廣義上的數(shù)據(jù)可視化技術(shù)。

A、類別可視化

B、科學(xué)可視化

C、信息可視化

D、可視分析學(xué)

答案:A

85.假設(shè)我們已經(jīng)在ImageNet數(shù)據(jù)集(物體識(shí)別)上訓(xùn)練好了一個(gè)卷積神經(jīng)網(wǎng)絡(luò)。

然后給這張卷積神經(jīng)網(wǎng)絡(luò)輸入一張全白的圖片。對于這個(gè)輸入的輸出結(jié)果為任何

種類的物體的可能性都是一樣的,對嗎()。

A、對的

B、不知道

C、看情況

D、不對

答案:D

86.常用的圖像去噪方法有。。

A、高斯濾波

B、中值濾波

C、P-M方程去噪

D、以上答案都正確

答案:D

87.scipy.stats,describe)函數(shù)的作用是()。

A、計(jì)算變異系數(shù)

B、計(jì)算數(shù)據(jù)集的樣本偏度

C、計(jì)算所傳遞數(shù)組的幾個(gè)描述性統(tǒng)計(jì)信息

D、計(jì)算關(guān)于樣本平均值的第n個(gè)矩

答案:C

88.以下屬于圖像處理的常用方法有0o

A、圖像變換

B、圖像編碼壓縮

C、圖像增強(qiáng)和復(fù)原

D、以上答案都正確

答案:D

89.random庫中用于生成隨機(jī)小數(shù)的函數(shù)是()。

A、random)

B、randint)

C、getrandbits)

D、randrange)

答案:A

90.在留出法、交叉驗(yàn)證法和自助法三種評估方法中,()更適用于數(shù)據(jù)集較小、

難以劃分訓(xùn)練集和測試集的情況。

A、留出法

B、交叉驗(yàn)證法

C、自助法

D、留一法

答案:C

91.scipy.integrate模塊的主要作用是()。

A、里面有各種特殊的數(shù)學(xué)函數(shù),可以直接調(diào)用,如貝塞爾函數(shù)

B、可以求多重積分,高斯積分,解常微分方程

C、包括樣條插值,卷積,差分等濾波函數(shù)

D、提供各種線性代數(shù)中的常規(guī)操作

答案:B

92.下列表達(dá)式中[print(x,y,10O-x-y)forxinrange(21)foryinrange(3

4)if(100-x-y)%3==0and5*x+3*y+(100-x-y),//3==100],第三次輸出的結(jié)果

是()。

A、41878

B、42175

C、81478

D、81181

答案:D

93.geoplot是()庫和。庫的擴(kuò)展。

Axcartopy和seaborn

B、seaborn和matpIotIib

C、artopyWmatplotIib

DvmatplotiibJUggpIot2

答案:C

94.()不屬于CRF模型對于HMM和MEMM模型的優(yōu)勢。

Ax特征靈活

B、速度快

C、可容納較多上下文信息

D、全局最優(yōu)

答案:B

95.以下描述中錯(cuò)誤的是()。

A、數(shù)據(jù)化與數(shù)字化是兩個(gè)不同概念

B、數(shù)據(jù)與數(shù)值是一個(gè)概念

C、大數(shù)據(jù)與海量數(shù)據(jù)是兩個(gè)不同的概念

D、數(shù)據(jù)和信息是兩個(gè)不同的概念

答案:B

96.下列關(guān)于支持向量回歸說法,錯(cuò)誤的是。。

A、支持向量回歸是將支持向量的方法應(yīng)用到回歸問題中

B、支持向量回歸同樣可以應(yīng)用核函數(shù)求解線性不可分的問題

C、同分類算法不同的是,支持向量回歸要最小化一個(gè)凹函數(shù)

D、支持向量回歸的解是稀疏的

答案:C

97.Spark的劣勢是()。

A、運(yùn)算速度快

B、業(yè)務(wù)實(shí)現(xiàn)需要較少代碼

C、提供很多現(xiàn)成函數(shù)

D、需要更多機(jī)器內(nèi)存

答案:D

98.下列關(guān)于大數(shù)據(jù)的分析理念的說法中,錯(cuò)誤的是。。

A、在數(shù)據(jù)基礎(chǔ)上傾向于全體數(shù)據(jù)而不是抽樣數(shù)據(jù)

B、在分析方法上更注重相關(guān)分析而不是因果分析

C、在分析效果上更追求效率而不是絕對精確

D、在數(shù)據(jù)規(guī)模上強(qiáng)調(diào)相對數(shù)據(jù)而不是絕對數(shù)據(jù)

答案:D

99.讀代碼,請寫出程序正確的答案0o

A、結(jié)果:1到100之和為:5000

B、結(jié)果:1到100之和為:0

G結(jié)果:1到100之和為:2050

D、結(jié)果:1到100之和為:5020

答案:B

100.數(shù)據(jù)清洗的方法不包括()o

A、缺失值處理

B、噪聲數(shù)據(jù)清除

C、一致性檢查

D、重復(fù)數(shù)據(jù)記錄處理

答案:D

101.當(dāng)()時(shí),可以不考慮RDD序列化處理。

A、完成成本比較高的操作后

B、執(zhí)行容易失敗的操作之前

C、RDD被重復(fù)使用

D、實(shí)時(shí)性要求高

答案:D

102.在matplotIib中,如何創(chuàng)建一個(gè)新圖可以用函數(shù)O。

Avfigimage)

B、figure)

C、figtext)

D、figlegend)

答案:B

103.下面代碼print(0.1+0.2==0.3)的輸出結(jié)果是()。

A、TRUE

B、FALSE

C、TRUE

D、FALSE

答案:B

104.以下選項(xiàng)中,不是Python對文件的打開模式的是()。

A、'w'

B、'+'

C、'c'

Dx'r'

答案:C

105.當(dāng)學(xué)習(xí)器將訓(xùn)練樣本自身的特點(diǎn)作為所有潛在樣本都具有的一般性質(zhì),這樣

會(huì)導(dǎo)致泛化性能下降,這種現(xiàn)象稱為。。

A、欠擬合

B、過擬合

C、擬合

D、以上答案都不正確

答案:B

106.Numpy數(shù)組輸出的原則是()0

A、從左到右,從下到上

B、從左到右,從上到下

C、從右到左,從下到上

D、從右到左,從上到下

答案:B

107.()與HDFS類似。

A、NTFS

B、FAT32

C、GFS

D、EXT3

答案:C

108.0是指具有體量大、來源多樣、生成極快和多變等特征并且難以用傳統(tǒng)數(shù)

據(jù)體系機(jī)構(gòu)有效處理的包含大量數(shù)據(jù)集的數(shù)據(jù)。

A、海量數(shù)據(jù)

B、大數(shù)據(jù)

C、厚數(shù)據(jù)

D、異構(gòu)數(shù)據(jù)

答案:B

109.數(shù)據(jù)預(yù)處理方法不包括()。

A、數(shù)據(jù)清洗:去噪聲和無關(guān)數(shù)據(jù)

B、數(shù)據(jù)集成:將多個(gè)數(shù)據(jù)源中的數(shù)據(jù)結(jié)合起來存在一個(gè)一致的數(shù)據(jù)存儲(chǔ)中

C、數(shù)據(jù)變換:把原始數(shù)據(jù)轉(zhuǎn)換成為適合數(shù)據(jù)挖掘的形式

D、數(shù)據(jù)轉(zhuǎn)化:把連續(xù)數(shù)據(jù)轉(zhuǎn)換為離散數(shù)據(jù)

答案:D

110.以下字符串表示plot線條顏色、點(diǎn)的形狀和類型為紅色五角星點(diǎn)短虛線的

是()。

A、'bs-'

Bx,go-'

C、'r+-.'

D、'r*-.,

答案:D

111.視覺編碼的前提是分析并了解目標(biāo)用戶的。,盡量降低目標(biāo)用戶的0o

A、視覺感知特征;感知障礙

B、視覺感知特征;感知時(shí)間

C、視覺感知習(xí)慣;感知障礙

D、視覺感知習(xí)慣;感知時(shí)間

答案:A

112.下列關(guān)于線性模型的描述錯(cuò)誤的是()。

A、支持向量機(jī)的判別函數(shù)一定屬于線性函數(shù)

B、在樣本為某些分布情況時(shí),線性判別函數(shù)可以成為最小錯(cuò)誤率或最小風(fēng)險(xiǎn)意

義下的最優(yōu)分類器

C、在一般情況下,線性分類器只能是次優(yōu)分類器

D、線性分類器簡單而且在很多期情況下效果接近最優(yōu),所以應(yīng)用比較廣泛

答案:A

113.對于隨機(jī)森林和GBDT,下面說法正確的是()。

A、在隨機(jī)森林的單個(gè)樹中,樹和樹之間是有依賴的,而GBDT中的單個(gè)樹之間是沒

有依賴的

B、這兩個(gè)模型都使用隨機(jī)特征子集,來生成許多單個(gè)的樹

C、我們可以并行地生成GBDT單個(gè)樹,因?yàn)樗鼈冎g是沒有依賴的

D、GBDT訓(xùn)練模型的表現(xiàn)總是比隨機(jī)森林好

答案:B

114.下面算法屬于局部處理的是()o

A、灰度線性變換

B、二值化

C、傅里葉變換

D、中值濾波

答案:D

115.正則化是將樣本在向量空間模型上的一個(gè)轉(zhuǎn)換,經(jīng)常被使用在分類與聚類中,

正則化在preprocessing模塊中如何的實(shí)現(xiàn)方法是()o

Axpreprocessing.maxabs_scaIe)方法

B、preprocessing.RobustScaIer)方法

C、preprocessing.normaIize)方法

D、preprocessing.Binarizer)方法

答案:C

116.Adaboost的核心思想是()。

A、給定一個(gè)弱學(xué)習(xí)算法和一個(gè)訓(xùn)練集,將該學(xué)習(xí)算法使用多次,得出預(yù)測函數(shù)序

列,進(jìn)行投票

B、針對同一個(gè)訓(xùn)練集訓(xùn)練不同的弱分類器集合起來,構(gòu)成一個(gè)強(qiáng)分類器

C、利用多棵樹對樣本進(jìn)行訓(xùn)練并預(yù)測的一種分類器

D、基于前向策略的加法模型,每階段使用一個(gè)基模型去擬合上一階段基模型的殘

答案:B

117.()試圖學(xué)得一個(gè)屬性的線性組合來進(jìn)行預(yù)測的函數(shù)。

A、決策樹

B、貝葉斯分類器

C、神經(jīng)網(wǎng)絡(luò)

D、線性模型

答案:D

118.如果兩個(gè)變量相關(guān),它們()線性關(guān)系。

A、一定是

B、不一定是

C、-

D、-

答案:B

119.在MapReduce中,以下描述錯(cuò)誤的有()。

A、Worker故障和Master故障的處理方法不相同

B、Map和Reduce的處理結(jié)果都存儲(chǔ)在本地文件系統(tǒng)

C、一個(gè)Worker發(fā)生故障時(shí),該節(jié)點(diǎn)上執(zhí)行完的Map任務(wù)需要再次執(zhí)行

D、MapReduce具有很強(qiáng)的容錯(cuò)機(jī)制

答案:B

120.隨機(jī)森林等樹狀算法通過哪個(gè)()模塊進(jìn)行調(diào)用。。

Axdummy

B、ensemble

C、tree

D、experimentaI

答案:B

121.關(guān)于拋出異常的說法中,描述錯(cuò)誤的是()。

A、當(dāng)raise指定異常的類名時(shí),會(huì)隱式地創(chuàng)建異常類的實(shí)例

B、顯式地創(chuàng)建異常類實(shí)例,可以使用raise直接引發(fā)

C、不帶參數(shù)的raise語句,只能引發(fā)剛剛發(fā)生過的異常

D、使用raise拋出異常時(shí),無法指定描述信息

答案:D

122.以下()是對DMM(數(shù)據(jù)管理成熟度模型)中“已管理級”基本特點(diǎn)的正確

表述。

A、組織機(jī)構(gòu)的數(shù)據(jù)管理關(guān)鍵活動(dòng)能夠根據(jù)結(jié)構(gòu)自身的反饋以及外部環(huán)境的變革

進(jìn)行不斷優(yōu)化

B、組織機(jī)構(gòu)已用定量化的方式管理其關(guān)鍵過程的執(zhí)行過程

C、組織機(jī)構(gòu)只有在項(xiàng)目管理過程中執(zhí)行了D.M給出的關(guān)鍵過程,而缺乏機(jī)陶層

次的統(tǒng)籌與管理

D、組織機(jī)構(gòu)的數(shù)據(jù)管理工作超出了項(xiàng)目管理的范疇,由組織機(jī)構(gòu)統(tǒng)一管理其數(shù)

據(jù)管理關(guān)鍵過程

答案:D

123.假設(shè)你需要調(diào)整參數(shù)來最小化代價(jià)函數(shù)(costfunction),會(huì)使用()技術(shù)。

A、窮舉搜索

B、隨機(jī)搜索

C、Bayesian優(yōu)化

D、以上全是

答案:D

124.采用模板[71]主要檢測()方向的邊緣。

A、水平

B、45°

C、垂直

D、135°

答案:C

125.DAGScheduIer的作用是()°

A、負(fù)責(zé)分配任務(wù)

B、負(fù)責(zé)調(diào)度Worker的運(yùn)行

C、負(fù)責(zé)創(chuàng)建執(zhí)行計(jì)劃

D、負(fù)責(zé)清理執(zhí)行完畢的任務(wù)

答案:C

126.scipy庫中用于物理和數(shù)學(xué)常量計(jì)算的模塊是()o

A、scipy.cIuster

Bxscipy.io

C、scipy.constants

D、scipy.IinaIg

答案:C

127.屬于深度學(xué)習(xí)框架的是()o

AxTensorfIow

B、Caffe

C、PyTorch

D、以上答案都正確

答案:D

128.在頁面中看不見的表單元素是那種()。

A、<\nputtype="password"X/input>

Bv<inputtype="radio"></input>

C、<inputtype="hidden"></input>

D、<inputtype="reset"></input>

答案:C

129.matplotIib中的調(diào)用堆積折線圖的函數(shù)是什么()。

A、step)

B、stackplot)

C、plusplot)

D、hist)

答案:B

130.下列選項(xiàng)中,不屬于python特點(diǎn)的是()。

A、面向?qū)ο螅?/p>

B、運(yùn)行效率高;

C、可移植性;

D、免費(fèi)和開源;

答案:B

131.針對以下數(shù)組,如何從一個(gè)數(shù)組中移除那些存在于另一個(gè)數(shù)組中的項(xiàng)時(shí)可進(jìn)

行的操作是()。

Axnp.setdiff1d(a,b)

B、setdiff1d(a)

C、setdiffld(b)

D、以上答案都不正確

答案:A

132.scipy.io模塊不可以讀取以下哪種文件()o

A、matIab文件

B、IDL文件

C、wav文件

D、csv文件

答案:D

133.若X的值為廣?11(包含1、11),要用scipy輸出標(biāo)準(zhǔn)正態(tài)分布的概率密

度函數(shù)在X=5處的值,下面哪個(gè)是正確的是()。

A、scipy.stats,norm(Ioc=0,seaIe=1).pmf(5)

B、scipy.stats.binorm(loc=0,seale=1).pdf(5)

C、scipy.stats.binorm(Ioc=0,seaIe=1).pmf(5)

D、scipy.stats,norm(Ioc=0,seaIe=1).pdf(5)

答案:D

134.對于一個(gè)圖像識(shí)別問題(在一張照片里找出一只貓),()可以更好地解決

這個(gè)問題。

A、循環(huán)神經(jīng)網(wǎng)絡(luò)

B、感知機(jī)

C、多層感知機(jī)

D、卷積神經(jīng)網(wǎng)絡(luò)

答案:D

135.可用信息增益來進(jìn)行決策樹的()。

A\樹同j

B、葉子結(jié)點(diǎn)數(shù)

C、總結(jié)點(diǎn)數(shù)

D、劃分屬性選擇

答案:D

136.對Python的sys模塊常用方法的描述,錯(cuò)誤的是()。

A、sys.argv命令行參數(shù)List,第一個(gè)元素是程序本身路徑

B、sys.modules,keys)返回所有字典中的keys

C、sys.exc_info)獲取當(dāng)前正在處理的異常類

D、sys.exit(n)退出程序

答案:B

137.下列屬于小波去噪步驟的是()。

A、對圖像信號進(jìn)行小波分解

B、對經(jīng)過層次分解后的高頻系數(shù)進(jìn)行閾值量化

C、利用二維小波重構(gòu)圖像信號

D、以上答案都正確

答案:D

138.在HDFS中()是文件系統(tǒng)的工作節(jié)點(diǎn)。

AxDataNode

B、CIient

CxNameNode

D、Flume

答案:A

139.下列關(guān)于TF-IDF說法正確的是()o

A、該值與特征項(xiàng)在文檔中出現(xiàn)的頻率成反比

B、該值與特征項(xiàng)在文檔中出現(xiàn)的頻率成正比

C、該值與在整個(gè)語料庫中出現(xiàn)該特征項(xiàng)的文檔庫成正比

D、該值與特征項(xiàng)在文檔中出現(xiàn)的頻率無關(guān)

答案:B

140.HDFS是基于流數(shù)據(jù)模式訪問和處理超大文件的需求而開發(fā)的,具有高容錯(cuò)、

高可靠性、高可擴(kuò)展性、高吞吐率等特征,適合的讀寫任務(wù)是()。

A、一次寫入,少次讀取

B、多次寫入,少次讀取

C、多次寫入,多次讀取

D、一次寫入,多次讀取

答案:D

141.關(guān)于Ndarray.itemsize的描述,錯(cuò)誤的是()。

A、以字節(jié)的形式返回?cái)?shù)組中每一個(gè)元素的大小

B、一個(gè)元素類型為fIoat64的數(shù)組itemsize屬性值為8

C、一個(gè)元素類型為complex32的數(shù)組itemsize屬性為4

D、一個(gè)元素類型為complex64的數(shù)組itemsize屬性為4

答案:D

142.MapReduce里面的query、sort和Iimit等都是針對()的操作。

A、map()之前

B、reduce()之前

C、reduce()之后

D、finalize()之后

答案:A

143.以下關(guān)于代碼規(guī)范描述,哪些是錯(cuò)誤的是()。

A、類總是使用駝峰格式命名,即所有單詞首字母大寫其余字母小寫。

B、除特殊模塊_init_之外,模塊名稱都使用不帶下劃線的小寫字母。

C、不要濫用*args和**kwargs

D、建議把所有方法都放在一個(gè)類中

答案:D

144.Python中用()快捷鍵表示運(yùn)行當(dāng)前程序。

A、Ctrl+F10

B、Ctrl+Alt+F10

C、Shift+F10

D、Ctrl+Shift+F10

答案:D

145.以下代碼的輸出結(jié)果為()o

A、[012345678]

Bx[array([0,1,2"),array([3,4,5]),array([6,7,8])]

Cx[array([0,1,2,3]),array([4,5,6'),array([7,8])]

D、沒有正確答案

答案:B

146.()不是HDFS的守護(hù)進(jìn)程。

AxSecondaryNameNode

B、DataNode

C、MRAppMaster/YarnChiId

D、NameNode

答案:C

147.下列關(guān)于Python全局變量和局部變量的描述,不正確的是()。

A、local關(guān)鍵字用于定義局部變量,global關(guān)鍵字用于定義全局變量

B、關(guān)鍵字local定義的變量僅在該函數(shù)內(nèi)可見

C、關(guān)鍵字global定義全局變量時(shí)必須自成一行

D、nonlocal變量不可以在內(nèi)嵌函數(shù)中使用

答案:D

148.當(dāng)特征值大致相等時(shí)。會(huì)發(fā)生的情況是()。

A、PCA將表現(xiàn)出色

B、PCA將表現(xiàn)不佳

C、不知道

D、以上都沒有

答案:B

149.以下說法正確的是()o

A、一個(gè)機(jī)器學(xué)習(xí)模型如果有較高準(zhǔn)確率,總是說明這個(gè)分類器是好的

B、如果增加模型復(fù)雜度,那么模型的測試錯(cuò)誤率不一定會(huì)降低

C、如果增加模型復(fù)雜度,那么模型的訓(xùn)練錯(cuò)誤率總是會(huì)降低

D、-

答案:C

150.下列關(guān)于HDFS的描述正確的是()。

A、如果NameNode宕機(jī),SecondaryNameNode會(huì)接替它使集群繼續(xù)工作

B、HDFS集群支持?jǐn)?shù)據(jù)的隨機(jī)讀寫

CxNameNode磁盤元數(shù)據(jù)不保存Block的位置信息

D、ataNode通過長連接與NameNode保持通信

答案:C

151.以下關(guān)于異常處理的描述,正確的是()。

A、try語句中有except子句就不能有finally子句

B、Python中,可以用異常處理捕獲程序中的所有錯(cuò)誤

C、引發(fā)一個(gè)不存在索引的列表元素會(huì)引發(fā)NameError錯(cuò)誤

DxPython中允許利用raise語句由程序主動(dòng)引發(fā)異常

答案:D

152.()不是Spark服務(wù)層的功能。

A、SQL查詢

B、實(shí)時(shí)處理

C、機(jī)器學(xué)習(xí)

D、內(nèi)存計(jì)算

答案:D

153.標(biāo)準(zhǔn)正態(tài)分布的均數(shù)與標(biāo)準(zhǔn)差是()。

A、0,1

B、1,0

C、0,0

D、1,1

答案:A

154.Numpy中確定隨機(jī)數(shù)生成種子使用以下哪個(gè)的函數(shù)是。。

A、np.random)

B、np.random,seed)

C\np.uniform)

D、np.eig)

答案:B

155.以下跟RNN相關(guān)的是()o

A、梯度消失

B\時(shí)間步

C、梯度爆炸

D、以上答案都正確

答案:D

156.圖像中虛假輪廓的出現(xiàn)就其本質(zhì)而言是()o

A、圖像的灰度級數(shù)不夠多而造成的

B、圖像的空間分辨率不夠高而造成的

C、圖像的灰度級數(shù)過多而造成的

D、圖像的空間分辨率過高而造成的

答案:A

157.下列去噪方法中,能較好地保持圖像邊緣的去噪方法是()o

A、中值濾波

B、雙邊濾波

C、均值濾波

D、高斯濾波

答案:A

158.以下關(guān)于break,continue的說法,正確的是()。

A、continue語句被用來告訴Python跳過當(dāng)前循環(huán)塊中的剩余語句,然后繼續(xù)

進(jìn)行下一輪循環(huán);在循環(huán)中break的作用是終止當(dāng)前循環(huán)結(jié)構(gòu)的后續(xù)操作,一旦

程序運(yùn)行了break,循環(huán)也就終止了

B、reak語句被用來告訴Python跳過當(dāng)前循環(huán)塊中的剩余語句,然后繼續(xù)進(jìn)行

下一輪循環(huán),;在循環(huán)中continue的作用是終止當(dāng)前循環(huán)結(jié)構(gòu)的后續(xù)操作,一

旦程序運(yùn)行了continue,循環(huán)也就終止了

C、break,continue語句被用來告訴Python跳過當(dāng)前循環(huán)塊中的剩余語句,然

后繼續(xù)進(jìn)行下一輪循環(huán)

D、在循環(huán)中break,continue的作用是終止當(dāng)前循環(huán)結(jié)構(gòu)的后續(xù)操作,一旦程序

運(yùn)行了break循環(huán)也就終止了

答案:A

159.ZooKeeper的特點(diǎn)描述錯(cuò)誤的是0。

A、復(fù)雜性

B、自我復(fù)制

C、順序訪問

D、高速讀取

答案:A

16O.scipy中,線性模塊是以下哪個(gè)()模塊()。

A、fftpack

B、signaI

C、IinaIg

D、ndimage

答案:C

161.一組數(shù)據(jù)的最大值與最小值之差叫作做()。

A、標(biāo)準(zhǔn)差

B、極差

C、方差

D、極小值

答案:B

162.下列數(shù)據(jù)類型中,Numpy不支持以下哪種數(shù)據(jù)類型的是()。

A、fIoat32

B、uint64

Cxbool

D、byte

答案:D

163.對模型進(jìn)行超參數(shù)優(yōu)化,詳盡搜索指定參數(shù)的估計(jì)值使用以下哪種()方法

()O

A、ParameterGrid)

B、ParametersIer)

C、GridSearchCV)

D、RandomizedSearchCV)

答案:C

164.常用的數(shù)據(jù)歸約方法可以分為。。

A、維歸約、數(shù)據(jù)壓縮

B、維歸約、參數(shù)歸約

C、維歸約、值歸約

D、數(shù)據(jù)壓縮、值歸約

答案:C

165.()的基本想法是適當(dāng)考慮一部分屬性間的相互依賴信息,從而既不需要進(jìn)

行完全聯(lián)合概率計(jì)算,又不至于徹底忽略了比較強(qiáng)的屬性依賴關(guān)系。

A、貝葉斯判定準(zhǔn)則

B、貝葉斯決策論

C、樸素貝葉斯分類器

D、半樸素貝葉斯分類器

答案:D

166.Relief是為()問題設(shè)計(jì)的。

A、二分類

B、多分類

C、回歸

D、降維

答案:A

167.現(xiàn)階段的大數(shù)據(jù)技術(shù)體系主要類型不包括()。

A、數(shù)據(jù)源與App

B、基礎(chǔ)設(shè)施

C、Hadoop

D、數(shù)據(jù)資源

答案:C

168.scipy中模塊io的作用是0o

A、差值計(jì)算

B、程序輸入輸出

C、稀疏矩陣

D、優(yōu)化

答案:B

169.關(guān)于Python賦值語句,以下選項(xiàng)中不合法的是()。

A、x=1;y=1

B、x=y=1

C\x—(y—1)

D、x,y=y,x

答案:C

170.選擇哪一個(gè)解作為輸出,將由學(xué)習(xí)算法的歸納偏好決定,常見的做法是引入

()O

A、線性回歸

B、線性判別分析

C、正則化項(xiàng)

D、偏置項(xiàng)

答案:C

171.請以下代碼的輸出結(jié)果為()。

A、[312]

B、[120]

C、[123]

D、123

答案:B

172.Numpy默認(rèn)產(chǎn)生的數(shù)據(jù)類型是()。

Axint16

B、fIoat32

C、har

D、fIoat64

答案:D

173.客戶端從HDFS上讀取數(shù)據(jù)時(shí)會(huì)()o

A、從NameNode上獲取數(shù)據(jù)

B、從DataNode上獲取Block位置

C、從NameNode上獲取Block位置

D、從NameNode上獲取數(shù)據(jù)和Block位置

答案:C

174.jieba分詞包含的分詞模式有()。

A、精確模式

B、全模式

C、搜索引擎模式

D、以上答案都正確

答案:D

175.如果字符串中有*需要匹配,需要輸入的正則表達(dá)式為()。

A、\*

B、W*

C、*

D、(*)

答案:A

176.np.where([[True,False].[True,True]],[[1,2].[3,4]],[[9,8].[7,6]]),

最終的輸出結(jié)果是()O

A、[[1,4],[9,7]]

B、[[1,3].[9,7]]

C、[[1,8].[3,4]]

D、[[2,9].[3,6]]

答案:C

177.數(shù)據(jù)科學(xué)中,人們開始注意到傳統(tǒng)數(shù)據(jù)處理方式中普遍存在的“信息丟失”

現(xiàn)象,進(jìn)而數(shù)據(jù)處理范式從()轉(zhuǎn)向()。

A、產(chǎn)品在先,數(shù)據(jù)在后范式;數(shù)據(jù)在先,產(chǎn)品在后范式或無模式

B、模式在先,產(chǎn)品在后范式;產(chǎn)品在先,模式在后范式或無模式

C、數(shù)據(jù)在先,模式在后范式或無模式;模式在先,數(shù)據(jù)在后范式

D、模式在先,數(shù)據(jù)在后范式;數(shù)據(jù)在先,模式在后范式或無模式

答案:D

178.數(shù)據(jù)安全技術(shù)保護(hù)與信息系統(tǒng)“三同步”原則不包括以下哪項(xiàng)()。

A、同步規(guī)劃

B、同步建設(shè)

C、同步使用

D、同步運(yùn)維

答案:D

179.下列關(guān)于Nimipy的簡單介紹,不正確的是。。

AxNumpy(NumericaIPython)是Python語言的一個(gè)擴(kuò)展程序庫

B、支持大量的維度數(shù)組與矩陣運(yùn)算

C、針對數(shù)組運(yùn)算提供大量的數(shù)學(xué)函數(shù)庫

D、Numpy不開放源代碼

答案:D

180.討論變量之間的關(guān)系,主要有三個(gè)方法:()、方差分析和回歸分析三個(gè)方

法。

A、參數(shù)分析

B、邏輯分析

C、假設(shè)分析

D、相關(guān)分析

答案:D

181.Hadoop中,()執(zhí)行文件系統(tǒng)命名空間操作。

A、DataNode

B、NameNode

C、JobTracker

D、TaskTracker

答案:B

182.數(shù)據(jù)科學(xué)基本原則中,”基于數(shù)據(jù)的智能”的主要特點(diǎn)是0o

A、數(shù)據(jù)簡單、但算法簡單

B、數(shù)據(jù)復(fù)雜、但算法簡單

C、數(shù)據(jù)簡單、但算法復(fù)雜

D、數(shù)據(jù)復(fù)雜、但算法復(fù)雜

答案:B

183.[i**iforiinrange(3)]的運(yùn)行結(jié)果是()。

A、[1,1,4]

B、[0,1,4]

C、[1,2,3]

D、(0,1,4)

答案:A

184.考察一個(gè)由三個(gè)卷積層組成的CNN:kerne1=3X3,stride=2,padding二SAM

Eo最低層輸出100個(gè)特征映射(featuremap),中間層200個(gè)特征映射,最高

層400個(gè)特征映射。輸入是200X300的RGB圖片,則總參數(shù)的數(shù)量是()。

A、903400

B、2800

C、180200

D、720400

答案:A

185.在MapReduce中,以下描述錯(cuò)誤的有()。

A、Worker故障和Master故障的處理方法不相同

BxMap和Reduce的處理結(jié)果都存儲(chǔ)在本地文件系統(tǒng)

C、一個(gè)Worker發(fā)生故障時(shí),該節(jié)點(diǎn)上執(zhí)行完的Map任務(wù)需要再次執(zhí)行

D、MapReduce具有很強(qiáng)的容錯(cuò)機(jī)制

答案:B

186.sklearn中對模型進(jìn)行選擇主要是依靠()模塊。

A、decomposition

B、model_seIection

C、Iinear_modeI

D、mixture

答案:B

187.下列不屬于數(shù)據(jù)科學(xué)跨平臺(tái)基礎(chǔ)設(shè)施和分析工具的是()o

A、微軟Azure

B、Google云平臺(tái)

C、阿里云

D、Adobephotoshop

答案:D

188.數(shù)據(jù)產(chǎn)品開發(fā)工作之中需要特別注意的基本活動(dòng)不包括()。

A、創(chuàng)造性設(shè)計(jì)

B、數(shù)據(jù)洞見

C、虛擬化

D、個(gè)性化描述

答案:D

189.假設(shè)有n組數(shù)據(jù)集,每組數(shù)據(jù)集中,x的平均值都是9,x的方差都是11,v

的平均值都是7.50,x與y的相關(guān)系數(shù)都是0.816,擬合的線性回歸方程都是y

=3.00+0.500xo那么這n組數(shù)據(jù)集()。

A、一樣

B、不一樣

C、無法確定是否一樣

D、-

答案:C

190.一組數(shù)據(jù)相加后除以數(shù)據(jù)個(gè)數(shù)得到的值叫作做()o

A、最大值

B、平均值

C、中位數(shù)

D、眾數(shù)

答案:B

191.下面關(guān)于詞袋模型的說法,錯(cuò)誤的是()o

A、詞袋模型使用一個(gè)多重集對文本中出現(xiàn)的單詞進(jìn)行編碼

B、詞袋模型不考慮詞語原本在句子中的順序

C、詞袋模型可以應(yīng)用于文檔分類和檢索,同時(shí)受到編碼信息的限制

D、詞袋模型產(chǎn)生的靈感來源于包含類似單詞的文檔經(jīng)常有相似的含義

答案:C

192.任一隨機(jī)事件出現(xiàn)的概率為()o

A、在-1與1之間

B、小于0

C、不小于1

D、在0與1之間

答案:D

193.()模塊是python標(biāo)準(zhǔn)庫中最常用的模塊之一。通過它可以獲取命令行參

數(shù),從而實(shí)現(xiàn)從程序外部向程序內(nèi)部傳遞參數(shù)的功能,也可以獲取程序路徑和當(dāng)

前系統(tǒng)平臺(tái)等信息。

A、sys

B、pIatform

C、math

D、time

答案:A

194.假設(shè)你正在訓(xùn)練一個(gè)LSTM網(wǎng)絡(luò),你有一個(gè)10000詞的詞匯表,并且使用一

個(gè)激活值維度為100的LSTM塊,在每一個(gè)時(shí)間步中,「u的維度是()。

A、1

B、100

C、300

D、10000

答案:B

195.使用pyplot.plot畫圖時(shí),x,、y的參數(shù)的值的數(shù)據(jù)類型是()。

A、char

B、float

C、array

D、ataFrame

答案:C

196.隨機(jī)森林是在()上的一個(gè)擴(kuò)展變體。

A、Boosting

B、AdaBoost

C、RF

D、Bagging

答案:D

197.機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的關(guān)系是。。

A、深度學(xué)習(xí)包含機(jī)器學(xué)習(xí)

B、機(jī)器學(xué)習(xí)包含深度學(xué)習(xí)

C、二者是獨(dú)立的

D、二者相互促進(jìn)

答案:B

198.以下程序的輸出的結(jié)果正確的是。。

A、[[16171819][24252627][28293031][4567]]

B、[[16171819][891011][4567][28293031]

C、[[891011][4567]]

D、error

答案:A

199.對于PCA(主成分分析)轉(zhuǎn)化過的特征,樸素貝葉斯的不依賴假設(shè)總是成立,

因?yàn)樗兄饕煞质钦坏?,這個(gè)說法是()。

A、正確的

B、錯(cuò)誤的

C、一

D、一

答案:B

200.()負(fù)責(zé)HDFS數(shù)據(jù)存儲(chǔ)。

AxNameNode

B、Jobtracker

C、DataNode

D、SecondsryNameNode

答案:C

201.pit.show)函數(shù)的作用是()o

Av展示圖像

B、畫直方圖

C\保存圖像

D、畫散點(diǎn)圖

答案:A

202.以下關(guān)于DNN說法不正確的是()。

A、層數(shù)多

B、抽象能力強(qiáng)

C、模擬更復(fù)雜模型

D、廣義上包含CNN、DBN、SVM等

答案:D

203.DNN常用的激活函數(shù)有()。

A、sigmoid

B、tanh

C、ReLU

D、以上答案都正確

答案:D

204.下列關(guān)于支持向量機(jī)優(yōu)化性問題的形式,說法正確的是()。

A、它是一個(gè)凸二次規(guī)劃問題

B、它是一個(gè)凸一次規(guī)劃問題

C、它是一個(gè)凹二次規(guī)劃問題

D、它是一個(gè)凹一次規(guī)劃問題

答案:A

205.基本元數(shù)據(jù)是指0o

A、基本元數(shù)據(jù)是與數(shù)據(jù)源、數(shù)據(jù)倉庫、數(shù)據(jù)集市和應(yīng)用程序等結(jié)構(gòu)相關(guān)的信息

B、基本元數(shù)據(jù)包括與企業(yè)相關(guān)的管理方面的數(shù)據(jù)和信息

C、基本元數(shù)據(jù)包括日志文件和簡歷執(zhí)行處理的時(shí)序調(diào)度信息

D、基本元數(shù)據(jù)包括關(guān)于裝載和更新處理、分析處理以及管理方面的信息

答案:D

206.在一些算法中,為了進(jìn)行屬性之間的比較或運(yùn)算,需要把不同屬性的不同變

量取值范圍變換成同一范圍,以免使得結(jié)果發(fā)生出曲,偏向取值范圍大的變量。

這一過程稱為()。

A、合并

B、數(shù)據(jù)聚合

C、歸一化

D、數(shù)據(jù)處理

答案:C

207.列表中可以放多少()個(gè)字符串。。

A、1

B、255

C、無限個(gè)

D、由用戶自己定義

答案:C

208.對于兩次調(diào)用文件的write方法,以下選項(xiàng)中描述正確的是()。

A、連續(xù)寫入的數(shù)據(jù)之間無分隔符

B、連續(xù)寫入的數(shù)據(jù)之間默認(rèn)采用換行分隔

C、連續(xù)寫入的數(shù)據(jù)之間默認(rèn)采用空格分隔

D、連續(xù)寫入的數(shù)據(jù)之間默認(rèn)采用逗號分隔

答案:A

209.scipyScipy中的圖像處理模塊是哪個(gè)()。

A、image

B、ndimage

C、photo

D、optimize

答案:B

210.數(shù)據(jù)產(chǎn)品開發(fā)的關(guān)鍵環(huán)節(jié)是()

A、數(shù)據(jù)收集

B、數(shù)據(jù)預(yù)處理

C、數(shù)據(jù)學(xué)習(xí)

D、數(shù)據(jù)加工

答案:D

211.下列語句在Python中是不合法的有()。

A、i="A"+2

B、i=True+2

C、x,y=y,x

D、x=y=z=1

答案:A

212.關(guān)于Python的全局變量和局部變量,以下選項(xiàng)中描述錯(cuò)誤的是()。

A、局部變量指在函數(shù)內(nèi)部使用的變量,當(dāng)函數(shù)退出時(shí),變量依然存在,下次函

數(shù)調(diào)用可以繼續(xù)使用

B、使用global保留字聲明簡單數(shù)據(jù)類型變量后,該變量作為全局變量使用

C、簡單數(shù)據(jù)類型變量無論是否與全局變量重名,僅在函數(shù)內(nèi)部創(chuàng)建和使用,函

數(shù)退出后變量被釋放

D、全局變量指在函數(shù)之外定義的變量,一般沒有縮進(jìn),在程序執(zhí)行全過程有效

答案:A

213.在matplotIib中,調(diào)用直方圖的函數(shù)是()。

A、plot)

B、scatter)

C、bar)

D、hist)

答案:D

214.卷積的過程是讓過濾器在圖像上進(jìn)行()。

A、縮放

B、剪切

C、窗口滑動(dòng)

D、鏡像對稱

答案:C

215.關(guān)于Python內(nèi)存管理,下列說法錯(cuò)誤的是哪項(xiàng)()。

A、變量不必事先聲明

B、變量無須先創(chuàng)建和賦值而直接使用

C、變量無須指定類型

D、可以使用del釋放資源

答案:B

216.()選擇是直接把最終將要使用的學(xué)習(xí)器的性能作為特征子集的評價(jià)準(zhǔn)則。

A、嵌入式

B、過濾式

C、包裹式

D、一體式

答案:C

217.matplotlib中的調(diào)用堆積折線圖的函數(shù)是什么()。

Axstep)

B、stackpIot)

C、pIuspIot)

D、hist)

答案:B

218.下列關(guān)于HDFS的描述正確的是()。

A、如果NameNode宕機(jī),SecondaryNameNode會(huì)接替它使集群繼續(xù)工作

B、HDFS集群支持?jǐn)?shù)據(jù)的隨機(jī)讀寫

CvNameNode磁盤元數(shù)據(jù)不保存Block的位置信息

D、ataNode通過長連接與NameNode保持通信

答案:C

219.以下分割方法中不屬于區(qū)域算法的是()。

A、分裂合并

B、閾值分割

C、區(qū)域生長

D、邊緣檢測

答案:D

220.在pandas中,使用pivot_table函數(shù)制作透視表用以下那個(gè)參數(shù)()設(shè)置

行分組鍵()。

Axindex

B、raw

C、vaIues

D、ata

答案:A

221.平滑圖像處理可以采用RGB彩色()模型。

A、直方圖均衡化

B、直方圖均衡化

C、加權(quán)均值濾波

D、中值濾波

答案:C

222.()不是長短時(shí)記憶神經(jīng)網(wǎng)絡(luò)三個(gè)門中的一個(gè)門。

A、輸入門

B、輸出門

C、遺忘門

D、進(jìn)化門

答案:D

223.以下有關(guān)計(jì)算機(jī)編程語言說法錯(cuò)誤的是()。

A、編程語言是用于書寫計(jì)算機(jī)程序的語言;

B、計(jì)算機(jī)語言可分為機(jī)器語言、匯編語言、高級語言;

C、計(jì)算機(jī)能識(shí)別和執(zhí)行所有編程語言寫的程序

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論