2025年人工智能-智能算法考試題庫(kù)及答案_第1頁(yè)
2025年人工智能-智能算法考試題庫(kù)及答案_第2頁(yè)
2025年人工智能-智能算法考試題庫(kù)及答案_第3頁(yè)
2025年人工智能-智能算法考試題庫(kù)及答案_第4頁(yè)
2025年人工智能-智能算法考試題庫(kù)及答案_第5頁(yè)
已閱讀5頁(yè),還剩74頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

2025年人工智能-智能算法考試題庫(kù)及

答案(最新版)

一、單項(xiàng)選擇題

1.神經(jīng)網(wǎng)絡(luò)由許多神經(jīng)元(Neuron)組成,每個(gè)神經(jīng)元接受一個(gè)輸入,

對(duì)輸入進(jìn)行處理后給出一個(gè)輸出。請(qǐng)問(wèn)下列關(guān)于神經(jīng)元的描述中,哪

一項(xiàng)是正確的?

A、每個(gè)神經(jīng)元可以有一個(gè)輸入和一個(gè)輸出

B、每個(gè)神經(jīng)元可以有多個(gè)輸入和一個(gè)輸出

C、每個(gè)神經(jīng)元可以有多個(gè)輸入和多個(gè)輸出

D、上述都正確

標(biāo)準(zhǔn)答案:B

2.哪個(gè)不是常用的聚類(lèi)算法O。

A、K-Means

B、DBSCAN

C、GMMs

D、Softmax

標(biāo)準(zhǔn)答案:D

解析:Softmax不是常用的聚類(lèi)算法。

3.高層的特征是低層特征的組合,從低層到高層的特征表達(dá)越來(lái)越O,

也即越來(lái)越能表現(xiàn)語(yǔ)義或者意圖。

A、具體和形象化

B、抽象和概念化

C、具體和概念化

D、抽象和具體化

標(biāo)準(zhǔn)答案:B

解析:高層的特征是低層特征的組合,從低層到高層的特征表達(dá)越來(lái)

越抽象和概念化,也即越來(lái)越能表現(xiàn)語(yǔ)義或者意圖。

4.關(guān)于bagging下列說(shuō)法錯(cuò)誤的是:O

A、各基分類(lèi)器之間有較強(qiáng)依賴(lài),不可以進(jìn)行并行訓(xùn)練。

B、最著名的算法之一是基于決策樹(shù)基分類(lèi)器的隨機(jī)森林。

C、當(dāng)訓(xùn)練樣本數(shù)量較少時(shí),子集之間可能有重疊。

D、為了讓基分類(lèi)器之間互相獨(dú)立,需要將訓(xùn)練集分為若干子集。

標(biāo)準(zhǔn)答案:A

5.數(shù)據(jù)在完成特征工程的操作后,在構(gòu)建模型的過(guò)程中,以下哪個(gè)選

項(xiàng)不屬于決策樹(shù)構(gòu)建過(guò)程當(dāng)中的步驟?

A、剪枝

B、特征選取

C、數(shù)據(jù)清理

D、決策樹(shù)生成

標(biāo)準(zhǔn)答案:C

6.通過(guò)以下哪些指標(biāo)我們可以在層次聚類(lèi)中尋找兩個(gè)集群之間的差

異?()

A、單鏈接

B、全鏈接

C、均鏈接

D、以上都行

標(biāo)準(zhǔn)答案:D

7.下述()不是人工智能中常用的知識(shí)格式化表示方法。

A、框架表示法

B、產(chǎn)生式表示法

C、語(yǔ)義網(wǎng)絡(luò)表示法

D、形象描寫(xiě)表示法

標(biāo)準(zhǔn)答案:D

8.比較成熟的分類(lèi)預(yù)測(cè)模型算法包括Logistic回歸模型、廣義線(xiàn)性

模型、()、神經(jīng)網(wǎng)絡(luò)

A、決策樹(shù)

B、arima模型

C、holt-winter模型

D、k-means模型

標(biāo)準(zhǔn)答案:A

9.在pytorch中,設(shè)模型變量名為model,則對(duì)model.eval()的描述

正確的是

A、model,eval()可以在模型訓(xùn)練階段使用

B、model,eval()只能在模型測(cè)試階段使用

C、model,eval()在模型驗(yàn)證、模型測(cè)試階段都可以使用

D、model,eval()在模型訓(xùn)練、模型驗(yàn)證、模型測(cè)試階段都可以使用

標(biāo)準(zhǔn)答案:C

解析:在pytorch中,model,eval在模型驗(yàn)證、模型測(cè)試階段都可以

使用

10.O控制著整個(gè)LSTM單元的狀態(tài)或者記憶,它會(huì)根據(jù)每個(gè)時(shí)刻的

輸入進(jìn)行更新。

A、隱狀態(tài)向量

B、狀態(tài)向量

C、顯狀態(tài)向量

D、以上都不對(duì)

標(biāo)準(zhǔn)答案:B

解析:狀態(tài)向量控制著整個(gè)LSTM單元的狀態(tài)或者記憶,它會(huì)根據(jù)每

個(gè)時(shí)刻的輸入進(jìn)行更新。

H.早期圖像識(shí)別技術(shù)中存在的主要問(wèn)題是()。

A、全局特征丟掉了圖像細(xì)節(jié)

B、提取不到主要特征

C、存儲(chǔ)效率低下

D、太多的錯(cuò)誤匹配

標(biāo)準(zhǔn)答案:A

解析:早期圖像識(shí)別技術(shù)中存在的主要問(wèn)題是全局特征丟掉了圖像細(xì)

節(jié)。

12.FPN中根據(jù)R0I的()來(lái)分配所屬層級(jí)?

A、分類(lèi)分?jǐn)?shù)

B、最大邊長(zhǎng)度

C、面積

D、nan

標(biāo)準(zhǔn)答案:C

13.隨機(jī)森林是一種集成學(xué)習(xí)算法,是()算法的具體實(shí)現(xiàn)。

A、Boosting

B、Bagging

C、Stacking

D、Dropping

標(biāo)準(zhǔn)答案:B

解析:隨機(jī)森林是一種集成學(xué)習(xí)算法,是Bagging算法的具體實(shí)現(xiàn)。

14.深度學(xué)習(xí)是當(dāng)前很熱門(mén)的機(jī)器學(xué)習(xí)算法,在深度學(xué)習(xí)中,涉及到

大量的矩陣相乘,現(xiàn)在需要計(jì)算三個(gè)稠密矩陣A,B,C的乘積ABC,假

設(shè)三個(gè)矩陣的尺寸分別為m?n,n?p,p?q,且m〈n

A、(AB)C

B、AC(B)

C、A(BC)

D、所有效率都相同

標(biāo)準(zhǔn)答案:A

15.對(duì)完成特定任務(wù)的卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練采用的是監(jiān)督學(xué)習(xí)方法。在

這個(gè)過(guò)程中,通過(guò)誤差后向傳播來(lái)優(yōu)化調(diào)整網(wǎng)絡(luò)參數(shù),請(qǐng)問(wèn)下面哪個(gè)

參數(shù)不是通過(guò)誤差后向傳播來(lái)優(yōu)化的

A、卷積濾波矩陣中的參數(shù)

B、全連接層的鏈接權(quán)重

C、激活函數(shù)中的參數(shù)

D、模型的隱藏層數(shù)目

標(biāo)準(zhǔn)答案:D

16.下列不屬于樹(shù)模型的是

A、GBDT梯度提升樹(shù)

B、XGBoost

C、RF隨機(jī)森林

D、LR線(xiàn)性回歸

標(biāo)準(zhǔn)答案:D

17.fasterRCNN用于生成候選框proposal的模塊名稱(chēng)()

A、RPN

B、CNN

C、ResNet

D、Rolpooling

標(biāo)準(zhǔn)答案:A

解析:fasterRCNN用于生成候選框proposal的模塊是RPN

18.LSTM用于文本分類(lèi)的任務(wù)中,不會(huì)出現(xiàn)的網(wǎng)絡(luò)層是()

A、全連接

B、詞嵌入層

C、卷積層

D、以上選項(xiàng)均不正確

標(biāo)準(zhǔn)答案:C

19.假設(shè)你需要調(diào)整超參數(shù)來(lái)最小化代價(jià)函數(shù)(costfunction),會(huì)使

用下列哪項(xiàng)技術(shù)?

A、窮舉搜索

B、隨機(jī)搜索

C、Bayesian優(yōu)化

D、都可以

標(biāo)準(zhǔn)答案:D

20.R0IPooling在那個(gè)模型中被第一次提出()

A、fast-rcnn

B、faster-rcnn

C、mask-rcnn

D、rcnn

標(biāo)準(zhǔn)答案:A

21.以下關(guān)于特征工程的說(shuō)法不正確的是

A、特征工程指的是把原始數(shù)據(jù)轉(zhuǎn)變?yōu)槟P偷挠?xùn)練數(shù)據(jù)的過(guò)程

B、它的目的就是獲取更好的訓(xùn)練數(shù)據(jù)特征,使得機(jī)器學(xué)習(xí)模型逼近

這個(gè)上限

C、特征工程在機(jī)器學(xué)習(xí)中占有非常重要的作用,一般認(rèn)為括特征構(gòu)

建、特征提取、特征選擇三個(gè)部分。

D、特征提取是從特征集合中挑選一組具有明顯物理或統(tǒng)計(jì)意義的特

征子集。

標(biāo)準(zhǔn)答案:D

22.關(guān)于遞歸函數(shù)基例的說(shuō)明,以下選項(xiàng)中錯(cuò)誤的是

A、遞歸函數(shù)必須有基例

B、遞歸函數(shù)的基例不再進(jìn)行遞歸

C、每個(gè)遞歸函數(shù)都只能有一個(gè)基例

D、遞歸函數(shù)的基例決定遞歸的深度

標(biāo)準(zhǔn)答案:C

23.線(xiàn)性回歸方法是假定條件屬性和決策屬性之間存在線(xiàn)性關(guān)系,然

后通過(guò)訓(xùn)練數(shù)據(jù)擬合出一個(gè)()方程,并使用該方程去預(yù)測(cè)未知的新

實(shí)例。

A、一元一次

B、線(xiàn)性

C、二元一次

D、多元

標(biāo)準(zhǔn)答案:B

24.考慮某個(gè)具體問(wèn)題時(shí),你可能只有少量數(shù)據(jù)來(lái)解決這個(gè)問(wèn)題。不

過(guò)幸運(yùn)的是你有一個(gè)類(lèi)似問(wèn)題已經(jīng)預(yù)先訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)??梢杂孟?/p>

面哪種方法來(lái)利用這個(gè)預(yù)先訓(xùn)練好的網(wǎng)絡(luò)?

A、把除了最后一層外所有的層都凍結(jié),重新訓(xùn)練最后一層

B、對(duì)新數(shù)據(jù)重新訓(xùn)練整個(gè)模型

C、只對(duì)最后幾層進(jìn)行調(diào)參(finetune)

D、對(duì)每一層模型進(jìn)行評(píng)估,選擇其中的少數(shù)來(lái)用

標(biāo)準(zhǔn)答案:C

25.()采用多種樂(lè)器的音頻數(shù)據(jù),可融合多種國(guó)家、樂(lè)曲風(fēng)格和樂(lè)

器音色的特征,創(chuàng)作音樂(lè)作品。

A、XLNet

B、GoogleNet

C、MuseNet

D、AlexNet

標(biāo)準(zhǔn)答案:C

解析:MuseNet采用多種樂(lè)器的音頻數(shù)據(jù),可融合多種國(guó)家、樂(lè)曲風(fēng)

格和樂(lè)器音色的特征,創(chuàng)作音樂(lè)作品。

26.下列哪個(gè)不是激活函數(shù)()。

A、sigmod

B、relu

C、tanh

D、hidden

標(biāo)準(zhǔn)答案:D

解析:hidden不是激活函數(shù)。

27.長(zhǎng)短期記憶LSTM具有與循環(huán)神經(jīng)網(wǎng)絡(luò)相似的控制流,兩者的區(qū)別

在于LSTM中增加了O導(dǎo)致單元內(nèi)的處理過(guò)程不同。

A、輸入門(mén)

B、記憶門(mén)

C、忘記門(mén)

D、輸出門(mén)

標(biāo)準(zhǔn)答案:C

解析:長(zhǎng)短期記憶LSTM具有與循環(huán)神經(jīng)網(wǎng)絡(luò)相似的控制流,兩者的

區(qū)別在于LSTM中增加了忘記門(mén)導(dǎo)致單元內(nèi)的處理過(guò)程不同。

28.批規(guī)范化(BatchNormalization)的好處都有啥?

A、讓每一層的輸入的范圍都大致固定

B、它將權(quán)重的歸一化平均值和標(biāo)準(zhǔn)差

C、它是一種非常有效的反向傳播(BP)方法

D、這些均不是

標(biāo)準(zhǔn)答案:A

29.深度學(xué)習(xí)是當(dāng)前很熱門(mén)的機(jī)器學(xué)習(xí)算法,在深度學(xué)習(xí)中,涉及到

大量的矩陣相乘,現(xiàn)在需要計(jì)算三個(gè)稠密矩陣A,B,C的乘積ABC,假

設(shè)三個(gè)矩陣的尺寸分別為m?n,n?p,p?q,且m〈n

A、(AB)C

B、AC(B)

C、A(BC)

D、所有效率都相同

標(biāo)準(zhǔn)答案:A

30.下面哪項(xiàng)操作能實(shí)現(xiàn)跟神經(jīng)網(wǎng)絡(luò)中Dropout的類(lèi)似效果?()

A、Boosting

B、Bagging

C、Stacking

D、Mapping

標(biāo)準(zhǔn)答案:B

31.我們可以將深度學(xué)習(xí)看成一種端到端的學(xué)習(xí)方法,這里的端到端

指的是

A、輸入端-輸出端

B、輸入端-中間端

C、輸出端-中間端

D、中間端-中間端

標(biāo)準(zhǔn)答案:A

32.語(yǔ)音是一種典型的O數(shù)據(jù)。

A、無(wú)結(jié)構(gòu)無(wú)序列

B、有結(jié)構(gòu)序列

C、無(wú)結(jié)構(gòu)序列

D、有結(jié)構(gòu)無(wú)序列

標(biāo)準(zhǔn)答案:C

解析:語(yǔ)音是一種典型的無(wú)結(jié)構(gòu)序列數(shù)據(jù)。

33.CNN網(wǎng)絡(luò)設(shè)計(jì)中,學(xué)習(xí)率的設(shè)置往往對(duì)訓(xùn)練收斂起到關(guān)鍵作用,關(guān)

于學(xué)習(xí)率的說(shuō)法,錯(cuò)誤的是()

A、學(xué)習(xí)率太小,更新速度慢

B、學(xué)習(xí)率過(guò)大,可能跨過(guò)最優(yōu)解

C、學(xué)習(xí)率也是有網(wǎng)絡(luò)學(xué)習(xí)而來(lái)

D、學(xué)習(xí)率可在網(wǎng)絡(luò)訓(xùn)練過(guò)程中更改

標(biāo)準(zhǔn)答案:C

解析:CNN網(wǎng)絡(luò)設(shè)計(jì)中,學(xué)習(xí)率的設(shè)置往往對(duì)訓(xùn)練收斂起到關(guān)鍵作用,

關(guān)于學(xué)習(xí)率的說(shuō)法,錯(cuò)誤的是學(xué)習(xí)率也是有網(wǎng)絡(luò)學(xué)習(xí)而來(lái)

34.為應(yīng)對(duì)卷積網(wǎng)絡(luò)模型中大量的權(quán)重存儲(chǔ)問(wèn)題,研究人員在適量犧

牲精度的基礎(chǔ)上設(shè)計(jì)出一款超輕量化模型()

A、KNN

B、RNN

C、BNN

D、VGG

標(biāo)準(zhǔn)答案:C

解析:為應(yīng)對(duì)卷積網(wǎng)絡(luò)模型中大量的權(quán)重存儲(chǔ)問(wèn)題,研究人員在適量

犧牲精度的基礎(chǔ)上設(shè)計(jì)出一款超輕量化模型BNN

35.()是使用某一位置的相鄰輸出的總體統(tǒng)計(jì)特征來(lái)代替網(wǎng)絡(luò)在該

位置的輸出

A、卷積

B、約化

C、池化

D、批歸一化

標(biāo)準(zhǔn)答案:C

解析:池化是使用某一位置的相鄰輸出的總體統(tǒng)計(jì)特征來(lái)代替網(wǎng)絡(luò)在

該位置的輸出

36.關(guān)于梯度下降算法描述正確的是:

A、梯度下降算法就是不斷的更新w和b的值

B、梯度下降算法就是不斷的更新w和b的導(dǎo)數(shù)值

C、梯度下降算法就是不斷尋找損失函數(shù)的最大值

D、梯度下降算法就是不斷更新學(xué)習(xí)率

標(biāo)準(zhǔn)答案:A

解析:梯度下降算法就是不斷的更新w和b的值

37.下述O不是人工智能中常用的知識(shí)格式化表示方法。

A、框架表示法

B、產(chǎn)生式表示法

C、語(yǔ)義網(wǎng)絡(luò)表示法

D、形象描寫(xiě)表示法

標(biāo)準(zhǔn)答案:D

38.下列可以用于聚類(lèi)問(wèn)題的機(jī)器學(xué)習(xí)算法有()

A、決策樹(shù)

B、k-means

C、隨機(jī)森林

D、邏輯回歸

標(biāo)準(zhǔn)答案:B

39.在廢棄階段,廢棄銷(xiāo)毀使用目的不復(fù)存在或者有更好解決方法替

換的人工智能系統(tǒng),主要包括數(shù)據(jù)、()以及系統(tǒng)整體的廢棄銷(xiāo)毀過(guò)

程。

A、算法

B、模型

C、程序

D、算法模型

標(biāo)準(zhǔn)答案:D

解析:在廢棄階段,廢棄銷(xiāo)毀使用目的不復(fù)存在或者有更好解決方法

替換的人工智能系統(tǒng),主要包括數(shù)據(jù)、算法模型以及系統(tǒng)整體的廢棄

銷(xiāo)毀過(guò)程。

40.對(duì)于神經(jīng)網(wǎng)絡(luò)的說(shuō)法,下面正確的是()

A、增加神經(jīng)網(wǎng)絡(luò)層數(shù),可能會(huì)增加測(cè)試數(shù)據(jù)集的分類(lèi)錯(cuò)誤率

B、減少神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小測(cè)試數(shù)據(jù)集的分類(lèi)錯(cuò)誤率

C、增加神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小訓(xùn)練數(shù)據(jù)集的分類(lèi)錯(cuò)誤率

D、1、2都對(duì)

標(biāo)準(zhǔn)答案:A

41.按照類(lèi)別比例分組的k折用的是哪個(gè)函數(shù)()

A、RepeatedKFold

B、StratifiedKFold

C、LeavePOut

D、GroupKFold

標(biāo)準(zhǔn)答案:B

42.高層的特征是低層特征的組合,從低層到高層的特征表達(dá)越來(lái)越

(),也即越來(lái)越能表現(xiàn)語(yǔ)義或者意圖。

A、具體和形象化

B、抽象和概念化

C、具體和概念化

D、抽象和具體化

標(biāo)準(zhǔn)答案:B

解析:高層的特征是低層特征的組合,從低層到高層的特征表達(dá)越來(lái)

越抽象和概念化,也即越來(lái)越能表現(xiàn)語(yǔ)義或者意圖。

43.關(guān)于模型參數(shù)(權(quán)重值)的描述,錯(cuò)誤的說(shuō)法是

A、在訓(xùn)練神經(jīng)網(wǎng)絡(luò)過(guò)程中,參數(shù)不斷調(diào)整,其調(diào)整的依據(jù)是基于損

失函數(shù)不斷減少

B、每一次Epoch都會(huì)對(duì)之前的參數(shù)進(jìn)行調(diào)整,迭代次數(shù)越多,損失

函數(shù)一般越小

C、模型參數(shù)量越多越好,沒(méi)有固定的對(duì)應(yīng)規(guī)則

D、訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型存儲(chǔ)于一定結(jié)構(gòu)的神經(jīng)元之間的權(quán)重和神

經(jīng)元的偏置中

標(biāo)準(zhǔn)答案:C

解析:幾乎模型每個(gè)操作所需的時(shí)間和內(nèi)存代價(jià)都會(huì)隨模型參數(shù)量的

增加而增加

44.以下程序的輸出是()?array=np.array

([[1,2,3],[4,5,6],[7,8,9],[10,11,12]]);print(array,shape)

A、(4,3)

B、(3,4)

C、3

D、4

標(biāo)準(zhǔn)答案:A

解析:見(jiàn)算法解析

45.下列關(guān)于深度學(xué)習(xí)說(shuō)法錯(cuò)誤的是A、LSTM在一定程度上解決了傳

統(tǒng)RNN梯度消失或梯度爆炸的問(wèn)題

A、STING

B、Waveluster

C、MAFI

D、IRH

標(biāo)準(zhǔn)答案:D

46.VGG-19中卷積核的大小為

A、3x3

B、5x5

C、3x3,5x5

D、不確定

標(biāo)準(zhǔn)答案:A

解析:VGG-19中卷積核的大小為3x

47.CRF(條件隨機(jī)場(chǎng))和HMM(隱馬爾可夫模型)之間的主要區(qū)別是

什么?

A、CRF是生成式的,而HMM是判別式模型

B、CRF是判別式模型,州M是生成式模型。

C、CRF和H刪都是生成式模型

D、CRF和HMM都是判別式模型。

標(biāo)準(zhǔn)答案:B

48.產(chǎn)生式系統(tǒng)的推理不包括()

A、正向推理

B、逆向推理

C、雙向推理

D、簡(jiǎn)單推理

標(biāo)準(zhǔn)答案:D

49.在20K文檔的輸入數(shù)據(jù)上為機(jī)器學(xué)習(xí)模型創(chuàng)建了文檔一詞矩陣

(document-termmatrix)。以下哪項(xiàng)可用于減少數(shù)據(jù)維度?(1)關(guān)

鍵詞歸一化(KeywordNormalization)(2)潛在語(yǔ)義索引

(LatentSemanticIndexing)(3)隱狄利克雷分布

(LatentDirichletAllocation)

A、只有(1)

B、(2)、(3)

C、⑴、(3)

D、(1)、(2)、(3)

標(biāo)準(zhǔn)答案:D

50.以下哪種卷積神經(jīng)網(wǎng)絡(luò)的設(shè)計(jì)引入了殘差網(wǎng)絡(luò)結(jié)構(gòu)()

A、混沌度沒(méi)什么影響

B、混沌度越低越好

C、混沌度越高越好

D、混沌度對(duì)于結(jié)果的影響不一定

標(biāo)準(zhǔn)答案:B

51.循環(huán)神經(jīng)網(wǎng)絡(luò)優(yōu)于全連接網(wǎng)絡(luò)的一個(gè)原因是循環(huán)神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)了

權(quán)值共享,那么權(quán)值共享的好處有:①.模型參數(shù)變少②.運(yùn)算速度變

快③.占用內(nèi)存少④.所有權(quán)值都共享同一個(gè)值

A、①③④

B、①②③

C、①③④

D、①②④

標(biāo)準(zhǔn)答案:B

解析:循環(huán)神經(jīng)網(wǎng)絡(luò)優(yōu)于全連接網(wǎng)絡(luò)的一個(gè)原因是循環(huán)神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)

了權(quán)值共享,那么權(quán)值共享的好處有:①.模型參數(shù)變少②.運(yùn)算速度

變快③.占用內(nèi)存少

52.以下屬于生成式模型的是:O

A、SVM

B、隨機(jī)森林

C、隱馬爾可夫模型HMM

D、邏輯回歸

標(biāo)準(zhǔn)答案:C

53.一階規(guī)則的基本成分是()

A、原子命題

B、謂詞

C、量詞

D、原子公式

標(biāo)準(zhǔn)答案:D

解析:見(jiàn)算法解析

54.線(xiàn)性回歸在3維以上的維度中擬合面是?

A、曲面

B、平面

C、超平面

D、超曲面

標(biāo)準(zhǔn)答案:C

55.關(guān)于MNIST,下列說(shuō)法錯(cuò)誤的是0。

A、是著名的手寫(xiě)體數(shù)字識(shí)別數(shù)據(jù)集

B、有訓(xùn)練集和測(cè)試集兩部分

C、訓(xùn)練集類(lèi)似人學(xué)習(xí)中使用的各種考試試卷

D、測(cè)試集大約包含10000個(gè)樣本和標(biāo)簽

標(biāo)準(zhǔn)答案:C

56.在卷積操作過(guò)程中計(jì)算featuremap的尺寸:設(shè)圖像大小為

300*300,卷積核大小為3*3,卷積窗口移動(dòng)的步長(zhǎng)為1,則

featuremaps的大小是()個(gè)元素?

A、78400

B、88804

C、91204

D、99856

標(biāo)準(zhǔn)答案:B

解析:見(jiàn)算法解析

57.自然語(yǔ)言中的詞語(yǔ)需要轉(zhuǎn)化為計(jì)算機(jī)可以記錄處理的數(shù)據(jù)結(jié)構(gòu),

通常會(huì)把自然語(yǔ)言中的詞語(yǔ)轉(zhuǎn)化為以下哪種數(shù)據(jù)結(jié)構(gòu):

A、標(biāo)量

B、向量

C、結(jié)構(gòu)體

D、有向圖

標(biāo)準(zhǔn)答案:B

解析:自然語(yǔ)言中的詞語(yǔ)需要轉(zhuǎn)化為計(jì)算機(jī)可以記錄處理的數(shù)據(jù)結(jié)構(gòu),

通常會(huì)把自然語(yǔ)言中的詞語(yǔ)轉(zhuǎn)化為向量。

58.循環(huán)神經(jīng)網(wǎng)絡(luò)中,假設(shè)輸入是一個(gè)32*32*3的圖像,3表示RGB三

通道,卷積核的結(jié)構(gòu)是5*5*3,共6個(gè)不同的卷積核,一個(gè)卷積核產(chǎn)

生一個(gè)featuremap,則輸出的featuremap矩陣的結(jié)構(gòu)是()。

A、27*27*3

B、28*28*3

C、27*27*6

D、28*28*6

標(biāo)準(zhǔn)答案:D

解析:循環(huán)神經(jīng)網(wǎng)絡(luò)中,假設(shè)輸入是一個(gè)32*32*3的圖像,3表示RGB

三通道,卷積核的結(jié)構(gòu)是5*5*3,共6個(gè)不同的卷積核,一個(gè)卷積核

產(chǎn)生一個(gè)featuremap,則輸出的featuremap矩陣的結(jié)構(gòu)是28*28*6。

59.fromsklearnimportlinear_modelreg=linear_model.Lasso,其中

Lasso是用來(lái)擬合什么樣的線(xiàn)性模型的?

A、稀疏數(shù)據(jù)

B、稀疏系數(shù)

C、稀疏標(biāo)簽

標(biāo)準(zhǔn)答案:B

60.如果問(wèn)題存在最優(yōu)解,則下面幾種搜索算法中,哪一個(gè)必然可以

得到該最優(yōu)解

A、廣度優(yōu)先搜索

B、深度優(yōu)先搜索

C、有界深度優(yōu)先搜索

D、啟發(fā)式搜索

標(biāo)準(zhǔn)答案:A

解析:廣度優(yōu)先搜索搜索的范圍最廣

61.在強(qiáng)化學(xué)習(xí)過(guò)程中,()表示隨機(jī)地采取某個(gè)動(dòng)作,以便于嘗試各種

結(jié)果;()表示采取當(dāng)前認(rèn)為最優(yōu)的動(dòng)作,以便于進(jìn)一步優(yōu)化評(píng)估當(dāng)前

認(rèn)為最優(yōu)的動(dòng)作的值。

A、探索

B、開(kāi)發(fā)

C、開(kāi)發(fā)

D、探索

E、探索

標(biāo)準(zhǔn)答案:A

62.對(duì)于一個(gè)分類(lèi)任務(wù),如果開(kāi)始時(shí)神經(jīng)網(wǎng)絡(luò)的權(quán)重不是隨機(jī)賦值的,

而是都設(shè)成0,下面哪個(gè)敘述是正確的?

A、其他選項(xiàng)都不對(duì)

B、沒(méi)啥問(wèn)題,神經(jīng)網(wǎng)絡(luò)會(huì)正常開(kāi)始訓(xùn)練

C、神經(jīng)網(wǎng)絡(luò)可以訓(xùn)練,但是所有的神經(jīng)元最后都會(huì)變成識(shí)別同樣的

東西

D、神經(jīng)網(wǎng)絡(luò)不會(huì)開(kāi)始訓(xùn)練,因?yàn)闆](méi)有梯度改變

標(biāo)準(zhǔn)答案:C

63.下列哪些不是〃子集搜索〃中的搜索方式(一)

A、單向搜索

B、雙向搜索

C、前向搜索

D、后向搜索

標(biāo)準(zhǔn)答案:A

64.LARS屬于哪種特征選擇方法(一)

A、包裹式

B、啟發(fā)式

C、嵌入式

D、過(guò)濾式

標(biāo)準(zhǔn)答案:C

65.生成式方法是直接基于(一)的方法?

A、生成式學(xué)習(xí)

B、生成式場(chǎng)景

C、生成式數(shù)據(jù)

D、生成式模型

標(biāo)準(zhǔn)答案:D

66.下面哪個(gè)敘述是對(duì)的?Dropout對(duì)一個(gè)神經(jīng)元隨機(jī)屏蔽輸入權(quán)重

Dropconnect對(duì)一個(gè)神經(jīng)元隨機(jī)屏蔽輸入和輸出權(quán)重

A、1是對(duì)的,2是錯(cuò)的

B、都是對(duì)的

C、1是錯(cuò)的,2是對(duì)的

D、都是錯(cuò)的

標(biāo)準(zhǔn)答案:D

67.機(jī)器學(xué)習(xí)中做特征選擇時(shí),下面方法或信息不一定有用的是

A、卡方檢驗(yàn)

B、信息增益

C、數(shù)據(jù)采樣

D、期望交叉燧

標(biāo)準(zhǔn)答案:C

68.下列關(guān)于特征選擇的說(shuō)法錯(cuò)誤的是()

A、可以提高特征關(guān)聯(lián)性

B、可以減輕維數(shù)災(zāi)難問(wèn)題

C、可以降低學(xué)習(xí)任務(wù)的難度

D、特征選擇和降維具有相似的動(dòng)機(jī)

標(biāo)準(zhǔn)答案:A

69.全局梯度下降算法、隨機(jī)梯度下降算法和批量梯度下降算法均屬

于梯度下降算法,以下關(guān)于其有優(yōu)缺點(diǎn)說(shuō)法錯(cuò)誤的是:

A、全局梯度算法可以找到損失函數(shù)的最小值

B、批量梯度算法可以解決局部最小值問(wèn)題

C、隨機(jī)梯度算法可以找到損失函數(shù)的最小值

D、全局梯度算法收斂過(guò)程比較耗時(shí)

標(biāo)準(zhǔn)答案:C

70.下面的問(wèn)題,屬于分類(lèi)問(wèn)題的是;

A、根據(jù)員工的薪水、工作壓力、成長(zhǎng)環(huán)境、工作年限、績(jī)效考核等數(shù)

據(jù),預(yù)測(cè)員工在接下來(lái)一段時(shí)間內(nèi)的工資漲幅

B、根據(jù)員工的薪水、工作壓力、成長(zhǎng)環(huán)境、工作年限、績(jī)效考核等數(shù)

據(jù),預(yù)測(cè)員工下一季度的績(jī)效考核分?jǐn)?shù)

C、根據(jù)員工的薪水、工作壓力、成長(zhǎng)環(huán)境、工作年限、績(jī)效考核等數(shù)

據(jù),預(yù)測(cè)員工是否可能會(huì)在接下來(lái)的一段時(shí)間內(nèi)離職

D、根據(jù)員工的薪水、工作壓力、成長(zhǎng)環(huán)境、工作年限、績(jī)效考核等數(shù)

據(jù),預(yù)測(cè)員工下一季度的銷(xiāo)售額

標(biāo)準(zhǔn)答案:C

71.關(guān)于精度與錯(cuò)誤率的說(shuō)法中錯(cuò)誤的是()。

A、精度與錯(cuò)誤率的和為1

B、精度與錯(cuò)誤率都可以反映模型的好壞

C、精度與錯(cuò)誤率都可以用概率密度函數(shù)表示

D、精度是評(píng)價(jià)模型的唯一標(biāo)準(zhǔn)

標(biāo)準(zhǔn)答案:D

解析:精度是不是評(píng)價(jià)模型的唯一標(biāo)準(zhǔn)

72.如果問(wèn)題存在最優(yōu)解,則下面幾種搜索算法中,廣度優(yōu)先搜索必

然可以得到該最優(yōu)解,O可以認(rèn)為是〃智能程度相對(duì)比較高〃的算法。

A、無(wú)界深度優(yōu)先搜索

B、深度優(yōu)先搜索

C、有界深度優(yōu)先搜索

D、啟發(fā)式搜索

標(biāo)準(zhǔn)答案:D

73.下列哪個(gè)函數(shù)不可以做非線(xiàn)性激活函數(shù)?()

A、y=tanh(x)

B、y=sin(x)

C、y=max(x,0)

D、y=2x

標(biāo)準(zhǔn)答案:D

74.Softmax算法中溫度趨近于0時(shí)Softmax將趨于()

A、僅探索

B、僅利用

C、全探索

D、全利用

標(biāo)準(zhǔn)答案:B

75.閔可夫斯基距離表示為曼哈頓距離時(shí),p為()。

A、1

B、2

C、3

D、4

標(biāo)準(zhǔn)答案:A

解析:閔可夫斯基距離定義為:該距離最常用的P是2和1,前者是

歐幾里得距離),后者是曼哈頓距離。

76.下面的問(wèn)題,哪一個(gè)屬于分類(lèi)問(wèn)題的是()

A、根據(jù)員工的薪水、工作壓力、成長(zhǎng)環(huán)境、工作年限、績(jī)效考核等數(shù)

據(jù),預(yù)測(cè)員工下一季度的銷(xiāo)售額

B、根據(jù)員工的薪水、工作壓力、成長(zhǎng)環(huán)境、工作年限、績(jī)效考核等數(shù)

據(jù),預(yù)測(cè)員工下一季度的績(jī)效考核分?jǐn)?shù)

C、根據(jù)員工的薪水、工作壓力、成長(zhǎng)環(huán)境、工作年限、績(jī)效考核等數(shù)

據(jù),預(yù)測(cè)員工在接下來(lái)一段時(shí)間內(nèi)的工資漲幅

D、根據(jù)員工的薪水、工作壓力、成長(zhǎng)環(huán)境、工作年限、績(jī)效考核等數(shù)

據(jù),預(yù)測(cè)員工是否可能會(huì)在接下來(lái)的一段時(shí)間內(nèi)離職

標(biāo)準(zhǔn)答案:D

77.Relief屬于哪種特征選擇方法()

A、包裹式

B、啟發(fā)式

C、嵌入式

D、過(guò)濾式

標(biāo)準(zhǔn)答案:D

78.哪種聚類(lèi)方法采用概率模型來(lái)表達(dá)聚類(lèi)()

A、K-means

C、循環(huán)神經(jīng)網(wǎng)

D、李生網(wǎng)絡(luò)

標(biāo)準(zhǔn)答案:C

解析:LSTM是一種循環(huán)神經(jīng)網(wǎng)絡(luò)

79.在經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)模型中,Softmax函數(shù)是跟在什么隱藏層

后面的?

A、卷積層

B、池化層

C、全連接層

D、以上都可以

標(biāo)準(zhǔn)答案:C

80.回歸分析中定義的()

A、解釋變量和被解釋變量都是隨機(jī)變量

B、解釋變量為非隨機(jī)變量,被解釋變量為隨機(jī)變量

C、解釋變量和被解釋變量都為非隨機(jī)變量

D、解釋變量為隨機(jī)變量,被解釋變量為非隨機(jī)變量

標(biāo)準(zhǔn)答案:B

81.如果強(qiáng)行限制輸出層的分布是標(biāo)準(zhǔn)化的,可能會(huì)導(dǎo)致某些特征模

式的丟失,所以在標(biāo)準(zhǔn)化之后,BatchNorm會(huì)緊接著對(duì)數(shù)據(jù)做縮放和

O

A、平移

B、刪除

C、移動(dòng)

D、收斂

標(biāo)準(zhǔn)答案:A

解析:如果強(qiáng)行限制輸出層的分布是標(biāo)準(zhǔn)化的,可能會(huì)導(dǎo)致某些特征

模式的丟失,所以在標(biāo)準(zhǔn)化之后,BatchNorm會(huì)緊接著對(duì)數(shù)據(jù)做縮放

和平移

82.關(guān)于MNIST,下列說(shuō)法錯(cuò)誤的是()。

A、是著名的手寫(xiě)體數(shù)字識(shí)別數(shù)據(jù)集

B、有訓(xùn)練集和測(cè)試集兩部分

C、訓(xùn)練集類(lèi)似人學(xué)習(xí)中使用的各種考試試卷

D、測(cè)試集大約包含10000個(gè)樣本和標(biāo)簽

標(biāo)準(zhǔn)答案:C

83.Relu在零點(diǎn)不可導(dǎo),那么在反向傳播中怎么處理()

A、設(shè)為0

B、設(shè)為無(wú)窮大

C、不定義

D、設(shè)為任意值

標(biāo)準(zhǔn)答案:A

84.如果問(wèn)題存在最優(yōu)解,則下面幾種搜索算法中,O必然可以得到

該最優(yōu)解。

A、廣度優(yōu)先搜索

B、深度優(yōu)先搜索

C、有界深度優(yōu)先搜索

D、啟發(fā)式搜索

標(biāo)準(zhǔn)答案:A

解析:廣度優(yōu)先搜索會(huì)根據(jù)離起點(diǎn)的距離,按照從近到遠(yuǎn)的順序?qū)Ω?/p>

節(jié)點(diǎn)進(jìn)行搜索。而深度優(yōu)先搜索會(huì)沿著一條路徑不斷往下搜索直到不

能再繼續(xù)為止,然后再折返,開(kāi)始搜索下一條路徑。廣度優(yōu)先搜索可

以找出節(jié)點(diǎn)的最短路徑,即可以解決最短路徑問(wèn)題。有界深度優(yōu)先搜

索為了解決深度有限搜索誤入無(wú)窮分支,定出一個(gè)深度界限,在找尋

達(dá)到這一深度界限而且還沒(méi)有找到目標(biāo)時(shí),即返回重找。

啟發(fā)式搜索是利用問(wèn)題擁有的啟發(fā)信息來(lái)引導(dǎo)搜索,達(dá)到減少搜索范

圍、降低問(wèn)題復(fù)雜度的目的,可以消除組合爆炸,并得到令人能接受

的解(通常并不一定是最佳解)。所以如果存在最優(yōu)解,廣度優(yōu)先搜索

必然可以得到最優(yōu)解,答案選A

85.在前饋神經(jīng)網(wǎng)絡(luò)中,誤差后向傳播(BP算法)將誤差從輸出端向

輸入端進(jìn)行傳輸?shù)倪^(guò)程中,算法會(huì)調(diào)整前饋神經(jīng)網(wǎng)絡(luò)的什么參數(shù)

A、輸入數(shù)據(jù)大小

B、神經(jīng)元和神經(jīng)元之間連接有無(wú)

C、相鄰層神經(jīng)元和神經(jīng)元之間的連接權(quán)重

D、同一層神經(jīng)元之間的連接權(quán)重

標(biāo)準(zhǔn)答案:C

86.下列哪個(gè)是CNN網(wǎng)絡(luò)的超參數(shù)。

A、權(quán)重

B、偏置

C、激活函數(shù)

D、學(xué)習(xí)率

標(biāo)準(zhǔn)答案:D

解析:學(xué)習(xí)率是CNN網(wǎng)絡(luò)的超參數(shù)。

87.神經(jīng)元之間的每個(gè)連接都有()權(quán)重。

A、一個(gè)

B、兩個(gè)

C、多個(gè)

D、無(wú)

標(biāo)準(zhǔn)答案:A

解析:神經(jīng)元之間的每個(gè)連接都有一個(gè)權(quán)重。

88.下列哪項(xiàng)不是SVM的優(yōu)勢(shì)

A、可以和核函數(shù)結(jié)合

B、通過(guò)調(diào)參可以往往可以得到很好的分類(lèi)效果

C、訓(xùn)練速度快

D、泛化能力好

標(biāo)準(zhǔn)答案:C

解析:SVM的訓(xùn)練速度不快

89.問(wèn)答系統(tǒng)中的NLP技術(shù),以下描述不正確的是:

A、問(wèn)答(QA)系統(tǒng)的想法是直接從文檔、對(duì)話(huà)、在線(xiàn)搜索和其他地方

提取信息,以滿(mǎn)足用戶(hù)的信息需求。QA系統(tǒng)不是讓用戶(hù)閱讀整個(gè)文

檔,而是更喜歡簡(jiǎn)短而簡(jiǎn)潔的答案。

B、QA系統(tǒng)相對(duì)獨(dú)立很難與其他NLP系統(tǒng)結(jié)合使用,現(xiàn)有QA系統(tǒng)只

能處理對(duì)文本文檔的搜索,尚且無(wú)法從圖片集合中提取信息。

C、大多數(shù)NLP問(wèn)題都可以被視為一個(gè)問(wèn)題回答問(wèn)題。范例很簡(jiǎn)單:

我們發(fā)出查詢(xún)指令,機(jī)器提供響應(yīng)。通過(guò)閱讀文檔或一組指令,智能

系統(tǒng)應(yīng)該能夠回答各種各樣的問(wèn)題。

D、強(qiáng)大的深度學(xué)習(xí)架構(gòu)(稱(chēng)為動(dòng)態(tài)內(nèi)存網(wǎng)絡(luò)(DMN))已針對(duì)QA問(wèn)題

進(jìn)行了專(zhuān)門(mén)開(kāi)發(fā)和優(yōu)化。給定輸入序列(知識(shí))和問(wèn)題的訓(xùn)練集,它

可以形成情節(jié)記憶,并使用它們來(lái)產(chǎn)生相關(guān)答案。

標(biāo)準(zhǔn)答案:B

90.Word2Vec提出了哪兩個(gè)算法訓(xùn)練詞向量?

A、COBWSoftmax

B、Softmax.CBOW

C、CBOW、Skip-gramD

D、Skip-gramCOBWC

標(biāo)準(zhǔn)答案:C

解析:Word2Vec提出了兩個(gè)算法訓(xùn)練詞向量

91.lou表示的是()

A、兩個(gè)框之間的重疊程度

B、兩個(gè)框的總面積

C、兩個(gè)框的相對(duì)大小

D、一個(gè)框面積與周長(zhǎng)比值

標(biāo)準(zhǔn)答案:A

92.下列哪個(gè)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)會(huì)發(fā)生權(quán)重共享

A、卷積神經(jīng)網(wǎng)絡(luò)&

B、&循環(huán)神經(jīng)網(wǎng)絡(luò)&

C、&全連接神經(jīng)網(wǎng)絡(luò)&

D、&卷積和循環(huán)神經(jīng)網(wǎng)絡(luò)

標(biāo)準(zhǔn)答案:D

93.關(guān)于貝葉斯網(wǎng)的學(xué)習(xí)描述錯(cuò)誤的為(一)

A、貝葉斯的學(xué)習(xí)過(guò)程為對(duì)訓(xùn)練樣本計(jì)數(shù);

B、估計(jì)出每個(gè)結(jié)點(diǎn)的條件概率;

C、網(wǎng)絡(luò)結(jié)構(gòu)為已知;

D、評(píng)分搜索為求解的常用辦法;

標(biāo)準(zhǔn)答案:C

94.影響基本K-均值算法的主要因素不包括下列哪一個(gè)選項(xiàng)?

A、樣本輸入順序

B、模式相似性測(cè)度

C、聚類(lèi)準(zhǔn)則

D、初始類(lèi)中心的選取

標(biāo)準(zhǔn)答案:C

95.對(duì)于一個(gè)圖像識(shí)別問(wèn)題(在一張照片里找出一只貓),下面哪種神

經(jīng)網(wǎng)絡(luò)可以更好地解決這個(gè)問(wèn)題?

A、循環(huán)神經(jīng)網(wǎng)絡(luò)

B、感知機(jī)

C、多層感知機(jī)

D、卷積神經(jīng)網(wǎng)絡(luò)

標(biāo)準(zhǔn)答案:D

96.主成分分析是一種數(shù)據(jù)降維和去除相關(guān)性的方法,它通過(guò)()將

向量投影到低維空間。

A、線(xiàn)性變換

B、非線(xiàn)性變換

C、拉布拉斯變換

D、z變換

標(biāo)準(zhǔn)答案:A

解析:主成分分析是一種數(shù)據(jù)降維和去除相關(guān)性的方法,它通過(guò)線(xiàn)性

變換將向量投影到低維空間。

97.在主成分分析中,將幾個(gè)主分量經(jīng)過(guò)線(xiàn)性組合構(gòu)造為一個(gè)綜合評(píng)

價(jià)函數(shù)時(shí),每個(gè)主分量的權(quán)數(shù)為()。

A、每個(gè)主分量的方差

B、每個(gè)主分量的標(biāo)準(zhǔn)差

C、每個(gè)主分量的方差貢獻(xiàn)率

D、每個(gè)主分量的貢獻(xiàn)率

標(biāo)準(zhǔn)答案:C

解析:在主成分分析中,將幾個(gè)主分量經(jīng)過(guò)線(xiàn)性組合構(gòu)造為一個(gè)綜合

評(píng)價(jià)函數(shù)時(shí),每個(gè)主分量的權(quán)數(shù)為每個(gè)主分量的方差貢獻(xiàn)率。

98.以下關(guān)于Bagging(裝袋法)的說(shuō)法不正確的是

A、能提升機(jī)器學(xué)習(xí)算法的穩(wěn)定性和準(zhǔn)確性,但難以避免overfitting

B、Bagging(裝袋法)是一個(gè)統(tǒng)計(jì)重采樣的技術(shù),它的基礎(chǔ)是Bootstrap

C、主要通過(guò)有放回抽樣)來(lái)生成多個(gè)版本的預(yù)測(cè)分類(lèi)器,然后把這些

分類(lèi)器進(jìn)行組合

D、進(jìn)行重復(fù)的隨機(jī)采樣所獲得的樣本可以得到?jīng)]有或者含有較少的

噪聲數(shù)據(jù)

標(biāo)準(zhǔn)答案:A

99.語(yǔ)音是一種典型的O數(shù)據(jù)。

A、無(wú)結(jié)構(gòu)無(wú)序列

B、有結(jié)構(gòu)序列

C、無(wú)結(jié)構(gòu)序列

D、有結(jié)構(gòu)無(wú)序列

標(biāo)準(zhǔn)答案:C

解析:語(yǔ)音是一種典型的無(wú)結(jié)構(gòu)序列數(shù)據(jù)。

100.在RNN中,目前使用最廣泛的模型便是O模型,該模型能夠更

好地建模長(zhǎng)序列。

A、SLTM

B、SLMT

C、LSMT

D、LSTM

標(biāo)準(zhǔn)答案:D

解析:在RNN中,目前使用最廣泛的模型便是LSTM模型,該模型能

夠更好地建模長(zhǎng)序列。

101.關(guān)于線(xiàn)性回歸的描述,以下正確的有()

A、基本假設(shè)包括隨機(jī)干擾項(xiàng)是均值為0,方差為1的標(biāo)準(zhǔn)正態(tài)分布

B、基本假設(shè)包括隨機(jī)干擾項(xiàng)是均值為0的同方差正態(tài)分布

C、多重共線(xiàn)性會(huì)使得參數(shù)估計(jì)值方差減小

D、基本假設(shè)包括不服從正態(tài)分布的隨機(jī)干擾項(xiàng)

標(biāo)準(zhǔn)答案:B

解析:線(xiàn)性回歸的基本假設(shè)是隨機(jī)干擾項(xiàng)是均值為0的同方差正態(tài)分

二.多項(xiàng)選擇題

1.在自然語(yǔ)言處理任務(wù)中,首先需要考慮字、詞如何在計(jì)算機(jī)中表示。

通常,有兩種表示方式:()表示和()表示

A、on-hot

B、one-hot

C、分布式

D、集中式

標(biāo)準(zhǔn)答案:BC

2.非線(xiàn)性核SVM研究重點(diǎn)是設(shè)計(jì)快速近似算法,包括()

A、隨機(jī)分布

B、隨機(jī)傅里葉特征

C、采樣

D、低秩逼近

標(biāo)準(zhǔn)答案:BCD

3.領(lǐng)域型知識(shí)圖譜的構(gòu)建過(guò)程主要包含哪幾個(gè)部分

A、知識(shí)融合

B、本體構(gòu)建

C、知識(shí)抽取

D、知識(shí)存儲(chǔ)

標(biāo)準(zhǔn)答案:ABCD

4.下列關(guān)于DSSM經(jīng)典模型的結(jié)構(gòu)的說(shuō)法不正確的是()

A、線(xiàn)性

B、雙塔

C、三塔

D、非線(xiàn)性

標(biāo)準(zhǔn)答案:ACD

5.當(dāng)發(fā)現(xiàn)機(jī)器學(xué)習(xí)模型過(guò)擬合時(shí),以下操作正確的是:()

A、降低特征維度

B、增加樣本數(shù)量

C、添加正則項(xiàng)

D、增加特征維度

標(biāo)準(zhǔn)答案:ABC

6.那種機(jī)器學(xué)習(xí)算法不需要對(duì)數(shù)據(jù)進(jìn)行標(biāo)注

A、有監(jiān)督學(xué)習(xí)

B、無(wú)監(jiān)督學(xué)習(xí)

C、強(qiáng)化學(xué)習(xí)

D、深度學(xué)習(xí)

標(biāo)準(zhǔn)答案:BC監(jiān)督學(xué)習(xí)和強(qiáng)化學(xué)習(xí)不需要標(biāo)注

7.數(shù)據(jù)真實(shí)性具備哪兩種特質(zhì)?

A、準(zhǔn)確性

B、不確定性

C、可信賴(lài)度

D、雜亂性

標(biāo)準(zhǔn)答案:AC

8.考慮到RNN(或者LSTM,GRU等)類(lèi)模型只能從()依次計(jì)算或者從

()依次計(jì)算,帶來(lái)了一定的局限性

A、前向后

B、后向前

C、左向右

D、右向左

標(biāo)準(zhǔn)答案:CD

9.深度學(xué)習(xí)中常用的損失函數(shù)有?

A、L1損失函數(shù)

A、輸入層

B、全連接層

C、卷積層

D、池化層

標(biāo)準(zhǔn)答案:BCD

10.下列哪些方法的輸出結(jié)果,通常包含boundingbox?

A、MTCNN

B、FasterRCNN

C、MaskRCNN

D、AlexNet

標(biāo)準(zhǔn)答案:ABC

11.下列哪些項(xiàng)是構(gòu)建知識(shí)圖譜用到的主要技術(shù)?

A、詞性標(biāo)注

B、實(shí)體鏈接

C、關(guān)系抽取

D、命名實(shí)體識(shí)別

標(biāo)準(zhǔn)答案:BCD

12.深度學(xué)習(xí)的訓(xùn)練過(guò)程包括:自下而上的()和自頂向下的()。

A、無(wú)監(jiān)督學(xué)習(xí)

B、監(jiān)督學(xué)習(xí)

C、強(qiáng)化學(xué)習(xí)

D、半監(jiān)督學(xué)習(xí)

標(biāo)準(zhǔn)答案:AB

13.以下哪些機(jī)器學(xué)習(xí)算法可以不對(duì)特征做歸一化處理()

A、隨機(jī)森林

B、邏輯回歸

C、SVM

D、GBDT

標(biāo)準(zhǔn)答案:AD

14.卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)包括O、O、()0

A、輸入層

B、卷積層

C、隱含層

D、輸出層

標(biāo)準(zhǔn)答案:ACD

15.關(guān)于SVM,以下描述正確的是()

A、支持向量機(jī)復(fù)雜度主要與支持向量的數(shù)目有關(guān)

B、支持向量機(jī)訓(xùn)練完成后,大部分的訓(xùn)練樣本都不需保留,最終模

型僅與支持向量有關(guān)

C、SVM中劃分超平面所產(chǎn)生的分類(lèi)結(jié)果是最魯棒的,對(duì)未見(jiàn)示例的泛

化能力最強(qiáng).

D、〃異或〃問(wèn)題可能會(huì)導(dǎo)致空間中樣本線(xiàn)性不可分

標(biāo)準(zhǔn)答案:ABCD

16.文本語(yǔ)料庫(kù)的可能特征是什么?

A、文本中詞計(jì)數(shù)

B、詞的向量標(biāo)注

C、詞性標(biāo)注(PartofSpeechTag)

D、基本依存語(yǔ)法

標(biāo)準(zhǔn)答案:ABCD

17.常見(jiàn)的數(shù)據(jù)增強(qiáng)方式有()

A、對(duì)顏色的數(shù)據(jù)增強(qiáng)

B、添加噪聲(高斯噪聲)

C、水平垂直翻轉(zhuǎn)

D、隨機(jī)旋轉(zhuǎn)、裁剪

標(biāo)準(zhǔn)答案:ABCD

18.預(yù)剪枝使得決策樹(shù)的很多分子都沒(méi)有展開(kāi),會(huì)導(dǎo)致()。

A、顯著減少訓(xùn)練時(shí)間開(kāi)銷(xiāo)

B、顯著減少測(cè)試時(shí)間開(kāi)銷(xiāo)

C、降低過(guò)擬合風(fēng)險(xiǎn)

D、提高欠擬合風(fēng)險(xiǎn)

標(biāo)準(zhǔn)答案:ABCD

解析:預(yù)剪枝就是在構(gòu)造決策樹(shù)的過(guò)程中,先對(duì)每個(gè)結(jié)點(diǎn)在劃分前進(jìn)

行估計(jì),若果當(dāng)前結(jié)點(diǎn)的劃分不能帶來(lái)決策樹(shù)模型泛華性能的提升,

則不對(duì)當(dāng)前結(jié)點(diǎn)進(jìn)行劃分并且將當(dāng)前結(jié)點(diǎn)標(biāo)記為葉結(jié)點(diǎn)

19.影響聚類(lèi)算法結(jié)果的主要因素有()

A、已知類(lèi)別的樣本質(zhì)量

B、分類(lèi)準(zhǔn)則

C、特征選取

D、模式相似性測(cè)度

標(biāo)準(zhǔn)答案:BCD

20.關(guān)于對(duì)數(shù)幾率回歸,以下說(shuō)法正確的是O

A、對(duì)數(shù)幾率回歸是一種分類(lèi)學(xué)習(xí)方法

B、對(duì)數(shù)幾率回歸無(wú)需事先假設(shè)數(shù)據(jù)分布

C、對(duì)數(shù)幾率回歸是可得到近似概率預(yù)測(cè)

D、對(duì)數(shù)幾率回歸任意階可導(dǎo)的凸函數(shù)

標(biāo)準(zhǔn)答案:ABCD

21.卷積神經(jīng)網(wǎng)絡(luò)中的池化層可以減小下層輸入的尺寸。常見(jiàn)的池化

有:

A、最小地化層

B、乘積池化層

C、最大池化層

D、平均池化層

標(biāo)準(zhǔn)答案:CD

22.遺傳算法評(píng)價(jià)的常用方法有()

A、當(dāng)前最好法

B、在線(xiàn)比較法

C、離線(xiàn)比較法

D、都不是

標(biāo)準(zhǔn)答案:ABC

23.以下算法中可以用于圖像處理中去噪的是()。

A、中值濾波

B、均值濾波

C、最小值濾波

D、最大值濾波

標(biāo)準(zhǔn)答案:ABCD

24.常見(jiàn)的聚類(lèi)性能度量?jī)?nèi)部指標(biāo)有()

25.英語(yǔ)重視哪兩個(gè)問(wèn)題的區(qū)分?()

A、謂語(yǔ)與非謂語(yǔ)

B、可數(shù)名詞與不可數(shù)名詞

C、冠詞與數(shù)詞

D、單復(fù)數(shù)

標(biāo)準(zhǔn)答案:BD

26.完整的CNN架構(gòu)除了輸入及輸出外還包含哪些層()

A、全連接層

B、隱藏層

C、卷積層

D、池化層

標(biāo)準(zhǔn)答案:ACD

27.層次聚類(lèi)算法中數(shù)據(jù)集的劃分可采用的策略為()

A、〃自底向上〃的聚合策略

B、〃自底向上〃的分拆策略

C、〃自頂向下〃的聚合策略

D、〃自頂向下〃的分拆策略

標(biāo)準(zhǔn)答案:AD

28.屬于Boosting的擴(kuò)展變體有哪些。

A、正采樣

B、負(fù)采樣

C、多分類(lèi)

D、單分類(lèi)

標(biāo)準(zhǔn)答案:BC

29.k-means算法的典型計(jì)算步驟包括

A、從數(shù)據(jù)點(diǎn)中隨機(jī)選擇數(shù)量與簇的數(shù)量相同的數(shù)據(jù)點(diǎn),作為這些簇

的重心

B、計(jì)算數(shù)據(jù)點(diǎn)與各重心之間的距離,并將最近的重心所在的簇作為

該數(shù)據(jù)點(diǎn)所屬的簇

C、計(jì)算每個(gè)簇的數(shù)據(jù)點(diǎn)到重心距離的平均值,并將其作為新的重心

D、重復(fù)步驟2與步驟3,繼續(xù)計(jì)算,直到所有數(shù)據(jù)點(diǎn)不改變所屬的

簇,或達(dá)到計(jì)算最大次數(shù)

標(biāo)準(zhǔn)答案:ABCD

30.Embedding編碼有哪些特點(diǎn)?

A、特征稠密

B、特征稀疏

C、能夠表征詞與詞之間的相互關(guān)系(相似度計(jì)算)

D、泛化性更好,支持語(yǔ)義運(yùn)算sim

標(biāo)準(zhǔn)答案:ACD

31.Embedding編碼有哪些特點(diǎn)?

A、特征稠密

B、特征稀疏

C、能夠表征詞與詞之間的相互關(guān)系(相似度計(jì)算)

D、泛化性更好,支持語(yǔ)義運(yùn)算sim

標(biāo)準(zhǔn)答案:ACD

32.關(guān)于神經(jīng)網(wǎng)絡(luò)模型的說(shuō)法,哪些是不正確的()

A、神經(jīng)網(wǎng)絡(luò)的工作原理與生物體內(nèi)的神經(jīng)元是完全一樣的

B、訓(xùn)練神經(jīng)網(wǎng)絡(luò)的實(shí)質(zhì)是對(duì)復(fù)雜函數(shù)求參數(shù)最優(yōu)解的過(guò)程

C、增加神經(jīng)網(wǎng)絡(luò)的層數(shù)和增加每層的神經(jīng)元個(gè)數(shù)的效果是一樣的

D、神經(jīng)網(wǎng)絡(luò)只能進(jìn)行二分類(lèi),不能進(jìn)行更多種類(lèi)的分類(lèi)了

標(biāo)準(zhǔn)答案:ACD

解析:SVM常用的核函數(shù)包括:線(xiàn)性核函數(shù)、多項(xiàng)式核函數(shù)、高斯核

函數(shù)、Sigmiod核函數(shù)

33.常見(jiàn)的MRC任務(wù)可以分為四種類(lèi)型:()。

A、完形填空

B、多項(xiàng)選擇

C、片段抽取

D、自由回答

標(biāo)準(zhǔn)答案:ABCD

三.判斷題

1.Python不允許使用關(guān)鍵字作為變量名,允許使用內(nèi)置函數(shù)名作為

變量名,但這會(huì)改變函數(shù)名的含義。

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

2.由于卷積核比較小,可以堆疊更多的卷積層,加深網(wǎng)絡(luò)的深度,這

對(duì)于圖像分類(lèi)任務(wù)來(lái)說(shuō)是不利的。

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:B

3.人工智能的一個(gè)重要分支是PatternRecognition,中文名稱(chēng)是模

式識(shí)別它主要研究視覺(jué)和聽(tīng)覺(jué)的識(shí)別()

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

4.word2vec的訓(xùn)練方式有2種,一個(gè)是根據(jù)上下文預(yù)測(cè)中心詞的CBOW

模型,一種是由中心詞預(yù)測(cè)上下文的skip-gram模型。

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

5.空洞卷積也叫擴(kuò)張卷積,在保持參數(shù)個(gè)數(shù)不變的情況下增大了卷積

核的感受野。

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

6.梯度下降算法是最常用也是最有效的神經(jīng)網(wǎng)絡(luò)的優(yōu)化辦法,完全可

以滿(mǎn)足不同類(lèi)型的需求。()

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:B

7.降維算法是減少構(gòu)建模型所需計(jì)算時(shí)間的方法之一。

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

8.分類(lèi)是預(yù)測(cè)數(shù)據(jù)對(duì)象的離散類(lèi)別,預(yù)測(cè)是用于數(shù)據(jù)對(duì)象的連續(xù)取值

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

9.神經(jīng)網(wǎng)絡(luò)中各個(gè)隱藏層能提取出和人類(lèi)看到的一樣的特征。()

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:B

10.全局最優(yōu)解的函數(shù)損失值最小。

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

11.高方差是指模型過(guò)擬合了,導(dǎo)致在測(cè)試集中的泛化能力較差。

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

12.在決策樹(shù)中,隨著樹(shù)中結(jié)點(diǎn)數(shù)變得太大,即使模型的訓(xùn)練誤差還

在繼續(xù)減低,但是檢驗(yàn)誤差開(kāi)始增大,這是出現(xiàn)了模型擬合不足的問(wèn)

題。

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:B

13.損失函數(shù)與模型函數(shù)是一回事

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:B

14.卷積神經(jīng)網(wǎng)絡(luò)是更善于處理圖像的網(wǎng)絡(luò)

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

15.非線(xiàn)性SVM中,核函數(shù)的選擇對(duì)于SVM的性能至關(guān)重要()

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

解析:非線(xiàn)性SVM中,核函數(shù)的選擇對(duì)于SVM的性能至關(guān)重要O

16.xgboost借鑒了隨機(jī)森林的做法,支持列抽樣,不僅能降低過(guò)擬

合,還能減少計(jì)算。

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

17.池化層減小圖像尺寸即數(shù)據(jù)降維,緩解過(guò)擬合,保持一定程度的

旋轉(zhuǎn)和平移不變性。

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

18.數(shù)據(jù)規(guī)范化是必不可少的預(yù)處理步驟,用于對(duì)值進(jìn)行重新縮放以

適合特定范圍。

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

19.訓(xùn)練時(shí),發(fā)現(xiàn)RNN網(wǎng)絡(luò)收斂速度較慢,這時(shí)需要減小學(xué)習(xí)率

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:B

解析:應(yīng)加大學(xué)習(xí)率

20.人工神經(jīng)元網(wǎng)絡(luò)會(huì)遭遇〃框架問(wèn)題〃0

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:B

21.通用問(wèn)題求解器需要尋找全局最優(yōu)解()

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:B

22.深層神經(jīng)網(wǎng)絡(luò),不添加激活函數(shù)效果也很好。

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:B

23.基于VC維和Rademacher復(fù)雜度推導(dǎo)泛化誤差界,所得到的結(jié)果

均與具體學(xué)習(xí)算法無(wú)關(guān),對(duì)所有學(xué)習(xí)算法都適用

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

24.專(zhuān)家系統(tǒng)本身是一個(gè)程序,它與傳統(tǒng)程序是一樣的

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:B

解析:專(zhuān)家系統(tǒng)本身是一個(gè)程序,它與傳統(tǒng)程序是不同的,例如專(zhuān)家

系統(tǒng)須有知識(shí)庫(kù)和推理機(jī),根據(jù)知識(shí)庫(kù)不斷由一致的事實(shí)推出結(jié)果。

25.如果強(qiáng)行限制輸出層的分布是標(biāo)準(zhǔn)化的,可能會(huì)導(dǎo)致某些特征模

式的丟失,所以在標(biāo)準(zhǔn)化之后,BatchNorm會(huì)緊接著對(duì)數(shù)據(jù)做縮放和

平移

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

26.語(yǔ)義網(wǎng)絡(luò)表達(dá)知識(shí)時(shí),有向弧AK0鏈、ISA鏈?zhǔn)怯脕?lái)表達(dá)節(jié)點(diǎn)知

識(shí)的繼承性。

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

解析:語(yǔ)義網(wǎng)絡(luò)指SemanticNetwork,語(yǔ)義網(wǎng)指SemanticWebo語(yǔ)義

網(wǎng)絡(luò)是由Quillian于上世紀(jì)60年代提出的知識(shí)表達(dá)模式,其用相互

連接的節(jié)點(diǎn)和邊來(lái)表示知識(shí)。

27.GeneticAlgorithms屬于表現(xiàn)型進(jìn)化算法。()

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:B

28.KNN不需要進(jìn)行訓(xùn)練

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

29.如果SVM模型欠擬合,可以通過(guò)減小核系數(shù)(gamma參數(shù))來(lái)改進(jìn)

模型

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:B

解析:gamma參數(shù)是你選擇徑向基函數(shù)作為kernel后,該函數(shù)自帶的

一個(gè)參數(shù).隱含地決定了數(shù)據(jù)映射到新的特征空間后的分布.gamma參

數(shù)與C參數(shù)無(wú)關(guān).gamma參數(shù)越高,模型越復(fù)雜

30.反向傳播算法被設(shè)計(jì)為減少公共子表達(dá)式的數(shù)量并且考慮存儲(chǔ)的

開(kāi)銷(xiāo)。

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:B

解析:反向傳播算法被設(shè)計(jì)為減少公共子表達(dá)式的數(shù)量而不考慮存儲(chǔ)

的開(kāi)銷(xiāo)。

31.卷積神經(jīng)網(wǎng)絡(luò)中,池化層可以理解為局部視野+參數(shù)共享

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:B

32.混沌度(Peirlexity)是一種常見(jiàn)的應(yīng)用在使用深度學(xué)習(xí)處理NLP

問(wèn)題過(guò)程中的評(píng)估技術(shù),混沌度越高越好

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:B

33.FasterRCNN中的ROIpooling,仍能保留pixel-level的輸入輸出

對(duì)應(yīng)

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:B

34.如果允許一條記錄觸發(fā)多條分類(lèi)規(guī)則,把每條被觸發(fā)規(guī)則的后件

看作是對(duì)相應(yīng)類(lèi)的一次投票,然后計(jì)票確定測(cè)試記錄的類(lèi)標(biāo)號(hào),稱(chēng)為

無(wú)序規(guī)則

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

35.網(wǎng)格搜索是一種參數(shù)調(diào)節(jié)的方法。

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:B

36.Mapreduce適用于可以串行處理的應(yīng)用程序

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:B

37.冗余屬性不會(huì)對(duì)決策樹(shù)的準(zhǔn)確率造成不利的影響

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

38.Python集合支持雙向索引。

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:B

解析:不支持

39.決策樹(shù)是一種基于樹(shù)結(jié)構(gòu)進(jìn)行決策的算法。

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

解析:決策樹(shù)是在已知各種情況發(fā)生概率的基礎(chǔ)上,通過(guò)構(gòu)成決策樹(shù)

來(lái)求取凈現(xiàn)值的期望值大于等于零的概率,評(píng)價(jià)項(xiàng)目風(fēng)險(xiǎn),判斷其可

行性的決策分析方法,是直觀運(yùn)用概率分析的一種圖解法。正確

40.計(jì)算學(xué)習(xí)理論研究的是關(guān)于通過(guò)〃計(jì)算〃來(lái)進(jìn)行〃學(xué)習(xí)〃的理論

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

41.如果自變量X和因變量Y之間存在高度的非線(xiàn)性和復(fù)雜關(guān)系,那

么樹(shù)模型很可能優(yōu)于經(jīng)典回歸方法。這個(gè)說(shuō)法正確嗎?

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

42.時(shí)序預(yù)測(cè)回歸預(yù)測(cè)一樣,也是用已知的數(shù)據(jù)預(yù)測(cè)未來(lái)的值,但這

些數(shù)據(jù)的區(qū)別是變量所處時(shí)間的不同

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:B

43.Sigmoid是早期神經(jīng)網(wǎng)絡(luò)模型中常見(jiàn)的非線(xiàn)性變換函數(shù)

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

44.Dropout為在神經(jīng)網(wǎng)絡(luò)過(guò)程中有一定概率暫時(shí)消除神經(jīng)節(jié)點(diǎn),減

少神經(jīng)元之間的相互作用。

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

45.PCA(PrincipalponentAnalysis)算法通過(guò)計(jì)算特征之間的相關(guān)性,

以少量的特征表示具有較多特征的數(shù)據(jù),降低多特征數(shù)據(jù)分析的復(fù)雜

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

46.高方差是指模型過(guò)擬合了,導(dǎo)致在測(cè)試集中的泛化能力較差。

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

47.混合高斯分布對(duì)呈橢圓形分布的數(shù)據(jù)聚類(lèi)效果較好,而k-means

算法對(duì)從重心開(kāi)始呈圓形分布的數(shù)據(jù)聚類(lèi)效果較好

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

48.()把大腦當(dāng)作信息處理裝置的觀點(diǎn)是認(rèn)知心理學(xué)的首要特征。

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

49.Precision不變時(shí),Recall越大,1/Recall越小,從而Fl越大。

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

50.一個(gè)循環(huán)神經(jīng)網(wǎng)絡(luò)可以被展開(kāi)成為一個(gè)完全連接的、具有無(wú)限長(zhǎng)

度的普通神經(jīng)網(wǎng)絡(luò)

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

51.BP神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法的優(yōu)化目標(biāo)是使實(shí)際輸出與期望輸出之間的

誤差平方和最小化。()

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

52.反向傳播是一種用于多層神經(jīng)網(wǎng)絡(luò)的訓(xùn)練算法。它將錯(cuò)誤信息從

網(wǎng)絡(luò)末端傳輸?shù)骄W(wǎng)絡(luò)內(nèi)部的所有權(quán)重。它允許有效地計(jì)算梯度

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

53.卷積的作用:捕獲圖像相鄰像素的依賴(lài)性;起到類(lèi)似濾波器的作

用,得到不同形態(tài)的featuremap

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

54.BoW模型忽略詞的順序,這意味著包含相同單詞的兩個(gè)文檔的表

征是完全相同的。

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

55.1986年,Hinton等人提出了長(zhǎng)短期記憶模型(LSTM)。

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:B

56.從被觸發(fā)規(guī)則中選擇一個(gè)規(guī)則來(lái)執(zhí)行,被執(zhí)行的規(guī)則稱(chēng)為可觸發(fā)

規(guī)則。(F)

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:B

57.Mapreduce適用于可以串行處理的應(yīng)用程序

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:B

58.方差度量了學(xué)習(xí)算法的期望預(yù)測(cè)與真實(shí)結(jié)果的偏離程度,即刻畫(huà)

了學(xué)習(xí)算法本身的擬合能力。

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:B

解析:偏差度量了學(xué)習(xí)算法的期望預(yù)測(cè)與真實(shí)結(jié)果的偏離程度,刻畫(huà)

了學(xué)習(xí)算法本身的擬合能力。方差度量了同樣大小的訓(xùn)練集的變動(dòng)所

導(dǎo)致的學(xué)習(xí)性能的變化,刻畫(huà)了數(shù)據(jù)擾動(dòng)所造成的影響。噪聲表達(dá)了

當(dāng)前任務(wù)上任何學(xué)習(xí)算法所能達(dá)到的期望泛化誤差的下界,也就是最

小值。泛化誤差可以分解為偏差、方差和噪聲之和。

59.決策樹(shù)是一種基于樹(shù)結(jié)構(gòu)進(jìn)行決策的算法。

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

解析:決策樹(shù)是在已知各種情況發(fā)生概率的基礎(chǔ)上,通過(guò)構(gòu)成決策樹(shù)

來(lái)求取凈現(xiàn)值的期望值大于等于零的概率,評(píng)價(jià)項(xiàng)目風(fēng)險(xiǎn),判斷其可

行性的決策分析方法,是直觀運(yùn)用概率分析的一種圖解法。正確

60.Bayes法是一種在已知后驗(yàn)概率與類(lèi)條件概率的情況下的模式分

類(lèi)方法,待分樣本的分類(lèi)結(jié)果取決于各類(lèi)域中樣本的全體

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:B

61.構(gòu)建深度學(xué)習(xí)模型的代碼時(shí),將其中的計(jì)算模塊寫(xiě)入Program中,

可以理解為Program是模型計(jì)算的集合體。

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

62.基于sklearn用機(jī)器學(xué)習(xí)模型進(jìn)行數(shù)據(jù)分析與數(shù)據(jù)挖掘的關(guān)鍵步

驟為load_data()>create_model()>model,fit()>model,transform()

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:B

63.示例學(xué)習(xí)又稱(chēng)為實(shí)例學(xué)習(xí),它是通過(guò)環(huán)境中若干與某個(gè)概念有關(guān)

的例子,經(jīng)歸納得出的一般性概念的一種學(xué)習(xí)方法。()

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

64.深層神經(jīng)網(wǎng)絡(luò),不添加激活函數(shù)效果也很好。

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:B

65.圖像分類(lèi)是根據(jù)圖像的語(yǔ)義信息對(duì)不同類(lèi)別圖像進(jìn)行區(qū)分,是計(jì)

算機(jī)視覺(jué)的核心,是物體檢測(cè)、圖像分割、物體跟蹤、行為分析、人

臉識(shí)別等其他高層次視覺(jué)任務(wù)的基礎(chǔ)

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

66.softmax函數(shù)一般用在多分類(lèi)問(wèn)題中,它是對(duì)邏輯斯蒂回歸

logistic的一種推廣,也被稱(chēng)為多項(xiàng)式邏輯斯蒂回歸模型

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

67.嶺回歸和最小二乘法的算法復(fù)雜度是相同的。

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

68.在現(xiàn)有的深度學(xué)習(xí)模型中,句子情感分類(lèi)通常會(huì)形成一個(gè)聯(lián)合的

三類(lèi)別分類(lèi)問(wèn)題,即預(yù)測(cè)句子為積極、中立或消極。

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

69.支持向量機(jī)SVM屬于深度學(xué)習(xí)網(wǎng)絡(luò)

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:B

解析:支持向量機(jī)SVM不屬于深度學(xué)習(xí)網(wǎng)絡(luò)

70.文本挖掘又稱(chēng)信息檢索,是從大量文本數(shù)據(jù)中提取以前未知的、

有用的、可理解的、可操作的知識(shí)的過(guò)程

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:B

71.正則化是解決過(guò)擬合的方法之一()

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

72.設(shè)有機(jī)器人走迷宮問(wèn)題,其入口坐標(biāo)為(xO,yO),出口坐標(biāo)為

(xt,yt),當(dāng)前機(jī)器人位置為(x,y),若定義,當(dāng)從入口到出口存在通

路時(shí),用A算法求解該問(wèn)題,定能找到從入口到出口的最佳路徑。O

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

73.基于規(guī)則的AI系統(tǒng)由一連串的if-then-else規(guī)則來(lái)進(jìn)行推斷或

行動(dòng)決策。()

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

74.提升卷積核(convolutionalkernel)的大小會(huì)顯著提升卷積神經(jīng)

網(wǎng)絡(luò)的性能,這種說(shuō)法是

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:B

75.Bayes法是一種在已知后驗(yàn)概率與類(lèi)條件概率的情況下的模式分

類(lèi)方法,待分樣本的分類(lèi)結(jié)果取決于各類(lèi)域中樣本的全體

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:B

76.卷積核尺寸一般是奇數(shù)

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

77.可以通過(guò)將所有權(quán)重初始化為0來(lái)訓(xùn)練網(wǎng)絡(luò)

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:B

78.深度學(xué)習(xí)在不同的領(lǐng)域超參數(shù)的設(shè)定不能通用。

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:B

79.經(jīng)典的全連接神經(jīng)網(wǎng)絡(luò)中,隱含層的節(jié)點(diǎn)數(shù)是可以調(diào)整的,節(jié)點(diǎn)

數(shù)越多,神經(jīng)網(wǎng)絡(luò)表示能力越強(qiáng),參數(shù)量也會(huì)減少

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:B

80.廣度優(yōu)先搜索方法的原理是:從樹(shù)的根節(jié)點(diǎn)開(kāi)始,在樹(shù)中一層一

層的查找,當(dāng)找到目標(biāo)節(jié)點(diǎn)時(shí),搜索結(jié)束()。

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

81.基尼指數(shù)越小,數(shù)據(jù)集的純度越高。__

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

82.KNN與K-means區(qū)別在于:KNN是分類(lèi)算法、監(jiān)督學(xué)習(xí),K-means

是聚類(lèi)算法、無(wú)監(jiān)督學(xué)習(xí)。

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

83.先驗(yàn)原理可以表述為:如果一個(gè)項(xiàng)集是頻繁的,那包含它的所有

項(xiàng)集也是頻繁的。

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:B

84.循環(huán)神經(jīng)網(wǎng)絡(luò)按時(shí)間展開(kāi)后就可以通過(guò)反向傳播算法訓(xùn)練了

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

85.樸素貝葉斯分類(lèi)器將會(huì)比判別模型,譬如邏輯回歸收斂得更快,

因此你只需要更少的訓(xùn)練數(shù)據(jù)。其主要缺點(diǎn)是它學(xué)習(xí)不了特征間的交

互關(guān)系。

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

86.GRU含有一個(gè)cell單元,用于存儲(chǔ)中間狀態(tài)

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:B

87.貝葉斯網(wǎng)學(xué)習(xí)而言,模型就是一個(gè)貝葉斯網(wǎng),每個(gè)貝葉斯網(wǎng)描述

了一個(gè)在訓(xùn)練數(shù)據(jù)上的概率分布

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

88.卷積神經(jīng)網(wǎng)絡(luò)中同一卷積層的所有卷積核是權(quán)重共享的。

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

89.人工智能會(huì)受到運(yùn)算能力高低的影響

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

解析:人工智能會(huì)受到運(yùn)算能力高低的限制

90.Logisticregression(邏輯回歸)是一種監(jiān)督式機(jī)器學(xué)習(xí)算法。

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

91.Sigmoid是神經(jīng)網(wǎng)絡(luò)中最常用到的一種激活函數(shù),除非當(dāng)梯度太

大導(dǎo)致激活函數(shù)被彌散,這叫作神經(jīng)元飽和,這就是為什么ReLU會(huì)被

提出來(lái),因?yàn)镽eLU可以使得梯度在正向時(shí)輸出值與原始值一樣。這

意味著在神經(jīng)網(wǎng)絡(luò)中ReLU單元永遠(yuǎn)不會(huì)飽和。

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:B

92.k近鄰法對(duì)給定的訓(xùn)練實(shí)例點(diǎn)和輸入實(shí)例點(diǎn),首先確定輸入實(shí)例

點(diǎn)的k個(gè)最近鄰訓(xùn)練實(shí)例點(diǎn),然后利用這k個(gè)訓(xùn)練實(shí)例點(diǎn)的類(lèi)的多數(shù)

來(lái)預(yù)測(cè)輸入實(shí)例點(diǎn)的類(lèi)。

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

解析:來(lái)自教材原文

93.HSV顏色空間中H的取值范圍為(0,1)

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:B

94.DSSM模型總的來(lái)說(shuō)可以分成三層結(jié)構(gòu),分別是輸入層、表示層和

匹配層

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

95.對(duì)訓(xùn)練數(shù)據(jù)的預(yù)測(cè)效果很好,但對(duì)驗(yàn)證數(shù)據(jù)的預(yù)測(cè)效果不好的現(xiàn)

象稱(chēng)為過(guò)擬合

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

96.先驗(yàn)概率是指根據(jù)以往經(jīng)驗(yàn)和分析得到的概率()

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

97.當(dāng)在卷積神經(jīng)網(wǎng)絡(luò)中加入池化層(poolinglayer)時(shí),變換的不變

性會(huì)被保留

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

98.卷積神經(jīng)網(wǎng)絡(luò)中,卷積層保留主要特征

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:B

99.多層非線(xiàn)性映射(multi-layernonlinearprojection):表示深度

學(xué)習(xí)網(wǎng)絡(luò)的隱層,DSSM使用三個(gè)全連接層,每一層神經(jīng)元的個(gè)數(shù)是

300,然后最后一層的維度是128維度,激活函數(shù)采用tanh

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:B

100.Glove可使用ngram>subword等細(xì)粒度信息

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:B

101.Precision不變時(shí),Recall越大,1/Recall越小,從而F1越大。

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

解析:Precision不變時(shí),Recall越大,1/Recall越小,從而F1越

大;Recall不變時(shí),Precision越大,"Precision越小,從而F1越

大。精確率越高越好,召回率越高越好。正確

102.在關(guān)聯(lián)規(guī)則挖掘中,對(duì)給定的一條關(guān)聯(lián)規(guī)則,它的支持度必然不

小于置信度

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:B

103.GatedRecurrentunits的出現(xiàn)可以幫助防止在RNN中的梯度消失

問(wèn)題。

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

104.假設(shè)x是含有5個(gè)元素的列表,那么切片操作x[10:]是無(wú)法執(zhí)

行的,會(huì)拋出異常。

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:B

解析:見(jiàn)函數(shù)庫(kù)

105.監(jiān)督學(xué)習(xí)的數(shù)據(jù)不需要帶標(biāo)簽等人為標(biāo)注信息

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:B

106.梯度下降算法的收斂點(diǎn)取決于代價(jià)函數(shù)。

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:B

107.決策樹(shù)中不包含外部結(jié)點(diǎn)

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

108.BP網(wǎng)絡(luò)的學(xué)習(xí)過(guò)程是一種誤差修正型學(xué)習(xí)算法,由正向傳播和

反向傳播組成。

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

109.訓(xùn)練集分割為小一點(diǎn)的子集訓(xùn)練,這些子集被取名為mini-batch

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

no.樸素貝葉斯算法不需要樣本特征之間的獨(dú)立同分布。

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:B

Hl.R-CNN的系列算法分成兩個(gè)階段,先在圖像上產(chǎn)生候選區(qū)域,再

對(duì)候選區(qū)域進(jìn)行分類(lèi)并預(yù)測(cè)目標(biāo)物體位置,它們通常被叫做兩階段檢

測(cè)算法。SSD和YOLO算法則只使用一個(gè)網(wǎng)絡(luò)同時(shí)產(chǎn)生候選區(qū)域并預(yù)

測(cè)出物體的類(lèi)別和位置,所以它們通常被叫做單階段檢測(cè)算法。

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

112.數(shù)據(jù)集被劃分成訓(xùn)練集和測(cè)試集,其中訓(xùn)練集用于確定模型的參

數(shù),測(cè)試集用于評(píng)判模型的效果

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

113.當(dāng)在內(nèi)存網(wǎng)絡(luò)中獲得某個(gè)內(nèi)存空間時(shí),通常選擇讀取矢量形式數(shù)

據(jù)而不是標(biāo)量,這里需要基于內(nèi)容的尋址或基于位置的尋址來(lái)完成

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:B

114.邏輯回歸的損失函數(shù)是交叉焙損失函數(shù)。

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

115.AlphaBeta剪枝的效率一定比單純的minimax算法效率高。()

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:B

116.聚類(lèi)分析的相異度矩陣是用于存儲(chǔ)所有對(duì)象兩兩之間相異度的

矩陣,為一個(gè)nn維的單模矩陣

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

H7.簡(jiǎn)單來(lái)說(shuō),機(jī)器學(xué)習(xí)就是通過(guò)算法,使得機(jī)器能從大量歷史數(shù)據(jù)

中學(xué)習(xí)規(guī)律,從而對(duì)新的樣本做智能識(shí)別或?qū)ξ磥?lái)做預(yù)測(cè)。

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

118.Self-OrganizingFeatureMap(SOFM)神經(jīng)網(wǎng)絡(luò)可用于聚類(lèi)。()

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:A

119.反向傳播算法中需要先計(jì)算靠近輸入層參數(shù)的梯度,再計(jì)算靠近

輸出層參數(shù)的梯度。

A、正確

B、錯(cuò)誤

標(biāo)準(zhǔn)答案:B

120.聚類(lèi)需要從沒(méi)

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論