




版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
2025年人工智能-智能算法考試題庫(kù)及
答案(最新版)
一、單項(xiàng)選擇題
1.神經(jīng)網(wǎng)絡(luò)由許多神經(jīng)元(Neuron)組成,每個(gè)神經(jīng)元接受一個(gè)輸入,
對(duì)輸入進(jìn)行處理后給出一個(gè)輸出。請(qǐng)問(wèn)下列關(guān)于神經(jīng)元的描述中,哪
一項(xiàng)是正確的?
A、每個(gè)神經(jīng)元可以有一個(gè)輸入和一個(gè)輸出
B、每個(gè)神經(jīng)元可以有多個(gè)輸入和一個(gè)輸出
C、每個(gè)神經(jīng)元可以有多個(gè)輸入和多個(gè)輸出
D、上述都正確
標(biāo)準(zhǔn)答案:B
2.哪個(gè)不是常用的聚類(lèi)算法O。
A、K-Means
B、DBSCAN
C、GMMs
D、Softmax
標(biāo)準(zhǔn)答案:D
解析:Softmax不是常用的聚類(lèi)算法。
3.高層的特征是低層特征的組合,從低層到高層的特征表達(dá)越來(lái)越O,
也即越來(lái)越能表現(xiàn)語(yǔ)義或者意圖。
A、具體和形象化
B、抽象和概念化
C、具體和概念化
D、抽象和具體化
標(biāo)準(zhǔn)答案:B
解析:高層的特征是低層特征的組合,從低層到高層的特征表達(dá)越來(lái)
越抽象和概念化,也即越來(lái)越能表現(xiàn)語(yǔ)義或者意圖。
4.關(guān)于bagging下列說(shuō)法錯(cuò)誤的是:O
A、各基分類(lèi)器之間有較強(qiáng)依賴(lài),不可以進(jìn)行并行訓(xùn)練。
B、最著名的算法之一是基于決策樹(shù)基分類(lèi)器的隨機(jī)森林。
C、當(dāng)訓(xùn)練樣本數(shù)量較少時(shí),子集之間可能有重疊。
D、為了讓基分類(lèi)器之間互相獨(dú)立,需要將訓(xùn)練集分為若干子集。
標(biāo)準(zhǔn)答案:A
5.數(shù)據(jù)在完成特征工程的操作后,在構(gòu)建模型的過(guò)程中,以下哪個(gè)選
項(xiàng)不屬于決策樹(shù)構(gòu)建過(guò)程當(dāng)中的步驟?
A、剪枝
B、特征選取
C、數(shù)據(jù)清理
D、決策樹(shù)生成
標(biāo)準(zhǔn)答案:C
6.通過(guò)以下哪些指標(biāo)我們可以在層次聚類(lèi)中尋找兩個(gè)集群之間的差
異?()
A、單鏈接
B、全鏈接
C、均鏈接
D、以上都行
標(biāo)準(zhǔn)答案:D
7.下述()不是人工智能中常用的知識(shí)格式化表示方法。
A、框架表示法
B、產(chǎn)生式表示法
C、語(yǔ)義網(wǎng)絡(luò)表示法
D、形象描寫(xiě)表示法
標(biāo)準(zhǔn)答案:D
8.比較成熟的分類(lèi)預(yù)測(cè)模型算法包括Logistic回歸模型、廣義線(xiàn)性
模型、()、神經(jīng)網(wǎng)絡(luò)
A、決策樹(shù)
B、arima模型
C、holt-winter模型
D、k-means模型
標(biāo)準(zhǔn)答案:A
9.在pytorch中,設(shè)模型變量名為model,則對(duì)model.eval()的描述
正確的是
A、model,eval()可以在模型訓(xùn)練階段使用
B、model,eval()只能在模型測(cè)試階段使用
C、model,eval()在模型驗(yàn)證、模型測(cè)試階段都可以使用
D、model,eval()在模型訓(xùn)練、模型驗(yàn)證、模型測(cè)試階段都可以使用
標(biāo)準(zhǔn)答案:C
解析:在pytorch中,model,eval在模型驗(yàn)證、模型測(cè)試階段都可以
使用
10.O控制著整個(gè)LSTM單元的狀態(tài)或者記憶,它會(huì)根據(jù)每個(gè)時(shí)刻的
輸入進(jìn)行更新。
A、隱狀態(tài)向量
B、狀態(tài)向量
C、顯狀態(tài)向量
D、以上都不對(duì)
標(biāo)準(zhǔn)答案:B
解析:狀態(tài)向量控制著整個(gè)LSTM單元的狀態(tài)或者記憶,它會(huì)根據(jù)每
個(gè)時(shí)刻的輸入進(jìn)行更新。
H.早期圖像識(shí)別技術(shù)中存在的主要問(wèn)題是()。
A、全局特征丟掉了圖像細(xì)節(jié)
B、提取不到主要特征
C、存儲(chǔ)效率低下
D、太多的錯(cuò)誤匹配
標(biāo)準(zhǔn)答案:A
解析:早期圖像識(shí)別技術(shù)中存在的主要問(wèn)題是全局特征丟掉了圖像細(xì)
節(jié)。
12.FPN中根據(jù)R0I的()來(lái)分配所屬層級(jí)?
A、分類(lèi)分?jǐn)?shù)
B、最大邊長(zhǎng)度
C、面積
D、nan
標(biāo)準(zhǔn)答案:C
13.隨機(jī)森林是一種集成學(xué)習(xí)算法,是()算法的具體實(shí)現(xiàn)。
A、Boosting
B、Bagging
C、Stacking
D、Dropping
標(biāo)準(zhǔn)答案:B
解析:隨機(jī)森林是一種集成學(xué)習(xí)算法,是Bagging算法的具體實(shí)現(xiàn)。
14.深度學(xué)習(xí)是當(dāng)前很熱門(mén)的機(jī)器學(xué)習(xí)算法,在深度學(xué)習(xí)中,涉及到
大量的矩陣相乘,現(xiàn)在需要計(jì)算三個(gè)稠密矩陣A,B,C的乘積ABC,假
設(shè)三個(gè)矩陣的尺寸分別為m?n,n?p,p?q,且m〈n
A、(AB)C
B、AC(B)
C、A(BC)
D、所有效率都相同
標(biāo)準(zhǔn)答案:A
15.對(duì)完成特定任務(wù)的卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練采用的是監(jiān)督學(xué)習(xí)方法。在
這個(gè)過(guò)程中,通過(guò)誤差后向傳播來(lái)優(yōu)化調(diào)整網(wǎng)絡(luò)參數(shù),請(qǐng)問(wèn)下面哪個(gè)
參數(shù)不是通過(guò)誤差后向傳播來(lái)優(yōu)化的
A、卷積濾波矩陣中的參數(shù)
B、全連接層的鏈接權(quán)重
C、激活函數(shù)中的參數(shù)
D、模型的隱藏層數(shù)目
標(biāo)準(zhǔn)答案:D
16.下列不屬于樹(shù)模型的是
A、GBDT梯度提升樹(shù)
B、XGBoost
C、RF隨機(jī)森林
D、LR線(xiàn)性回歸
標(biāo)準(zhǔn)答案:D
17.fasterRCNN用于生成候選框proposal的模塊名稱(chēng)()
A、RPN
B、CNN
C、ResNet
D、Rolpooling
標(biāo)準(zhǔn)答案:A
解析:fasterRCNN用于生成候選框proposal的模塊是RPN
18.LSTM用于文本分類(lèi)的任務(wù)中,不會(huì)出現(xiàn)的網(wǎng)絡(luò)層是()
A、全連接
B、詞嵌入層
C、卷積層
D、以上選項(xiàng)均不正確
標(biāo)準(zhǔn)答案:C
19.假設(shè)你需要調(diào)整超參數(shù)來(lái)最小化代價(jià)函數(shù)(costfunction),會(huì)使
用下列哪項(xiàng)技術(shù)?
A、窮舉搜索
B、隨機(jī)搜索
C、Bayesian優(yōu)化
D、都可以
標(biāo)準(zhǔn)答案:D
20.R0IPooling在那個(gè)模型中被第一次提出()
A、fast-rcnn
B、faster-rcnn
C、mask-rcnn
D、rcnn
標(biāo)準(zhǔn)答案:A
21.以下關(guān)于特征工程的說(shuō)法不正確的是
A、特征工程指的是把原始數(shù)據(jù)轉(zhuǎn)變?yōu)槟P偷挠?xùn)練數(shù)據(jù)的過(guò)程
B、它的目的就是獲取更好的訓(xùn)練數(shù)據(jù)特征,使得機(jī)器學(xué)習(xí)模型逼近
這個(gè)上限
C、特征工程在機(jī)器學(xué)習(xí)中占有非常重要的作用,一般認(rèn)為括特征構(gòu)
建、特征提取、特征選擇三個(gè)部分。
D、特征提取是從特征集合中挑選一組具有明顯物理或統(tǒng)計(jì)意義的特
征子集。
標(biāo)準(zhǔn)答案:D
22.關(guān)于遞歸函數(shù)基例的說(shuō)明,以下選項(xiàng)中錯(cuò)誤的是
A、遞歸函數(shù)必須有基例
B、遞歸函數(shù)的基例不再進(jìn)行遞歸
C、每個(gè)遞歸函數(shù)都只能有一個(gè)基例
D、遞歸函數(shù)的基例決定遞歸的深度
標(biāo)準(zhǔn)答案:C
23.線(xiàn)性回歸方法是假定條件屬性和決策屬性之間存在線(xiàn)性關(guān)系,然
后通過(guò)訓(xùn)練數(shù)據(jù)擬合出一個(gè)()方程,并使用該方程去預(yù)測(cè)未知的新
實(shí)例。
A、一元一次
B、線(xiàn)性
C、二元一次
D、多元
標(biāo)準(zhǔn)答案:B
24.考慮某個(gè)具體問(wèn)題時(shí),你可能只有少量數(shù)據(jù)來(lái)解決這個(gè)問(wèn)題。不
過(guò)幸運(yùn)的是你有一個(gè)類(lèi)似問(wèn)題已經(jīng)預(yù)先訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)??梢杂孟?/p>
面哪種方法來(lái)利用這個(gè)預(yù)先訓(xùn)練好的網(wǎng)絡(luò)?
A、把除了最后一層外所有的層都凍結(jié),重新訓(xùn)練最后一層
B、對(duì)新數(shù)據(jù)重新訓(xùn)練整個(gè)模型
C、只對(duì)最后幾層進(jìn)行調(diào)參(finetune)
D、對(duì)每一層模型進(jìn)行評(píng)估,選擇其中的少數(shù)來(lái)用
標(biāo)準(zhǔn)答案:C
25.()采用多種樂(lè)器的音頻數(shù)據(jù),可融合多種國(guó)家、樂(lè)曲風(fēng)格和樂(lè)
器音色的特征,創(chuàng)作音樂(lè)作品。
A、XLNet
B、GoogleNet
C、MuseNet
D、AlexNet
標(biāo)準(zhǔn)答案:C
解析:MuseNet采用多種樂(lè)器的音頻數(shù)據(jù),可融合多種國(guó)家、樂(lè)曲風(fēng)
格和樂(lè)器音色的特征,創(chuàng)作音樂(lè)作品。
26.下列哪個(gè)不是激活函數(shù)()。
A、sigmod
B、relu
C、tanh
D、hidden
標(biāo)準(zhǔn)答案:D
解析:hidden不是激活函數(shù)。
27.長(zhǎng)短期記憶LSTM具有與循環(huán)神經(jīng)網(wǎng)絡(luò)相似的控制流,兩者的區(qū)別
在于LSTM中增加了O導(dǎo)致單元內(nèi)的處理過(guò)程不同。
A、輸入門(mén)
B、記憶門(mén)
C、忘記門(mén)
D、輸出門(mén)
標(biāo)準(zhǔn)答案:C
解析:長(zhǎng)短期記憶LSTM具有與循環(huán)神經(jīng)網(wǎng)絡(luò)相似的控制流,兩者的
區(qū)別在于LSTM中增加了忘記門(mén)導(dǎo)致單元內(nèi)的處理過(guò)程不同。
28.批規(guī)范化(BatchNormalization)的好處都有啥?
A、讓每一層的輸入的范圍都大致固定
B、它將權(quán)重的歸一化平均值和標(biāo)準(zhǔn)差
C、它是一種非常有效的反向傳播(BP)方法
D、這些均不是
標(biāo)準(zhǔn)答案:A
29.深度學(xué)習(xí)是當(dāng)前很熱門(mén)的機(jī)器學(xué)習(xí)算法,在深度學(xué)習(xí)中,涉及到
大量的矩陣相乘,現(xiàn)在需要計(jì)算三個(gè)稠密矩陣A,B,C的乘積ABC,假
設(shè)三個(gè)矩陣的尺寸分別為m?n,n?p,p?q,且m〈n
A、(AB)C
B、AC(B)
C、A(BC)
D、所有效率都相同
標(biāo)準(zhǔn)答案:A
30.下面哪項(xiàng)操作能實(shí)現(xiàn)跟神經(jīng)網(wǎng)絡(luò)中Dropout的類(lèi)似效果?()
A、Boosting
B、Bagging
C、Stacking
D、Mapping
標(biāo)準(zhǔn)答案:B
31.我們可以將深度學(xué)習(xí)看成一種端到端的學(xué)習(xí)方法,這里的端到端
指的是
A、輸入端-輸出端
B、輸入端-中間端
C、輸出端-中間端
D、中間端-中間端
標(biāo)準(zhǔn)答案:A
32.語(yǔ)音是一種典型的O數(shù)據(jù)。
A、無(wú)結(jié)構(gòu)無(wú)序列
B、有結(jié)構(gòu)序列
C、無(wú)結(jié)構(gòu)序列
D、有結(jié)構(gòu)無(wú)序列
標(biāo)準(zhǔn)答案:C
解析:語(yǔ)音是一種典型的無(wú)結(jié)構(gòu)序列數(shù)據(jù)。
33.CNN網(wǎng)絡(luò)設(shè)計(jì)中,學(xué)習(xí)率的設(shè)置往往對(duì)訓(xùn)練收斂起到關(guān)鍵作用,關(guān)
于學(xué)習(xí)率的說(shuō)法,錯(cuò)誤的是()
A、學(xué)習(xí)率太小,更新速度慢
B、學(xué)習(xí)率過(guò)大,可能跨過(guò)最優(yōu)解
C、學(xué)習(xí)率也是有網(wǎng)絡(luò)學(xué)習(xí)而來(lái)
D、學(xué)習(xí)率可在網(wǎng)絡(luò)訓(xùn)練過(guò)程中更改
標(biāo)準(zhǔn)答案:C
解析:CNN網(wǎng)絡(luò)設(shè)計(jì)中,學(xué)習(xí)率的設(shè)置往往對(duì)訓(xùn)練收斂起到關(guān)鍵作用,
關(guān)于學(xué)習(xí)率的說(shuō)法,錯(cuò)誤的是學(xué)習(xí)率也是有網(wǎng)絡(luò)學(xué)習(xí)而來(lái)
34.為應(yīng)對(duì)卷積網(wǎng)絡(luò)模型中大量的權(quán)重存儲(chǔ)問(wèn)題,研究人員在適量犧
牲精度的基礎(chǔ)上設(shè)計(jì)出一款超輕量化模型()
A、KNN
B、RNN
C、BNN
D、VGG
標(biāo)準(zhǔn)答案:C
解析:為應(yīng)對(duì)卷積網(wǎng)絡(luò)模型中大量的權(quán)重存儲(chǔ)問(wèn)題,研究人員在適量
犧牲精度的基礎(chǔ)上設(shè)計(jì)出一款超輕量化模型BNN
35.()是使用某一位置的相鄰輸出的總體統(tǒng)計(jì)特征來(lái)代替網(wǎng)絡(luò)在該
位置的輸出
A、卷積
B、約化
C、池化
D、批歸一化
標(biāo)準(zhǔn)答案:C
解析:池化是使用某一位置的相鄰輸出的總體統(tǒng)計(jì)特征來(lái)代替網(wǎng)絡(luò)在
該位置的輸出
36.關(guān)于梯度下降算法描述正確的是:
A、梯度下降算法就是不斷的更新w和b的值
B、梯度下降算法就是不斷的更新w和b的導(dǎo)數(shù)值
C、梯度下降算法就是不斷尋找損失函數(shù)的最大值
D、梯度下降算法就是不斷更新學(xué)習(xí)率
標(biāo)準(zhǔn)答案:A
解析:梯度下降算法就是不斷的更新w和b的值
37.下述O不是人工智能中常用的知識(shí)格式化表示方法。
A、框架表示法
B、產(chǎn)生式表示法
C、語(yǔ)義網(wǎng)絡(luò)表示法
D、形象描寫(xiě)表示法
標(biāo)準(zhǔn)答案:D
38.下列可以用于聚類(lèi)問(wèn)題的機(jī)器學(xué)習(xí)算法有()
A、決策樹(shù)
B、k-means
C、隨機(jī)森林
D、邏輯回歸
標(biāo)準(zhǔn)答案:B
39.在廢棄階段,廢棄銷(xiāo)毀使用目的不復(fù)存在或者有更好解決方法替
換的人工智能系統(tǒng),主要包括數(shù)據(jù)、()以及系統(tǒng)整體的廢棄銷(xiāo)毀過(guò)
程。
A、算法
B、模型
C、程序
D、算法模型
標(biāo)準(zhǔn)答案:D
解析:在廢棄階段,廢棄銷(xiāo)毀使用目的不復(fù)存在或者有更好解決方法
替換的人工智能系統(tǒng),主要包括數(shù)據(jù)、算法模型以及系統(tǒng)整體的廢棄
銷(xiāo)毀過(guò)程。
40.對(duì)于神經(jīng)網(wǎng)絡(luò)的說(shuō)法,下面正確的是()
A、增加神經(jīng)網(wǎng)絡(luò)層數(shù),可能會(huì)增加測(cè)試數(shù)據(jù)集的分類(lèi)錯(cuò)誤率
B、減少神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小測(cè)試數(shù)據(jù)集的分類(lèi)錯(cuò)誤率
C、增加神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小訓(xùn)練數(shù)據(jù)集的分類(lèi)錯(cuò)誤率
D、1、2都對(duì)
標(biāo)準(zhǔn)答案:A
41.按照類(lèi)別比例分組的k折用的是哪個(gè)函數(shù)()
A、RepeatedKFold
B、StratifiedKFold
C、LeavePOut
D、GroupKFold
標(biāo)準(zhǔn)答案:B
42.高層的特征是低層特征的組合,從低層到高層的特征表達(dá)越來(lái)越
(),也即越來(lái)越能表現(xiàn)語(yǔ)義或者意圖。
A、具體和形象化
B、抽象和概念化
C、具體和概念化
D、抽象和具體化
標(biāo)準(zhǔn)答案:B
解析:高層的特征是低層特征的組合,從低層到高層的特征表達(dá)越來(lái)
越抽象和概念化,也即越來(lái)越能表現(xiàn)語(yǔ)義或者意圖。
43.關(guān)于模型參數(shù)(權(quán)重值)的描述,錯(cuò)誤的說(shuō)法是
A、在訓(xùn)練神經(jīng)網(wǎng)絡(luò)過(guò)程中,參數(shù)不斷調(diào)整,其調(diào)整的依據(jù)是基于損
失函數(shù)不斷減少
B、每一次Epoch都會(huì)對(duì)之前的參數(shù)進(jìn)行調(diào)整,迭代次數(shù)越多,損失
函數(shù)一般越小
C、模型參數(shù)量越多越好,沒(méi)有固定的對(duì)應(yīng)規(guī)則
D、訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型存儲(chǔ)于一定結(jié)構(gòu)的神經(jīng)元之間的權(quán)重和神
經(jīng)元的偏置中
標(biāo)準(zhǔn)答案:C
解析:幾乎模型每個(gè)操作所需的時(shí)間和內(nèi)存代價(jià)都會(huì)隨模型參數(shù)量的
增加而增加
44.以下程序的輸出是()?array=np.array
([[1,2,3],[4,5,6],[7,8,9],[10,11,12]]);print(array,shape)
A、(4,3)
B、(3,4)
C、3
D、4
標(biāo)準(zhǔn)答案:A
解析:見(jiàn)算法解析
45.下列關(guān)于深度學(xué)習(xí)說(shuō)法錯(cuò)誤的是A、LSTM在一定程度上解決了傳
統(tǒng)RNN梯度消失或梯度爆炸的問(wèn)題
A、STING
B、Waveluster
C、MAFI
D、IRH
標(biāo)準(zhǔn)答案:D
46.VGG-19中卷積核的大小為
A、3x3
B、5x5
C、3x3,5x5
D、不確定
標(biāo)準(zhǔn)答案:A
解析:VGG-19中卷積核的大小為3x
47.CRF(條件隨機(jī)場(chǎng))和HMM(隱馬爾可夫模型)之間的主要區(qū)別是
什么?
A、CRF是生成式的,而HMM是判別式模型
B、CRF是判別式模型,州M是生成式模型。
C、CRF和H刪都是生成式模型
D、CRF和HMM都是判別式模型。
標(biāo)準(zhǔn)答案:B
48.產(chǎn)生式系統(tǒng)的推理不包括()
A、正向推理
B、逆向推理
C、雙向推理
D、簡(jiǎn)單推理
標(biāo)準(zhǔn)答案:D
49.在20K文檔的輸入數(shù)據(jù)上為機(jī)器學(xué)習(xí)模型創(chuàng)建了文檔一詞矩陣
(document-termmatrix)。以下哪項(xiàng)可用于減少數(shù)據(jù)維度?(1)關(guān)
鍵詞歸一化(KeywordNormalization)(2)潛在語(yǔ)義索引
(LatentSemanticIndexing)(3)隱狄利克雷分布
(LatentDirichletAllocation)
A、只有(1)
B、(2)、(3)
C、⑴、(3)
D、(1)、(2)、(3)
標(biāo)準(zhǔn)答案:D
50.以下哪種卷積神經(jīng)網(wǎng)絡(luò)的設(shè)計(jì)引入了殘差網(wǎng)絡(luò)結(jié)構(gòu)()
A、混沌度沒(méi)什么影響
B、混沌度越低越好
C、混沌度越高越好
D、混沌度對(duì)于結(jié)果的影響不一定
標(biāo)準(zhǔn)答案:B
51.循環(huán)神經(jīng)網(wǎng)絡(luò)優(yōu)于全連接網(wǎng)絡(luò)的一個(gè)原因是循環(huán)神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)了
權(quán)值共享,那么權(quán)值共享的好處有:①.模型參數(shù)變少②.運(yùn)算速度變
快③.占用內(nèi)存少④.所有權(quán)值都共享同一個(gè)值
A、①③④
B、①②③
C、①③④
D、①②④
標(biāo)準(zhǔn)答案:B
解析:循環(huán)神經(jīng)網(wǎng)絡(luò)優(yōu)于全連接網(wǎng)絡(luò)的一個(gè)原因是循環(huán)神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)
了權(quán)值共享,那么權(quán)值共享的好處有:①.模型參數(shù)變少②.運(yùn)算速度
變快③.占用內(nèi)存少
52.以下屬于生成式模型的是:O
A、SVM
B、隨機(jī)森林
C、隱馬爾可夫模型HMM
D、邏輯回歸
標(biāo)準(zhǔn)答案:C
53.一階規(guī)則的基本成分是()
A、原子命題
B、謂詞
C、量詞
D、原子公式
標(biāo)準(zhǔn)答案:D
解析:見(jiàn)算法解析
54.線(xiàn)性回歸在3維以上的維度中擬合面是?
A、曲面
B、平面
C、超平面
D、超曲面
標(biāo)準(zhǔn)答案:C
55.關(guān)于MNIST,下列說(shuō)法錯(cuò)誤的是0。
A、是著名的手寫(xiě)體數(shù)字識(shí)別數(shù)據(jù)集
B、有訓(xùn)練集和測(cè)試集兩部分
C、訓(xùn)練集類(lèi)似人學(xué)習(xí)中使用的各種考試試卷
D、測(cè)試集大約包含10000個(gè)樣本和標(biāo)簽
標(biāo)準(zhǔn)答案:C
56.在卷積操作過(guò)程中計(jì)算featuremap的尺寸:設(shè)圖像大小為
300*300,卷積核大小為3*3,卷積窗口移動(dòng)的步長(zhǎng)為1,則
featuremaps的大小是()個(gè)元素?
A、78400
B、88804
C、91204
D、99856
標(biāo)準(zhǔn)答案:B
解析:見(jiàn)算法解析
57.自然語(yǔ)言中的詞語(yǔ)需要轉(zhuǎn)化為計(jì)算機(jī)可以記錄處理的數(shù)據(jù)結(jié)構(gòu),
通常會(huì)把自然語(yǔ)言中的詞語(yǔ)轉(zhuǎn)化為以下哪種數(shù)據(jù)結(jié)構(gòu):
A、標(biāo)量
B、向量
C、結(jié)構(gòu)體
D、有向圖
標(biāo)準(zhǔn)答案:B
解析:自然語(yǔ)言中的詞語(yǔ)需要轉(zhuǎn)化為計(jì)算機(jī)可以記錄處理的數(shù)據(jù)結(jié)構(gòu),
通常會(huì)把自然語(yǔ)言中的詞語(yǔ)轉(zhuǎn)化為向量。
58.循環(huán)神經(jīng)網(wǎng)絡(luò)中,假設(shè)輸入是一個(gè)32*32*3的圖像,3表示RGB三
通道,卷積核的結(jié)構(gòu)是5*5*3,共6個(gè)不同的卷積核,一個(gè)卷積核產(chǎn)
生一個(gè)featuremap,則輸出的featuremap矩陣的結(jié)構(gòu)是()。
A、27*27*3
B、28*28*3
C、27*27*6
D、28*28*6
標(biāo)準(zhǔn)答案:D
解析:循環(huán)神經(jīng)網(wǎng)絡(luò)中,假設(shè)輸入是一個(gè)32*32*3的圖像,3表示RGB
三通道,卷積核的結(jié)構(gòu)是5*5*3,共6個(gè)不同的卷積核,一個(gè)卷積核
產(chǎn)生一個(gè)featuremap,則輸出的featuremap矩陣的結(jié)構(gòu)是28*28*6。
59.fromsklearnimportlinear_modelreg=linear_model.Lasso,其中
Lasso是用來(lái)擬合什么樣的線(xiàn)性模型的?
A、稀疏數(shù)據(jù)
B、稀疏系數(shù)
C、稀疏標(biāo)簽
標(biāo)準(zhǔn)答案:B
60.如果問(wèn)題存在最優(yōu)解,則下面幾種搜索算法中,哪一個(gè)必然可以
得到該最優(yōu)解
A、廣度優(yōu)先搜索
B、深度優(yōu)先搜索
C、有界深度優(yōu)先搜索
D、啟發(fā)式搜索
標(biāo)準(zhǔn)答案:A
解析:廣度優(yōu)先搜索搜索的范圍最廣
61.在強(qiáng)化學(xué)習(xí)過(guò)程中,()表示隨機(jī)地采取某個(gè)動(dòng)作,以便于嘗試各種
結(jié)果;()表示采取當(dāng)前認(rèn)為最優(yōu)的動(dòng)作,以便于進(jìn)一步優(yōu)化評(píng)估當(dāng)前
認(rèn)為最優(yōu)的動(dòng)作的值。
A、探索
B、開(kāi)發(fā)
C、開(kāi)發(fā)
D、探索
E、探索
標(biāo)準(zhǔn)答案:A
62.對(duì)于一個(gè)分類(lèi)任務(wù),如果開(kāi)始時(shí)神經(jīng)網(wǎng)絡(luò)的權(quán)重不是隨機(jī)賦值的,
而是都設(shè)成0,下面哪個(gè)敘述是正確的?
A、其他選項(xiàng)都不對(duì)
B、沒(méi)啥問(wèn)題,神經(jīng)網(wǎng)絡(luò)會(huì)正常開(kāi)始訓(xùn)練
C、神經(jīng)網(wǎng)絡(luò)可以訓(xùn)練,但是所有的神經(jīng)元最后都會(huì)變成識(shí)別同樣的
東西
D、神經(jīng)網(wǎng)絡(luò)不會(huì)開(kāi)始訓(xùn)練,因?yàn)闆](méi)有梯度改變
標(biāo)準(zhǔn)答案:C
63.下列哪些不是〃子集搜索〃中的搜索方式(一)
A、單向搜索
B、雙向搜索
C、前向搜索
D、后向搜索
標(biāo)準(zhǔn)答案:A
64.LARS屬于哪種特征選擇方法(一)
A、包裹式
B、啟發(fā)式
C、嵌入式
D、過(guò)濾式
標(biāo)準(zhǔn)答案:C
65.生成式方法是直接基于(一)的方法?
A、生成式學(xué)習(xí)
B、生成式場(chǎng)景
C、生成式數(shù)據(jù)
D、生成式模型
標(biāo)準(zhǔn)答案:D
66.下面哪個(gè)敘述是對(duì)的?Dropout對(duì)一個(gè)神經(jīng)元隨機(jī)屏蔽輸入權(quán)重
Dropconnect對(duì)一個(gè)神經(jīng)元隨機(jī)屏蔽輸入和輸出權(quán)重
A、1是對(duì)的,2是錯(cuò)的
B、都是對(duì)的
C、1是錯(cuò)的,2是對(duì)的
D、都是錯(cuò)的
標(biāo)準(zhǔn)答案:D
67.機(jī)器學(xué)習(xí)中做特征選擇時(shí),下面方法或信息不一定有用的是
A、卡方檢驗(yàn)
B、信息增益
C、數(shù)據(jù)采樣
D、期望交叉燧
標(biāo)準(zhǔn)答案:C
68.下列關(guān)于特征選擇的說(shuō)法錯(cuò)誤的是()
A、可以提高特征關(guān)聯(lián)性
B、可以減輕維數(shù)災(zāi)難問(wèn)題
C、可以降低學(xué)習(xí)任務(wù)的難度
D、特征選擇和降維具有相似的動(dòng)機(jī)
標(biāo)準(zhǔn)答案:A
69.全局梯度下降算法、隨機(jī)梯度下降算法和批量梯度下降算法均屬
于梯度下降算法,以下關(guān)于其有優(yōu)缺點(diǎn)說(shuō)法錯(cuò)誤的是:
A、全局梯度算法可以找到損失函數(shù)的最小值
B、批量梯度算法可以解決局部最小值問(wèn)題
C、隨機(jī)梯度算法可以找到損失函數(shù)的最小值
D、全局梯度算法收斂過(guò)程比較耗時(shí)
標(biāo)準(zhǔn)答案:C
70.下面的問(wèn)題,屬于分類(lèi)問(wèn)題的是;
A、根據(jù)員工的薪水、工作壓力、成長(zhǎng)環(huán)境、工作年限、績(jī)效考核等數(shù)
據(jù),預(yù)測(cè)員工在接下來(lái)一段時(shí)間內(nèi)的工資漲幅
B、根據(jù)員工的薪水、工作壓力、成長(zhǎng)環(huán)境、工作年限、績(jī)效考核等數(shù)
據(jù),預(yù)測(cè)員工下一季度的績(jī)效考核分?jǐn)?shù)
C、根據(jù)員工的薪水、工作壓力、成長(zhǎng)環(huán)境、工作年限、績(jī)效考核等數(shù)
據(jù),預(yù)測(cè)員工是否可能會(huì)在接下來(lái)的一段時(shí)間內(nèi)離職
D、根據(jù)員工的薪水、工作壓力、成長(zhǎng)環(huán)境、工作年限、績(jī)效考核等數(shù)
據(jù),預(yù)測(cè)員工下一季度的銷(xiāo)售額
標(biāo)準(zhǔn)答案:C
71.關(guān)于精度與錯(cuò)誤率的說(shuō)法中錯(cuò)誤的是()。
A、精度與錯(cuò)誤率的和為1
B、精度與錯(cuò)誤率都可以反映模型的好壞
C、精度與錯(cuò)誤率都可以用概率密度函數(shù)表示
D、精度是評(píng)價(jià)模型的唯一標(biāo)準(zhǔn)
標(biāo)準(zhǔn)答案:D
解析:精度是不是評(píng)價(jià)模型的唯一標(biāo)準(zhǔn)
72.如果問(wèn)題存在最優(yōu)解,則下面幾種搜索算法中,廣度優(yōu)先搜索必
然可以得到該最優(yōu)解,O可以認(rèn)為是〃智能程度相對(duì)比較高〃的算法。
A、無(wú)界深度優(yōu)先搜索
B、深度優(yōu)先搜索
C、有界深度優(yōu)先搜索
D、啟發(fā)式搜索
標(biāo)準(zhǔn)答案:D
73.下列哪個(gè)函數(shù)不可以做非線(xiàn)性激活函數(shù)?()
A、y=tanh(x)
B、y=sin(x)
C、y=max(x,0)
D、y=2x
標(biāo)準(zhǔn)答案:D
74.Softmax算法中溫度趨近于0時(shí)Softmax將趨于()
A、僅探索
B、僅利用
C、全探索
D、全利用
標(biāo)準(zhǔn)答案:B
75.閔可夫斯基距離表示為曼哈頓距離時(shí),p為()。
A、1
B、2
C、3
D、4
標(biāo)準(zhǔn)答案:A
解析:閔可夫斯基距離定義為:該距離最常用的P是2和1,前者是
歐幾里得距離),后者是曼哈頓距離。
76.下面的問(wèn)題,哪一個(gè)屬于分類(lèi)問(wèn)題的是()
A、根據(jù)員工的薪水、工作壓力、成長(zhǎng)環(huán)境、工作年限、績(jī)效考核等數(shù)
據(jù),預(yù)測(cè)員工下一季度的銷(xiāo)售額
B、根據(jù)員工的薪水、工作壓力、成長(zhǎng)環(huán)境、工作年限、績(jī)效考核等數(shù)
據(jù),預(yù)測(cè)員工下一季度的績(jī)效考核分?jǐn)?shù)
C、根據(jù)員工的薪水、工作壓力、成長(zhǎng)環(huán)境、工作年限、績(jī)效考核等數(shù)
據(jù),預(yù)測(cè)員工在接下來(lái)一段時(shí)間內(nèi)的工資漲幅
D、根據(jù)員工的薪水、工作壓力、成長(zhǎng)環(huán)境、工作年限、績(jī)效考核等數(shù)
據(jù),預(yù)測(cè)員工是否可能會(huì)在接下來(lái)的一段時(shí)間內(nèi)離職
標(biāo)準(zhǔn)答案:D
77.Relief屬于哪種特征選擇方法()
A、包裹式
B、啟發(fā)式
C、嵌入式
D、過(guò)濾式
標(biāo)準(zhǔn)答案:D
78.哪種聚類(lèi)方法采用概率模型來(lái)表達(dá)聚類(lèi)()
A、K-means
C、循環(huán)神經(jīng)網(wǎng)
D、李生網(wǎng)絡(luò)
標(biāo)準(zhǔn)答案:C
解析:LSTM是一種循環(huán)神經(jīng)網(wǎng)絡(luò)
79.在經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)模型中,Softmax函數(shù)是跟在什么隱藏層
后面的?
A、卷積層
B、池化層
C、全連接層
D、以上都可以
標(biāo)準(zhǔn)答案:C
80.回歸分析中定義的()
A、解釋變量和被解釋變量都是隨機(jī)變量
B、解釋變量為非隨機(jī)變量,被解釋變量為隨機(jī)變量
C、解釋變量和被解釋變量都為非隨機(jī)變量
D、解釋變量為隨機(jī)變量,被解釋變量為非隨機(jī)變量
標(biāo)準(zhǔn)答案:B
81.如果強(qiáng)行限制輸出層的分布是標(biāo)準(zhǔn)化的,可能會(huì)導(dǎo)致某些特征模
式的丟失,所以在標(biāo)準(zhǔn)化之后,BatchNorm會(huì)緊接著對(duì)數(shù)據(jù)做縮放和
O
A、平移
B、刪除
C、移動(dòng)
D、收斂
標(biāo)準(zhǔn)答案:A
解析:如果強(qiáng)行限制輸出層的分布是標(biāo)準(zhǔn)化的,可能會(huì)導(dǎo)致某些特征
模式的丟失,所以在標(biāo)準(zhǔn)化之后,BatchNorm會(huì)緊接著對(duì)數(shù)據(jù)做縮放
和平移
82.關(guān)于MNIST,下列說(shuō)法錯(cuò)誤的是()。
A、是著名的手寫(xiě)體數(shù)字識(shí)別數(shù)據(jù)集
B、有訓(xùn)練集和測(cè)試集兩部分
C、訓(xùn)練集類(lèi)似人學(xué)習(xí)中使用的各種考試試卷
D、測(cè)試集大約包含10000個(gè)樣本和標(biāo)簽
標(biāo)準(zhǔn)答案:C
83.Relu在零點(diǎn)不可導(dǎo),那么在反向傳播中怎么處理()
A、設(shè)為0
B、設(shè)為無(wú)窮大
C、不定義
D、設(shè)為任意值
標(biāo)準(zhǔn)答案:A
84.如果問(wèn)題存在最優(yōu)解,則下面幾種搜索算法中,O必然可以得到
該最優(yōu)解。
A、廣度優(yōu)先搜索
B、深度優(yōu)先搜索
C、有界深度優(yōu)先搜索
D、啟發(fā)式搜索
標(biāo)準(zhǔn)答案:A
解析:廣度優(yōu)先搜索會(huì)根據(jù)離起點(diǎn)的距離,按照從近到遠(yuǎn)的順序?qū)Ω?/p>
節(jié)點(diǎn)進(jìn)行搜索。而深度優(yōu)先搜索會(huì)沿著一條路徑不斷往下搜索直到不
能再繼續(xù)為止,然后再折返,開(kāi)始搜索下一條路徑。廣度優(yōu)先搜索可
以找出節(jié)點(diǎn)的最短路徑,即可以解決最短路徑問(wèn)題。有界深度優(yōu)先搜
索為了解決深度有限搜索誤入無(wú)窮分支,定出一個(gè)深度界限,在找尋
達(dá)到這一深度界限而且還沒(méi)有找到目標(biāo)時(shí),即返回重找。
啟發(fā)式搜索是利用問(wèn)題擁有的啟發(fā)信息來(lái)引導(dǎo)搜索,達(dá)到減少搜索范
圍、降低問(wèn)題復(fù)雜度的目的,可以消除組合爆炸,并得到令人能接受
的解(通常并不一定是最佳解)。所以如果存在最優(yōu)解,廣度優(yōu)先搜索
必然可以得到最優(yōu)解,答案選A
85.在前饋神經(jīng)網(wǎng)絡(luò)中,誤差后向傳播(BP算法)將誤差從輸出端向
輸入端進(jìn)行傳輸?shù)倪^(guò)程中,算法會(huì)調(diào)整前饋神經(jīng)網(wǎng)絡(luò)的什么參數(shù)
A、輸入數(shù)據(jù)大小
B、神經(jīng)元和神經(jīng)元之間連接有無(wú)
C、相鄰層神經(jīng)元和神經(jīng)元之間的連接權(quán)重
D、同一層神經(jīng)元之間的連接權(quán)重
標(biāo)準(zhǔn)答案:C
86.下列哪個(gè)是CNN網(wǎng)絡(luò)的超參數(shù)。
A、權(quán)重
B、偏置
C、激活函數(shù)
D、學(xué)習(xí)率
標(biāo)準(zhǔn)答案:D
解析:學(xué)習(xí)率是CNN網(wǎng)絡(luò)的超參數(shù)。
87.神經(jīng)元之間的每個(gè)連接都有()權(quán)重。
A、一個(gè)
B、兩個(gè)
C、多個(gè)
D、無(wú)
標(biāo)準(zhǔn)答案:A
解析:神經(jīng)元之間的每個(gè)連接都有一個(gè)權(quán)重。
88.下列哪項(xiàng)不是SVM的優(yōu)勢(shì)
A、可以和核函數(shù)結(jié)合
B、通過(guò)調(diào)參可以往往可以得到很好的分類(lèi)效果
C、訓(xùn)練速度快
D、泛化能力好
標(biāo)準(zhǔn)答案:C
解析:SVM的訓(xùn)練速度不快
89.問(wèn)答系統(tǒng)中的NLP技術(shù),以下描述不正確的是:
A、問(wèn)答(QA)系統(tǒng)的想法是直接從文檔、對(duì)話(huà)、在線(xiàn)搜索和其他地方
提取信息,以滿(mǎn)足用戶(hù)的信息需求。QA系統(tǒng)不是讓用戶(hù)閱讀整個(gè)文
檔,而是更喜歡簡(jiǎn)短而簡(jiǎn)潔的答案。
B、QA系統(tǒng)相對(duì)獨(dú)立很難與其他NLP系統(tǒng)結(jié)合使用,現(xiàn)有QA系統(tǒng)只
能處理對(duì)文本文檔的搜索,尚且無(wú)法從圖片集合中提取信息。
C、大多數(shù)NLP問(wèn)題都可以被視為一個(gè)問(wèn)題回答問(wèn)題。范例很簡(jiǎn)單:
我們發(fā)出查詢(xún)指令,機(jī)器提供響應(yīng)。通過(guò)閱讀文檔或一組指令,智能
系統(tǒng)應(yīng)該能夠回答各種各樣的問(wèn)題。
D、強(qiáng)大的深度學(xué)習(xí)架構(gòu)(稱(chēng)為動(dòng)態(tài)內(nèi)存網(wǎng)絡(luò)(DMN))已針對(duì)QA問(wèn)題
進(jìn)行了專(zhuān)門(mén)開(kāi)發(fā)和優(yōu)化。給定輸入序列(知識(shí))和問(wèn)題的訓(xùn)練集,它
可以形成情節(jié)記憶,并使用它們來(lái)產(chǎn)生相關(guān)答案。
標(biāo)準(zhǔn)答案:B
90.Word2Vec提出了哪兩個(gè)算法訓(xùn)練詞向量?
A、COBWSoftmax
B、Softmax.CBOW
C、CBOW、Skip-gramD
D、Skip-gramCOBWC
標(biāo)準(zhǔn)答案:C
解析:Word2Vec提出了兩個(gè)算法訓(xùn)練詞向量
91.lou表示的是()
A、兩個(gè)框之間的重疊程度
B、兩個(gè)框的總面積
C、兩個(gè)框的相對(duì)大小
D、一個(gè)框面積與周長(zhǎng)比值
標(biāo)準(zhǔn)答案:A
92.下列哪個(gè)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)會(huì)發(fā)生權(quán)重共享
A、卷積神經(jīng)網(wǎng)絡(luò)&
B、&循環(huán)神經(jīng)網(wǎng)絡(luò)&
C、&全連接神經(jīng)網(wǎng)絡(luò)&
D、&卷積和循環(huán)神經(jīng)網(wǎng)絡(luò)
標(biāo)準(zhǔn)答案:D
93.關(guān)于貝葉斯網(wǎng)的學(xué)習(xí)描述錯(cuò)誤的為(一)
A、貝葉斯的學(xué)習(xí)過(guò)程為對(duì)訓(xùn)練樣本計(jì)數(shù);
B、估計(jì)出每個(gè)結(jié)點(diǎn)的條件概率;
C、網(wǎng)絡(luò)結(jié)構(gòu)為已知;
D、評(píng)分搜索為求解的常用辦法;
標(biāo)準(zhǔn)答案:C
94.影響基本K-均值算法的主要因素不包括下列哪一個(gè)選項(xiàng)?
A、樣本輸入順序
B、模式相似性測(cè)度
C、聚類(lèi)準(zhǔn)則
D、初始類(lèi)中心的選取
標(biāo)準(zhǔn)答案:C
95.對(duì)于一個(gè)圖像識(shí)別問(wèn)題(在一張照片里找出一只貓),下面哪種神
經(jīng)網(wǎng)絡(luò)可以更好地解決這個(gè)問(wèn)題?
A、循環(huán)神經(jīng)網(wǎng)絡(luò)
B、感知機(jī)
C、多層感知機(jī)
D、卷積神經(jīng)網(wǎng)絡(luò)
標(biāo)準(zhǔn)答案:D
96.主成分分析是一種數(shù)據(jù)降維和去除相關(guān)性的方法,它通過(guò)()將
向量投影到低維空間。
A、線(xiàn)性變換
B、非線(xiàn)性變換
C、拉布拉斯變換
D、z變換
標(biāo)準(zhǔn)答案:A
解析:主成分分析是一種數(shù)據(jù)降維和去除相關(guān)性的方法,它通過(guò)線(xiàn)性
變換將向量投影到低維空間。
97.在主成分分析中,將幾個(gè)主分量經(jīng)過(guò)線(xiàn)性組合構(gòu)造為一個(gè)綜合評(píng)
價(jià)函數(shù)時(shí),每個(gè)主分量的權(quán)數(shù)為()。
A、每個(gè)主分量的方差
B、每個(gè)主分量的標(biāo)準(zhǔn)差
C、每個(gè)主分量的方差貢獻(xiàn)率
D、每個(gè)主分量的貢獻(xiàn)率
標(biāo)準(zhǔn)答案:C
解析:在主成分分析中,將幾個(gè)主分量經(jīng)過(guò)線(xiàn)性組合構(gòu)造為一個(gè)綜合
評(píng)價(jià)函數(shù)時(shí),每個(gè)主分量的權(quán)數(shù)為每個(gè)主分量的方差貢獻(xiàn)率。
98.以下關(guān)于Bagging(裝袋法)的說(shuō)法不正確的是
A、能提升機(jī)器學(xué)習(xí)算法的穩(wěn)定性和準(zhǔn)確性,但難以避免overfitting
B、Bagging(裝袋法)是一個(gè)統(tǒng)計(jì)重采樣的技術(shù),它的基礎(chǔ)是Bootstrap
C、主要通過(guò)有放回抽樣)來(lái)生成多個(gè)版本的預(yù)測(cè)分類(lèi)器,然后把這些
分類(lèi)器進(jìn)行組合
D、進(jìn)行重復(fù)的隨機(jī)采樣所獲得的樣本可以得到?jīng)]有或者含有較少的
噪聲數(shù)據(jù)
標(biāo)準(zhǔn)答案:A
99.語(yǔ)音是一種典型的O數(shù)據(jù)。
A、無(wú)結(jié)構(gòu)無(wú)序列
B、有結(jié)構(gòu)序列
C、無(wú)結(jié)構(gòu)序列
D、有結(jié)構(gòu)無(wú)序列
標(biāo)準(zhǔn)答案:C
解析:語(yǔ)音是一種典型的無(wú)結(jié)構(gòu)序列數(shù)據(jù)。
100.在RNN中,目前使用最廣泛的模型便是O模型,該模型能夠更
好地建模長(zhǎng)序列。
A、SLTM
B、SLMT
C、LSMT
D、LSTM
標(biāo)準(zhǔn)答案:D
解析:在RNN中,目前使用最廣泛的模型便是LSTM模型,該模型能
夠更好地建模長(zhǎng)序列。
101.關(guān)于線(xiàn)性回歸的描述,以下正確的有()
A、基本假設(shè)包括隨機(jī)干擾項(xiàng)是均值為0,方差為1的標(biāo)準(zhǔn)正態(tài)分布
B、基本假設(shè)包括隨機(jī)干擾項(xiàng)是均值為0的同方差正態(tài)分布
C、多重共線(xiàn)性會(huì)使得參數(shù)估計(jì)值方差減小
D、基本假設(shè)包括不服從正態(tài)分布的隨機(jī)干擾項(xiàng)
標(biāo)準(zhǔn)答案:B
解析:線(xiàn)性回歸的基本假設(shè)是隨機(jī)干擾項(xiàng)是均值為0的同方差正態(tài)分
布
二.多項(xiàng)選擇題
1.在自然語(yǔ)言處理任務(wù)中,首先需要考慮字、詞如何在計(jì)算機(jī)中表示。
通常,有兩種表示方式:()表示和()表示
A、on-hot
B、one-hot
C、分布式
D、集中式
標(biāo)準(zhǔn)答案:BC
2.非線(xiàn)性核SVM研究重點(diǎn)是設(shè)計(jì)快速近似算法,包括()
A、隨機(jī)分布
B、隨機(jī)傅里葉特征
C、采樣
D、低秩逼近
標(biāo)準(zhǔn)答案:BCD
3.領(lǐng)域型知識(shí)圖譜的構(gòu)建過(guò)程主要包含哪幾個(gè)部分
A、知識(shí)融合
B、本體構(gòu)建
C、知識(shí)抽取
D、知識(shí)存儲(chǔ)
標(biāo)準(zhǔn)答案:ABCD
4.下列關(guān)于DSSM經(jīng)典模型的結(jié)構(gòu)的說(shuō)法不正確的是()
A、線(xiàn)性
B、雙塔
C、三塔
D、非線(xiàn)性
標(biāo)準(zhǔn)答案:ACD
5.當(dāng)發(fā)現(xiàn)機(jī)器學(xué)習(xí)模型過(guò)擬合時(shí),以下操作正確的是:()
A、降低特征維度
B、增加樣本數(shù)量
C、添加正則項(xiàng)
D、增加特征維度
標(biāo)準(zhǔn)答案:ABC
6.那種機(jī)器學(xué)習(xí)算法不需要對(duì)數(shù)據(jù)進(jìn)行標(biāo)注
A、有監(jiān)督學(xué)習(xí)
B、無(wú)監(jiān)督學(xué)習(xí)
C、強(qiáng)化學(xué)習(xí)
D、深度學(xué)習(xí)
標(biāo)準(zhǔn)答案:BC監(jiān)督學(xué)習(xí)和強(qiáng)化學(xué)習(xí)不需要標(biāo)注
7.數(shù)據(jù)真實(shí)性具備哪兩種特質(zhì)?
A、準(zhǔn)確性
B、不確定性
C、可信賴(lài)度
D、雜亂性
標(biāo)準(zhǔn)答案:AC
8.考慮到RNN(或者LSTM,GRU等)類(lèi)模型只能從()依次計(jì)算或者從
()依次計(jì)算,帶來(lái)了一定的局限性
A、前向后
B、后向前
C、左向右
D、右向左
標(biāo)準(zhǔn)答案:CD
9.深度學(xué)習(xí)中常用的損失函數(shù)有?
A、L1損失函數(shù)
A、輸入層
B、全連接層
C、卷積層
D、池化層
標(biāo)準(zhǔn)答案:BCD
10.下列哪些方法的輸出結(jié)果,通常包含boundingbox?
A、MTCNN
B、FasterRCNN
C、MaskRCNN
D、AlexNet
標(biāo)準(zhǔn)答案:ABC
11.下列哪些項(xiàng)是構(gòu)建知識(shí)圖譜用到的主要技術(shù)?
A、詞性標(biāo)注
B、實(shí)體鏈接
C、關(guān)系抽取
D、命名實(shí)體識(shí)別
標(biāo)準(zhǔn)答案:BCD
12.深度學(xué)習(xí)的訓(xùn)練過(guò)程包括:自下而上的()和自頂向下的()。
A、無(wú)監(jiān)督學(xué)習(xí)
B、監(jiān)督學(xué)習(xí)
C、強(qiáng)化學(xué)習(xí)
D、半監(jiān)督學(xué)習(xí)
標(biāo)準(zhǔn)答案:AB
13.以下哪些機(jī)器學(xué)習(xí)算法可以不對(duì)特征做歸一化處理()
A、隨機(jī)森林
B、邏輯回歸
C、SVM
D、GBDT
標(biāo)準(zhǔn)答案:AD
14.卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)包括O、O、()0
A、輸入層
B、卷積層
C、隱含層
D、輸出層
標(biāo)準(zhǔn)答案:ACD
15.關(guān)于SVM,以下描述正確的是()
A、支持向量機(jī)復(fù)雜度主要與支持向量的數(shù)目有關(guān)
B、支持向量機(jī)訓(xùn)練完成后,大部分的訓(xùn)練樣本都不需保留,最終模
型僅與支持向量有關(guān)
C、SVM中劃分超平面所產(chǎn)生的分類(lèi)結(jié)果是最魯棒的,對(duì)未見(jiàn)示例的泛
化能力最強(qiáng).
D、〃異或〃問(wèn)題可能會(huì)導(dǎo)致空間中樣本線(xiàn)性不可分
標(biāo)準(zhǔn)答案:ABCD
16.文本語(yǔ)料庫(kù)的可能特征是什么?
A、文本中詞計(jì)數(shù)
B、詞的向量標(biāo)注
C、詞性標(biāo)注(PartofSpeechTag)
D、基本依存語(yǔ)法
標(biāo)準(zhǔn)答案:ABCD
17.常見(jiàn)的數(shù)據(jù)增強(qiáng)方式有()
A、對(duì)顏色的數(shù)據(jù)增強(qiáng)
B、添加噪聲(高斯噪聲)
C、水平垂直翻轉(zhuǎn)
D、隨機(jī)旋轉(zhuǎn)、裁剪
標(biāo)準(zhǔn)答案:ABCD
18.預(yù)剪枝使得決策樹(shù)的很多分子都沒(méi)有展開(kāi),會(huì)導(dǎo)致()。
A、顯著減少訓(xùn)練時(shí)間開(kāi)銷(xiāo)
B、顯著減少測(cè)試時(shí)間開(kāi)銷(xiāo)
C、降低過(guò)擬合風(fēng)險(xiǎn)
D、提高欠擬合風(fēng)險(xiǎn)
標(biāo)準(zhǔn)答案:ABCD
解析:預(yù)剪枝就是在構(gòu)造決策樹(shù)的過(guò)程中,先對(duì)每個(gè)結(jié)點(diǎn)在劃分前進(jìn)
行估計(jì),若果當(dāng)前結(jié)點(diǎn)的劃分不能帶來(lái)決策樹(shù)模型泛華性能的提升,
則不對(duì)當(dāng)前結(jié)點(diǎn)進(jìn)行劃分并且將當(dāng)前結(jié)點(diǎn)標(biāo)記為葉結(jié)點(diǎn)
19.影響聚類(lèi)算法結(jié)果的主要因素有()
A、已知類(lèi)別的樣本質(zhì)量
B、分類(lèi)準(zhǔn)則
C、特征選取
D、模式相似性測(cè)度
標(biāo)準(zhǔn)答案:BCD
20.關(guān)于對(duì)數(shù)幾率回歸,以下說(shuō)法正確的是O
A、對(duì)數(shù)幾率回歸是一種分類(lèi)學(xué)習(xí)方法
B、對(duì)數(shù)幾率回歸無(wú)需事先假設(shè)數(shù)據(jù)分布
C、對(duì)數(shù)幾率回歸是可得到近似概率預(yù)測(cè)
D、對(duì)數(shù)幾率回歸任意階可導(dǎo)的凸函數(shù)
標(biāo)準(zhǔn)答案:ABCD
21.卷積神經(jīng)網(wǎng)絡(luò)中的池化層可以減小下層輸入的尺寸。常見(jiàn)的池化
有:
A、最小地化層
B、乘積池化層
C、最大池化層
D、平均池化層
標(biāo)準(zhǔn)答案:CD
22.遺傳算法評(píng)價(jià)的常用方法有()
A、當(dāng)前最好法
B、在線(xiàn)比較法
C、離線(xiàn)比較法
D、都不是
標(biāo)準(zhǔn)答案:ABC
23.以下算法中可以用于圖像處理中去噪的是()。
A、中值濾波
B、均值濾波
C、最小值濾波
D、最大值濾波
標(biāo)準(zhǔn)答案:ABCD
24.常見(jiàn)的聚類(lèi)性能度量?jī)?nèi)部指標(biāo)有()
25.英語(yǔ)重視哪兩個(gè)問(wèn)題的區(qū)分?()
A、謂語(yǔ)與非謂語(yǔ)
B、可數(shù)名詞與不可數(shù)名詞
C、冠詞與數(shù)詞
D、單復(fù)數(shù)
標(biāo)準(zhǔn)答案:BD
26.完整的CNN架構(gòu)除了輸入及輸出外還包含哪些層()
A、全連接層
B、隱藏層
C、卷積層
D、池化層
標(biāo)準(zhǔn)答案:ACD
27.層次聚類(lèi)算法中數(shù)據(jù)集的劃分可采用的策略為()
A、〃自底向上〃的聚合策略
B、〃自底向上〃的分拆策略
C、〃自頂向下〃的聚合策略
D、〃自頂向下〃的分拆策略
標(biāo)準(zhǔn)答案:AD
28.屬于Boosting的擴(kuò)展變體有哪些。
A、正采樣
B、負(fù)采樣
C、多分類(lèi)
D、單分類(lèi)
標(biāo)準(zhǔn)答案:BC
29.k-means算法的典型計(jì)算步驟包括
A、從數(shù)據(jù)點(diǎn)中隨機(jī)選擇數(shù)量與簇的數(shù)量相同的數(shù)據(jù)點(diǎn),作為這些簇
的重心
B、計(jì)算數(shù)據(jù)點(diǎn)與各重心之間的距離,并將最近的重心所在的簇作為
該數(shù)據(jù)點(diǎn)所屬的簇
C、計(jì)算每個(gè)簇的數(shù)據(jù)點(diǎn)到重心距離的平均值,并將其作為新的重心
D、重復(fù)步驟2與步驟3,繼續(xù)計(jì)算,直到所有數(shù)據(jù)點(diǎn)不改變所屬的
簇,或達(dá)到計(jì)算最大次數(shù)
標(biāo)準(zhǔn)答案:ABCD
30.Embedding編碼有哪些特點(diǎn)?
A、特征稠密
B、特征稀疏
C、能夠表征詞與詞之間的相互關(guān)系(相似度計(jì)算)
D、泛化性更好,支持語(yǔ)義運(yùn)算sim
標(biāo)準(zhǔn)答案:ACD
31.Embedding編碼有哪些特點(diǎn)?
A、特征稠密
B、特征稀疏
C、能夠表征詞與詞之間的相互關(guān)系(相似度計(jì)算)
D、泛化性更好,支持語(yǔ)義運(yùn)算sim
標(biāo)準(zhǔn)答案:ACD
32.關(guān)于神經(jīng)網(wǎng)絡(luò)模型的說(shuō)法,哪些是不正確的()
A、神經(jīng)網(wǎng)絡(luò)的工作原理與生物體內(nèi)的神經(jīng)元是完全一樣的
B、訓(xùn)練神經(jīng)網(wǎng)絡(luò)的實(shí)質(zhì)是對(duì)復(fù)雜函數(shù)求參數(shù)最優(yōu)解的過(guò)程
C、增加神經(jīng)網(wǎng)絡(luò)的層數(shù)和增加每層的神經(jīng)元個(gè)數(shù)的效果是一樣的
D、神經(jīng)網(wǎng)絡(luò)只能進(jìn)行二分類(lèi),不能進(jìn)行更多種類(lèi)的分類(lèi)了
標(biāo)準(zhǔn)答案:ACD
解析:SVM常用的核函數(shù)包括:線(xiàn)性核函數(shù)、多項(xiàng)式核函數(shù)、高斯核
函數(shù)、Sigmiod核函數(shù)
33.常見(jiàn)的MRC任務(wù)可以分為四種類(lèi)型:()。
A、完形填空
B、多項(xiàng)選擇
C、片段抽取
D、自由回答
標(biāo)準(zhǔn)答案:ABCD
三.判斷題
1.Python不允許使用關(guān)鍵字作為變量名,允許使用內(nèi)置函數(shù)名作為
變量名,但這會(huì)改變函數(shù)名的含義。
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
2.由于卷積核比較小,可以堆疊更多的卷積層,加深網(wǎng)絡(luò)的深度,這
對(duì)于圖像分類(lèi)任務(wù)來(lái)說(shuō)是不利的。
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:B
3.人工智能的一個(gè)重要分支是PatternRecognition,中文名稱(chēng)是模
式識(shí)別它主要研究視覺(jué)和聽(tīng)覺(jué)的識(shí)別()
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
4.word2vec的訓(xùn)練方式有2種,一個(gè)是根據(jù)上下文預(yù)測(cè)中心詞的CBOW
模型,一種是由中心詞預(yù)測(cè)上下文的skip-gram模型。
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
5.空洞卷積也叫擴(kuò)張卷積,在保持參數(shù)個(gè)數(shù)不變的情況下增大了卷積
核的感受野。
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
6.梯度下降算法是最常用也是最有效的神經(jīng)網(wǎng)絡(luò)的優(yōu)化辦法,完全可
以滿(mǎn)足不同類(lèi)型的需求。()
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:B
7.降維算法是減少構(gòu)建模型所需計(jì)算時(shí)間的方法之一。
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
8.分類(lèi)是預(yù)測(cè)數(shù)據(jù)對(duì)象的離散類(lèi)別,預(yù)測(cè)是用于數(shù)據(jù)對(duì)象的連續(xù)取值
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
9.神經(jīng)網(wǎng)絡(luò)中各個(gè)隱藏層能提取出和人類(lèi)看到的一樣的特征。()
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:B
10.全局最優(yōu)解的函數(shù)損失值最小。
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
11.高方差是指模型過(guò)擬合了,導(dǎo)致在測(cè)試集中的泛化能力較差。
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
12.在決策樹(shù)中,隨著樹(shù)中結(jié)點(diǎn)數(shù)變得太大,即使模型的訓(xùn)練誤差還
在繼續(xù)減低,但是檢驗(yàn)誤差開(kāi)始增大,這是出現(xiàn)了模型擬合不足的問(wèn)
題。
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:B
13.損失函數(shù)與模型函數(shù)是一回事
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:B
14.卷積神經(jīng)網(wǎng)絡(luò)是更善于處理圖像的網(wǎng)絡(luò)
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
15.非線(xiàn)性SVM中,核函數(shù)的選擇對(duì)于SVM的性能至關(guān)重要()
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
解析:非線(xiàn)性SVM中,核函數(shù)的選擇對(duì)于SVM的性能至關(guān)重要O
16.xgboost借鑒了隨機(jī)森林的做法,支持列抽樣,不僅能降低過(guò)擬
合,還能減少計(jì)算。
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
17.池化層減小圖像尺寸即數(shù)據(jù)降維,緩解過(guò)擬合,保持一定程度的
旋轉(zhuǎn)和平移不變性。
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
18.數(shù)據(jù)規(guī)范化是必不可少的預(yù)處理步驟,用于對(duì)值進(jìn)行重新縮放以
適合特定范圍。
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
19.訓(xùn)練時(shí),發(fā)現(xiàn)RNN網(wǎng)絡(luò)收斂速度較慢,這時(shí)需要減小學(xué)習(xí)率
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:B
解析:應(yīng)加大學(xué)習(xí)率
20.人工神經(jīng)元網(wǎng)絡(luò)會(huì)遭遇〃框架問(wèn)題〃0
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:B
21.通用問(wèn)題求解器需要尋找全局最優(yōu)解()
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:B
22.深層神經(jīng)網(wǎng)絡(luò),不添加激活函數(shù)效果也很好。
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:B
23.基于VC維和Rademacher復(fù)雜度推導(dǎo)泛化誤差界,所得到的結(jié)果
均與具體學(xué)習(xí)算法無(wú)關(guān),對(duì)所有學(xué)習(xí)算法都適用
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
24.專(zhuān)家系統(tǒng)本身是一個(gè)程序,它與傳統(tǒng)程序是一樣的
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:B
解析:專(zhuān)家系統(tǒng)本身是一個(gè)程序,它與傳統(tǒng)程序是不同的,例如專(zhuān)家
系統(tǒng)須有知識(shí)庫(kù)和推理機(jī),根據(jù)知識(shí)庫(kù)不斷由一致的事實(shí)推出結(jié)果。
25.如果強(qiáng)行限制輸出層的分布是標(biāo)準(zhǔn)化的,可能會(huì)導(dǎo)致某些特征模
式的丟失,所以在標(biāo)準(zhǔn)化之后,BatchNorm會(huì)緊接著對(duì)數(shù)據(jù)做縮放和
平移
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
26.語(yǔ)義網(wǎng)絡(luò)表達(dá)知識(shí)時(shí),有向弧AK0鏈、ISA鏈?zhǔn)怯脕?lái)表達(dá)節(jié)點(diǎn)知
識(shí)的繼承性。
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
解析:語(yǔ)義網(wǎng)絡(luò)指SemanticNetwork,語(yǔ)義網(wǎng)指SemanticWebo語(yǔ)義
網(wǎng)絡(luò)是由Quillian于上世紀(jì)60年代提出的知識(shí)表達(dá)模式,其用相互
連接的節(jié)點(diǎn)和邊來(lái)表示知識(shí)。
27.GeneticAlgorithms屬于表現(xiàn)型進(jìn)化算法。()
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:B
28.KNN不需要進(jìn)行訓(xùn)練
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
29.如果SVM模型欠擬合,可以通過(guò)減小核系數(shù)(gamma參數(shù))來(lái)改進(jìn)
模型
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:B
解析:gamma參數(shù)是你選擇徑向基函數(shù)作為kernel后,該函數(shù)自帶的
一個(gè)參數(shù).隱含地決定了數(shù)據(jù)映射到新的特征空間后的分布.gamma參
數(shù)與C參數(shù)無(wú)關(guān).gamma參數(shù)越高,模型越復(fù)雜
30.反向傳播算法被設(shè)計(jì)為減少公共子表達(dá)式的數(shù)量并且考慮存儲(chǔ)的
開(kāi)銷(xiāo)。
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:B
解析:反向傳播算法被設(shè)計(jì)為減少公共子表達(dá)式的數(shù)量而不考慮存儲(chǔ)
的開(kāi)銷(xiāo)。
31.卷積神經(jīng)網(wǎng)絡(luò)中,池化層可以理解為局部視野+參數(shù)共享
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:B
32.混沌度(Peirlexity)是一種常見(jiàn)的應(yīng)用在使用深度學(xué)習(xí)處理NLP
問(wèn)題過(guò)程中的評(píng)估技術(shù),混沌度越高越好
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:B
33.FasterRCNN中的ROIpooling,仍能保留pixel-level的輸入輸出
對(duì)應(yīng)
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:B
34.如果允許一條記錄觸發(fā)多條分類(lèi)規(guī)則,把每條被觸發(fā)規(guī)則的后件
看作是對(duì)相應(yīng)類(lèi)的一次投票,然后計(jì)票確定測(cè)試記錄的類(lèi)標(biāo)號(hào),稱(chēng)為
無(wú)序規(guī)則
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
35.網(wǎng)格搜索是一種參數(shù)調(diào)節(jié)的方法。
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:B
36.Mapreduce適用于可以串行處理的應(yīng)用程序
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:B
37.冗余屬性不會(huì)對(duì)決策樹(shù)的準(zhǔn)確率造成不利的影響
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
38.Python集合支持雙向索引。
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:B
解析:不支持
39.決策樹(shù)是一種基于樹(shù)結(jié)構(gòu)進(jìn)行決策的算法。
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
解析:決策樹(shù)是在已知各種情況發(fā)生概率的基礎(chǔ)上,通過(guò)構(gòu)成決策樹(shù)
來(lái)求取凈現(xiàn)值的期望值大于等于零的概率,評(píng)價(jià)項(xiàng)目風(fēng)險(xiǎn),判斷其可
行性的決策分析方法,是直觀運(yùn)用概率分析的一種圖解法。正確
40.計(jì)算學(xué)習(xí)理論研究的是關(guān)于通過(guò)〃計(jì)算〃來(lái)進(jìn)行〃學(xué)習(xí)〃的理論
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
41.如果自變量X和因變量Y之間存在高度的非線(xiàn)性和復(fù)雜關(guān)系,那
么樹(shù)模型很可能優(yōu)于經(jīng)典回歸方法。這個(gè)說(shuō)法正確嗎?
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
42.時(shí)序預(yù)測(cè)回歸預(yù)測(cè)一樣,也是用已知的數(shù)據(jù)預(yù)測(cè)未來(lái)的值,但這
些數(shù)據(jù)的區(qū)別是變量所處時(shí)間的不同
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:B
43.Sigmoid是早期神經(jīng)網(wǎng)絡(luò)模型中常見(jiàn)的非線(xiàn)性變換函數(shù)
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
44.Dropout為在神經(jīng)網(wǎng)絡(luò)過(guò)程中有一定概率暫時(shí)消除神經(jīng)節(jié)點(diǎn),減
少神經(jīng)元之間的相互作用。
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
45.PCA(PrincipalponentAnalysis)算法通過(guò)計(jì)算特征之間的相關(guān)性,
以少量的特征表示具有較多特征的數(shù)據(jù),降低多特征數(shù)據(jù)分析的復(fù)雜
度
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
46.高方差是指模型過(guò)擬合了,導(dǎo)致在測(cè)試集中的泛化能力較差。
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
47.混合高斯分布對(duì)呈橢圓形分布的數(shù)據(jù)聚類(lèi)效果較好,而k-means
算法對(duì)從重心開(kāi)始呈圓形分布的數(shù)據(jù)聚類(lèi)效果較好
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
48.()把大腦當(dāng)作信息處理裝置的觀點(diǎn)是認(rèn)知心理學(xué)的首要特征。
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
49.Precision不變時(shí),Recall越大,1/Recall越小,從而Fl越大。
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
50.一個(gè)循環(huán)神經(jīng)網(wǎng)絡(luò)可以被展開(kāi)成為一個(gè)完全連接的、具有無(wú)限長(zhǎng)
度的普通神經(jīng)網(wǎng)絡(luò)
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
51.BP神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法的優(yōu)化目標(biāo)是使實(shí)際輸出與期望輸出之間的
誤差平方和最小化。()
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
52.反向傳播是一種用于多層神經(jīng)網(wǎng)絡(luò)的訓(xùn)練算法。它將錯(cuò)誤信息從
網(wǎng)絡(luò)末端傳輸?shù)骄W(wǎng)絡(luò)內(nèi)部的所有權(quán)重。它允許有效地計(jì)算梯度
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
53.卷積的作用:捕獲圖像相鄰像素的依賴(lài)性;起到類(lèi)似濾波器的作
用,得到不同形態(tài)的featuremap
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
54.BoW模型忽略詞的順序,這意味著包含相同單詞的兩個(gè)文檔的表
征是完全相同的。
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
55.1986年,Hinton等人提出了長(zhǎng)短期記憶模型(LSTM)。
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:B
56.從被觸發(fā)規(guī)則中選擇一個(gè)規(guī)則來(lái)執(zhí)行,被執(zhí)行的規(guī)則稱(chēng)為可觸發(fā)
規(guī)則。(F)
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:B
57.Mapreduce適用于可以串行處理的應(yīng)用程序
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:B
58.方差度量了學(xué)習(xí)算法的期望預(yù)測(cè)與真實(shí)結(jié)果的偏離程度,即刻畫(huà)
了學(xué)習(xí)算法本身的擬合能力。
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:B
解析:偏差度量了學(xué)習(xí)算法的期望預(yù)測(cè)與真實(shí)結(jié)果的偏離程度,刻畫(huà)
了學(xué)習(xí)算法本身的擬合能力。方差度量了同樣大小的訓(xùn)練集的變動(dòng)所
導(dǎo)致的學(xué)習(xí)性能的變化,刻畫(huà)了數(shù)據(jù)擾動(dòng)所造成的影響。噪聲表達(dá)了
當(dāng)前任務(wù)上任何學(xué)習(xí)算法所能達(dá)到的期望泛化誤差的下界,也就是最
小值。泛化誤差可以分解為偏差、方差和噪聲之和。
59.決策樹(shù)是一種基于樹(shù)結(jié)構(gòu)進(jìn)行決策的算法。
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
解析:決策樹(shù)是在已知各種情況發(fā)生概率的基礎(chǔ)上,通過(guò)構(gòu)成決策樹(shù)
來(lái)求取凈現(xiàn)值的期望值大于等于零的概率,評(píng)價(jià)項(xiàng)目風(fēng)險(xiǎn),判斷其可
行性的決策分析方法,是直觀運(yùn)用概率分析的一種圖解法。正確
60.Bayes法是一種在已知后驗(yàn)概率與類(lèi)條件概率的情況下的模式分
類(lèi)方法,待分樣本的分類(lèi)結(jié)果取決于各類(lèi)域中樣本的全體
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:B
61.構(gòu)建深度學(xué)習(xí)模型的代碼時(shí),將其中的計(jì)算模塊寫(xiě)入Program中,
可以理解為Program是模型計(jì)算的集合體。
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
62.基于sklearn用機(jī)器學(xué)習(xí)模型進(jìn)行數(shù)據(jù)分析與數(shù)據(jù)挖掘的關(guān)鍵步
驟為load_data()>create_model()>model,fit()>model,transform()
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:B
63.示例學(xué)習(xí)又稱(chēng)為實(shí)例學(xué)習(xí),它是通過(guò)環(huán)境中若干與某個(gè)概念有關(guān)
的例子,經(jīng)歸納得出的一般性概念的一種學(xué)習(xí)方法。()
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
64.深層神經(jīng)網(wǎng)絡(luò),不添加激活函數(shù)效果也很好。
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:B
65.圖像分類(lèi)是根據(jù)圖像的語(yǔ)義信息對(duì)不同類(lèi)別圖像進(jìn)行區(qū)分,是計(jì)
算機(jī)視覺(jué)的核心,是物體檢測(cè)、圖像分割、物體跟蹤、行為分析、人
臉識(shí)別等其他高層次視覺(jué)任務(wù)的基礎(chǔ)
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
66.softmax函數(shù)一般用在多分類(lèi)問(wèn)題中,它是對(duì)邏輯斯蒂回歸
logistic的一種推廣,也被稱(chēng)為多項(xiàng)式邏輯斯蒂回歸模型
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
67.嶺回歸和最小二乘法的算法復(fù)雜度是相同的。
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
68.在現(xiàn)有的深度學(xué)習(xí)模型中,句子情感分類(lèi)通常會(huì)形成一個(gè)聯(lián)合的
三類(lèi)別分類(lèi)問(wèn)題,即預(yù)測(cè)句子為積極、中立或消極。
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
69.支持向量機(jī)SVM屬于深度學(xué)習(xí)網(wǎng)絡(luò)
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:B
解析:支持向量機(jī)SVM不屬于深度學(xué)習(xí)網(wǎng)絡(luò)
70.文本挖掘又稱(chēng)信息檢索,是從大量文本數(shù)據(jù)中提取以前未知的、
有用的、可理解的、可操作的知識(shí)的過(guò)程
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:B
71.正則化是解決過(guò)擬合的方法之一()
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
72.設(shè)有機(jī)器人走迷宮問(wèn)題,其入口坐標(biāo)為(xO,yO),出口坐標(biāo)為
(xt,yt),當(dāng)前機(jī)器人位置為(x,y),若定義,當(dāng)從入口到出口存在通
路時(shí),用A算法求解該問(wèn)題,定能找到從入口到出口的最佳路徑。O
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
73.基于規(guī)則的AI系統(tǒng)由一連串的if-then-else規(guī)則來(lái)進(jìn)行推斷或
行動(dòng)決策。()
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
74.提升卷積核(convolutionalkernel)的大小會(huì)顯著提升卷積神經(jīng)
網(wǎng)絡(luò)的性能,這種說(shuō)法是
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:B
75.Bayes法是一種在已知后驗(yàn)概率與類(lèi)條件概率的情況下的模式分
類(lèi)方法,待分樣本的分類(lèi)結(jié)果取決于各類(lèi)域中樣本的全體
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:B
76.卷積核尺寸一般是奇數(shù)
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
77.可以通過(guò)將所有權(quán)重初始化為0來(lái)訓(xùn)練網(wǎng)絡(luò)
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:B
78.深度學(xué)習(xí)在不同的領(lǐng)域超參數(shù)的設(shè)定不能通用。
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:B
79.經(jīng)典的全連接神經(jīng)網(wǎng)絡(luò)中,隱含層的節(jié)點(diǎn)數(shù)是可以調(diào)整的,節(jié)點(diǎn)
數(shù)越多,神經(jīng)網(wǎng)絡(luò)表示能力越強(qiáng),參數(shù)量也會(huì)減少
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:B
80.廣度優(yōu)先搜索方法的原理是:從樹(shù)的根節(jié)點(diǎn)開(kāi)始,在樹(shù)中一層一
層的查找,當(dāng)找到目標(biāo)節(jié)點(diǎn)時(shí),搜索結(jié)束()。
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
81.基尼指數(shù)越小,數(shù)據(jù)集的純度越高。__
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
82.KNN與K-means區(qū)別在于:KNN是分類(lèi)算法、監(jiān)督學(xué)習(xí),K-means
是聚類(lèi)算法、無(wú)監(jiān)督學(xué)習(xí)。
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
83.先驗(yàn)原理可以表述為:如果一個(gè)項(xiàng)集是頻繁的,那包含它的所有
項(xiàng)集也是頻繁的。
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:B
84.循環(huán)神經(jīng)網(wǎng)絡(luò)按時(shí)間展開(kāi)后就可以通過(guò)反向傳播算法訓(xùn)練了
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
85.樸素貝葉斯分類(lèi)器將會(huì)比判別模型,譬如邏輯回歸收斂得更快,
因此你只需要更少的訓(xùn)練數(shù)據(jù)。其主要缺點(diǎn)是它學(xué)習(xí)不了特征間的交
互關(guān)系。
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
86.GRU含有一個(gè)cell單元,用于存儲(chǔ)中間狀態(tài)
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:B
87.貝葉斯網(wǎng)學(xué)習(xí)而言,模型就是一個(gè)貝葉斯網(wǎng),每個(gè)貝葉斯網(wǎng)描述
了一個(gè)在訓(xùn)練數(shù)據(jù)上的概率分布
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
88.卷積神經(jīng)網(wǎng)絡(luò)中同一卷積層的所有卷積核是權(quán)重共享的。
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
89.人工智能會(huì)受到運(yùn)算能力高低的影響
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
解析:人工智能會(huì)受到運(yùn)算能力高低的限制
90.Logisticregression(邏輯回歸)是一種監(jiān)督式機(jī)器學(xué)習(xí)算法。
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
91.Sigmoid是神經(jīng)網(wǎng)絡(luò)中最常用到的一種激活函數(shù),除非當(dāng)梯度太
大導(dǎo)致激活函數(shù)被彌散,這叫作神經(jīng)元飽和,這就是為什么ReLU會(huì)被
提出來(lái),因?yàn)镽eLU可以使得梯度在正向時(shí)輸出值與原始值一樣。這
意味著在神經(jīng)網(wǎng)絡(luò)中ReLU單元永遠(yuǎn)不會(huì)飽和。
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:B
92.k近鄰法對(duì)給定的訓(xùn)練實(shí)例點(diǎn)和輸入實(shí)例點(diǎn),首先確定輸入實(shí)例
點(diǎn)的k個(gè)最近鄰訓(xùn)練實(shí)例點(diǎn),然后利用這k個(gè)訓(xùn)練實(shí)例點(diǎn)的類(lèi)的多數(shù)
來(lái)預(yù)測(cè)輸入實(shí)例點(diǎn)的類(lèi)。
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
解析:來(lái)自教材原文
93.HSV顏色空間中H的取值范圍為(0,1)
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:B
94.DSSM模型總的來(lái)說(shuō)可以分成三層結(jié)構(gòu),分別是輸入層、表示層和
匹配層
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
95.對(duì)訓(xùn)練數(shù)據(jù)的預(yù)測(cè)效果很好,但對(duì)驗(yàn)證數(shù)據(jù)的預(yù)測(cè)效果不好的現(xiàn)
象稱(chēng)為過(guò)擬合
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
96.先驗(yàn)概率是指根據(jù)以往經(jīng)驗(yàn)和分析得到的概率()
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
97.當(dāng)在卷積神經(jīng)網(wǎng)絡(luò)中加入池化層(poolinglayer)時(shí),變換的不變
性會(huì)被保留
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
98.卷積神經(jīng)網(wǎng)絡(luò)中,卷積層保留主要特征
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:B
99.多層非線(xiàn)性映射(multi-layernonlinearprojection):表示深度
學(xué)習(xí)網(wǎng)絡(luò)的隱層,DSSM使用三個(gè)全連接層,每一層神經(jīng)元的個(gè)數(shù)是
300,然后最后一層的維度是128維度,激活函數(shù)采用tanh
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:B
100.Glove可使用ngram>subword等細(xì)粒度信息
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:B
101.Precision不變時(shí),Recall越大,1/Recall越小,從而F1越大。
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
解析:Precision不變時(shí),Recall越大,1/Recall越小,從而F1越
大;Recall不變時(shí),Precision越大,"Precision越小,從而F1越
大。精確率越高越好,召回率越高越好。正確
102.在關(guān)聯(lián)規(guī)則挖掘中,對(duì)給定的一條關(guān)聯(lián)規(guī)則,它的支持度必然不
小于置信度
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:B
103.GatedRecurrentunits的出現(xiàn)可以幫助防止在RNN中的梯度消失
問(wèn)題。
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
104.假設(shè)x是含有5個(gè)元素的列表,那么切片操作x[10:]是無(wú)法執(zhí)
行的,會(huì)拋出異常。
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:B
解析:見(jiàn)函數(shù)庫(kù)
105.監(jiān)督學(xué)習(xí)的數(shù)據(jù)不需要帶標(biāo)簽等人為標(biāo)注信息
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:B
106.梯度下降算法的收斂點(diǎn)取決于代價(jià)函數(shù)。
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:B
107.決策樹(shù)中不包含外部結(jié)點(diǎn)
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
108.BP網(wǎng)絡(luò)的學(xué)習(xí)過(guò)程是一種誤差修正型學(xué)習(xí)算法,由正向傳播和
反向傳播組成。
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
109.訓(xùn)練集分割為小一點(diǎn)的子集訓(xùn)練,這些子集被取名為mini-batch
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
no.樸素貝葉斯算法不需要樣本特征之間的獨(dú)立同分布。
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:B
Hl.R-CNN的系列算法分成兩個(gè)階段,先在圖像上產(chǎn)生候選區(qū)域,再
對(duì)候選區(qū)域進(jìn)行分類(lèi)并預(yù)測(cè)目標(biāo)物體位置,它們通常被叫做兩階段檢
測(cè)算法。SSD和YOLO算法則只使用一個(gè)網(wǎng)絡(luò)同時(shí)產(chǎn)生候選區(qū)域并預(yù)
測(cè)出物體的類(lèi)別和位置,所以它們通常被叫做單階段檢測(cè)算法。
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
112.數(shù)據(jù)集被劃分成訓(xùn)練集和測(cè)試集,其中訓(xùn)練集用于確定模型的參
數(shù),測(cè)試集用于評(píng)判模型的效果
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
113.當(dāng)在內(nèi)存網(wǎng)絡(luò)中獲得某個(gè)內(nèi)存空間時(shí),通常選擇讀取矢量形式數(shù)
據(jù)而不是標(biāo)量,這里需要基于內(nèi)容的尋址或基于位置的尋址來(lái)完成
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:B
114.邏輯回歸的損失函數(shù)是交叉焙損失函數(shù)。
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
115.AlphaBeta剪枝的效率一定比單純的minimax算法效率高。()
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:B
116.聚類(lèi)分析的相異度矩陣是用于存儲(chǔ)所有對(duì)象兩兩之間相異度的
矩陣,為一個(gè)nn維的單模矩陣
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
H7.簡(jiǎn)單來(lái)說(shuō),機(jī)器學(xué)習(xí)就是通過(guò)算法,使得機(jī)器能從大量歷史數(shù)據(jù)
中學(xué)習(xí)規(guī)律,從而對(duì)新的樣本做智能識(shí)別或?qū)ξ磥?lái)做預(yù)測(cè)。
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
118.Self-OrganizingFeatureMap(SOFM)神經(jīng)網(wǎng)絡(luò)可用于聚類(lèi)。()
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:A
119.反向傳播算法中需要先計(jì)算靠近輸入層參數(shù)的梯度,再計(jì)算靠近
輸出層參數(shù)的梯度。
A、正確
B、錯(cuò)誤
標(biāo)準(zhǔn)答案:B
120.聚類(lèi)需要從沒(méi)
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 對(duì)分包單位的進(jìn)場(chǎng)安全總交底
- 2025年消霧塔項(xiàng)目發(fā)展計(jì)劃
- 《紅樓夢(mèng)》閱讀考題
- 江蘇省鹽城市射陽(yáng)縣2024-2025學(xué)年八年級(jí)下學(xué)期3月月考英語(yǔ)試題(原卷版+解析版)
- 實(shí)驗(yàn)室儀器采購(gòu) 投標(biāo)方案(技術(shù)方案)
- 城市供水系統(tǒng)優(yōu)化管理方案
- 醫(yī)藥冷鏈運(yùn)輸公司排名
- 孝感城區(qū)智慧燃?xì)忭?xiàng)目可行性研究報(bào)告
- 開(kāi)發(fā)項(xiàng)目居間合同
- 2025年度北京市餐廳裝修與品牌故事創(chuàng)作合同
- 籃球比賽記錄表(CBA專(zhuān)用)
- 人防門(mén)吊環(huán)后補(bǔ)方案
- 企業(yè)技術(shù)中心可行性分析報(bào)告書(shū)
- 單軌吊軌道的吊掛形式及安裝標(biāo)準(zhǔn)
- 雖說(shuō)生命在于運(yùn)動(dòng) 但這樣休息比運(yùn)動(dòng)更健康
- 新沂市公安局看守所、拘留所、武警中隊(duì)新建工程實(shí)施方案;
- 建筑工程建筑面積計(jì)算規(guī)范(國(guó)標(biāo))
- IC常用封裝封裝尺寸
- 幼兒園晨間戶(hù)外鍛煉器械使用安排表
- 砂石骨料項(xiàng)目規(guī)劃設(shè)計(jì)方案(范文)
- 一車(chē)間計(jì)量器具管理辦法
評(píng)論
0/150
提交評(píng)論