人工智能復(fù)習(xí)復(fù)習(xí)試題及答案_第1頁(yè)
人工智能復(fù)習(xí)復(fù)習(xí)試題及答案_第2頁(yè)
人工智能復(fù)習(xí)復(fù)習(xí)試題及答案_第3頁(yè)
人工智能復(fù)習(xí)復(fù)習(xí)試題及答案_第4頁(yè)
人工智能復(fù)習(xí)復(fù)習(xí)試題及答案_第5頁(yè)
已閱讀5頁(yè),還剩60頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

第頁(yè)人工智能復(fù)習(xí)復(fù)習(xí)試題及答案1.強(qiáng)化學(xué)習(xí)的基礎(chǔ)模型是()模型A、馬可夫決策B、貝葉斯C、HMMD、最大后驗(yàn)概率【正確答案】:A解析:

見(jiàn)算法解析2.關(guān)于梯度下降算法描述正確的是:A、梯度下降算法就是不斷的更新w和b的值B、梯度下降算法就是不斷的更新w和b的導(dǎo)數(shù)值C、梯度下降算法就是不斷尋找損失函數(shù)的最大值D、梯度下降算法就是不斷更新學(xué)習(xí)率【正確答案】:A解析:

梯度下降算法就是不斷的更新w和b的值3.代碼arr3=np.array([[1,2,3],[4,5,6]]).transpose();print(arr3[1,1])的輸出結(jié)果是()?A、5B、4C、3D、2【正確答案】:A解析:

見(jiàn)算法解析4.主成分分析是一種數(shù)據(jù)降維和去除相關(guān)性的方法,它通過(guò)()將向量投影到低維空間。A、線性變換B、非線性變換C、拉布拉斯變換D、z變換【正確答案】:A解析:

主成分分析是一種數(shù)據(jù)降維和去除相關(guān)性的方法,它通過(guò)線性變換將向量投影到低維空間。5.下列選項(xiàng)中,是合頁(yè)損失函數(shù)的是()。A、exp(yf(x))B、[1-yf(x)]_+C、log[1+exp(-yf(x))D、exp(-yf(x))【正確答案】:B解析:

A不是損失函數(shù),Csiro邏輯斯蒂損失函數(shù),D是指數(shù)損失函數(shù)。6.下列哪一個(gè)不是神經(jīng)網(wǎng)絡(luò)的代表A、卷積神經(jīng)網(wǎng)絡(luò)B、遞歸神經(jīng)網(wǎng)絡(luò)C、殘差網(wǎng)絡(luò)D、xgboost算法【正確答案】:D解析:

XGBoost是針對(duì)分類或回歸問(wèn)題的boosting算法的一種實(shí)現(xiàn)方式,并不是神經(jīng)網(wǎng)絡(luò)的代表。7.對(duì)完成特定任務(wù)的卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練采用的是監(jiān)督學(xué)習(xí)方法。在這個(gè)過(guò)程中,通過(guò)誤差后向傳播來(lái)優(yōu)化調(diào)整網(wǎng)絡(luò)參數(shù),請(qǐng)問(wèn)下面哪個(gè)參數(shù)不是通過(guò)誤差后向傳播來(lái)優(yōu)化的A、卷積濾波矩陣中的參數(shù)B、全連接層的鏈接權(quán)重C、激活函數(shù)中的參數(shù)D、模型的隱藏層數(shù)目【正確答案】:D解析:

08.在人臉檢測(cè)算法中,不屬于該算法難點(diǎn)的是A、出現(xiàn)人臉遮擋B、人臉角度變化大C、需要檢測(cè)分辨率很小的人臉D、需要檢測(cè)不同性別的人臉【正確答案】:D解析:

在人臉檢測(cè)算法中,不屬于該算法難點(diǎn)的是需要檢測(cè)不同性別的人臉9.假設(shè)你有5個(gè)大小為7x7、邊界值為0的卷積核,同時(shí)卷積神經(jīng)網(wǎng)絡(luò)第一層的深度為1。此時(shí)如果你向這一層傳入一個(gè)維度為224x224x3的數(shù)據(jù),那么神經(jīng)網(wǎng)絡(luò)下一層所接收到的數(shù)據(jù)維度是多少?A、218x218x5B、217x217x8C、217x217x3D、220x220x5【正確答案】:A解析:

010.神經(jīng)元之間的每個(gè)連接都有()權(quán)重。A、一個(gè)B、兩個(gè)C、多個(gè)D、無(wú)【正確答案】:A解析:

神經(jīng)元之間的每個(gè)連接都有一個(gè)權(quán)重。11.評(píng)估完模型之后,發(fā)現(xiàn)模型存在高偏差(highbias),應(yīng)該如何解決?A、減少模型的特征數(shù)量B、增加模型的特征數(shù)量C、增加樣本數(shù)量D、以上說(shuō)法都正確【正確答案】:B解析:

如果模型存在高偏差(highbias),意味著模型過(guò)于簡(jiǎn)單。為了使模型更加健壯,我們可以在特征空間中添加更多的特征。而添加樣本數(shù)量將減少方差12.在強(qiáng)化學(xué)習(xí)的過(guò)程中,學(xué)習(xí)率α越大,表示采用新的嘗試得到的結(jié)果比例越(),保持舊的結(jié)果的比例越()。A、大;小B、大;大C、小;小D、小;大【正確答案】:A解析:

013.閔可夫斯基距離表示為曼哈頓距離時(shí),p為()。A、1B、2C、3D、4【正確答案】:A解析:

閔可夫斯基距離定義為:該距離最常用的p是2和1,前者是歐幾里得距離),后者是曼哈頓距離。14.與傳統(tǒng)的關(guān)系型數(shù)據(jù)庫(kù)相比,圖數(shù)據(jù)庫(kù)善于處理大量的、復(fù)雜的、互聯(lián)的、多變的網(wǎng)狀數(shù)據(jù),效率遠(yuǎn)遠(yuǎn)()傳統(tǒng)型數(shù)據(jù)庫(kù)A、小于B、接近C、等于D、高于【正確答案】:D解析:

與傳統(tǒng)的關(guān)系型數(shù)據(jù)庫(kù)相比,圖數(shù)據(jù)庫(kù)善于處理大量的、復(fù)雜的、互聯(lián)的、多變的網(wǎng)狀數(shù)據(jù),效率遠(yuǎn)遠(yuǎn)高于傳統(tǒng)型數(shù)據(jù)庫(kù)15.()對(duì)隱含層的輸入進(jìn)行歸一化,更好的尺度不變性(應(yīng)對(duì)內(nèi)部協(xié)變量偏移),更好的優(yōu)化地形(輸入處于不飽和區(qū)域,從而讓梯度變大)A、歸一化B、白化C、數(shù)據(jù)增強(qiáng)D、批量歸一化【正確答案】:D解析:

批量歸一化對(duì)隱含層的輸入進(jìn)行歸一化,更好的尺度不變性(應(yīng)對(duì)內(nèi)部協(xié)變量偏移),更好的優(yōu)化地形(輸入處于不飽和區(qū)域,從而讓梯度變大)16.DSSM經(jīng)典模型的缺點(diǎn):1.Wordhashing可能造成詞語(yǔ)沖突;2.采用詞袋模型,損失了上下文語(yǔ)序信息;3.搜索引擎的排序由多種因素決定,用戶點(diǎn)擊時(shí)doc排名越靠前越容易被點(diǎn)擊,僅用點(diǎn)擊來(lái)判斷正負(fù)樣本,產(chǎn)生的噪聲較大,模型難以收斂;4.效果不可控。A、1.2.3B、1.3.4C、2.3.4D、【正確答案】:D解析:

DSSM經(jīng)典模型的缺點(diǎn):1.Wordhashing可能造成詞語(yǔ)沖突;2.采用詞袋模型,損失了上下文語(yǔ)序信息;3.搜索引擎的排序由多種因素決定,用戶點(diǎn)擊時(shí)doc排名越靠前越容易被點(diǎn)擊,僅用點(diǎn)擊來(lái)判斷正負(fù)樣本,產(chǎn)生的噪聲較大,模型難以收斂;4.效果不可控。17.對(duì)于一個(gè)分類任務(wù),如果開始時(shí)神經(jīng)網(wǎng)絡(luò)的權(quán)重不是隨機(jī)賦值的,而是都設(shè)成0,下面哪個(gè)敘述是正確的?A、其他選項(xiàng)都不對(duì)B、沒(méi)啥問(wèn)題,神經(jīng)網(wǎng)絡(luò)會(huì)正常開始訓(xùn)練C、神經(jīng)網(wǎng)絡(luò)可以訓(xùn)練,但是所有的神經(jīng)元最后都會(huì)變成識(shí)別同樣的東西D、神經(jīng)網(wǎng)絡(luò)不會(huì)開始訓(xùn)練,因?yàn)闆](méi)有梯度改變【正確答案】:C解析:

018.類別不平衡指分類任務(wù)中不同類別的訓(xùn)練樣例數(shù)目()的情況。A、沒(méi)有差別B、差別很大C、差別很小D、以上都不正確【正確答案】:B解析:

見(jiàn)算法解析19.無(wú)監(jiān)督學(xué)習(xí)需要()A、學(xué)習(xí)程序自己形成和評(píng)價(jià)概念,沒(méi)有教師B、學(xué)習(xí)程序在教師監(jiān)督下形成和評(píng)價(jià)概念C、學(xué)習(xí)程序有時(shí)需要教師,有時(shí)不需要教師,以形成和評(píng)價(jià)概念D、以上說(shuō)法都不對(duì)【正確答案】:A解析:

020.在前饋神經(jīng)網(wǎng)絡(luò)中,誤差后向傳播(BP算法)將誤差從輸出端向輸入端進(jìn)行傳輸?shù)倪^(guò)程中,算法會(huì)調(diào)整前饋神經(jīng)網(wǎng)絡(luò)的什么參數(shù)A、輸入數(shù)據(jù)大小B、神經(jīng)元和神經(jīng)元之間連接有無(wú)C、相鄰層神經(jīng)元和神經(jīng)元之間的連接權(quán)重D、同一層神經(jīng)元之間的連接權(quán)重【正確答案】:C解析:

021.我們可以將深度學(xué)習(xí)看成一種端到端的學(xué)習(xí)方法,這里的端到端指的是A、輸入端-輸出端B、輸入端-中間端C、輸出端-中間端D、中間端-中間端【正確答案】:A解析:

022.獨(dú)熱編碼的英文是:A、onehotB、twohotC、onecoldD、twocold【正確答案】:A解析:

獨(dú)熱編碼的英文是onehot23.梯度爆炸一般出現(xiàn)在深層網(wǎng)絡(luò)和權(quán)值初始化值()的情況下A、太小B、太大C、分布不均勻D、太接近零【正確答案】:B解析:

梯度爆炸一般出現(xiàn)在深層網(wǎng)絡(luò)和權(quán)值初始化值太大的情況下24.多義現(xiàn)象可以被定義為在文本對(duì)象中一個(gè)單詞或短語(yǔ)的多種含義共存。下列哪一種方法可能是解決此問(wèn)題的最好選擇?A、隨機(jī)森林分類器B、卷積神經(jīng)網(wǎng)絡(luò)C、梯度爆炸D、上述所有方法【正確答案】:B解析:

025.循環(huán)神經(jīng)網(wǎng)絡(luò)優(yōu)勢(shì)在于()A、對(duì)序列的每個(gè)元素進(jìn)行相同的計(jì)算,輸出取決于之前的數(shù)據(jù)狀態(tài)B、對(duì)序列的每個(gè)元素進(jìn)行不同的計(jì)算,輸出取決于之后的數(shù)據(jù)狀態(tài)C、對(duì)序列的每個(gè)元素進(jìn)行相同的計(jì)算,輸出取決于之后的數(shù)據(jù)狀態(tài)D、以上都不對(duì)【正確答案】:A解析:

026.根據(jù)numpy數(shù)組中ndim屬性的含義確定程序的輸出()。array=np.array([[1,2,3],[4,5,6],[7,8,9],[10,11,12]]);print(array.ndim)A、(3,4)B、2C、(4,3)D、4【正確答案】:B解析:

見(jiàn)算法解析27.啟發(fā)式搜索是尋求問(wèn)題()解的一種方法A、最優(yōu)B、一般C、滿意D、最壞【正確答案】:C解析:

028.使用批量歸一化可以解決神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的哪些問(wèn)題?A、過(guò)擬合OverfittingB、RestrictactivationstobecometoohighorlowC、訓(xùn)練過(guò)慢D、以上所有【正確答案】:D解析:

029.OLAM技術(shù)一般簡(jiǎn)稱為”數(shù)據(jù)聯(lián)機(jī)分析挖掘”,下面說(shuō)法正確的是:A、OLAP和OLAM都基于客戶機(jī)/服務(wù)器模式,只有后者有與用戶的交互性B、由于OLAM的立方體和用于OLAP的立方體有本質(zhì)的區(qū)別C、基于WEB的OLAM是WEB技術(shù)與OLAM技術(shù)的結(jié)合.D、OLAM服務(wù)器通過(guò)用戶圖形借口接收用戶的分析指令,在元數(shù)據(jù)的知道下,對(duì)超級(jí)立方體作一定的操作.【正確答案】:D解析:

030.在中期圖像識(shí)別技術(shù)(2003-2012)中,索引的經(jīng)典模型是()。A、口袋模型B、詞袋模型C、膠囊模型D、增量模型【正確答案】:B解析:

在中期圖像識(shí)別技術(shù)(2003-2012)中,索引的經(jīng)典模型是詞袋模型。31.根據(jù)邊的性質(zhì)不同,概率圖模型可大致分為兩類:第一類是使用有向無(wú)環(huán)圖表示變量間的依賴關(guān)系,稱為();第二類是使用無(wú)向圖表示變量間的相關(guān)關(guān)系,稱為無(wú)向圖模型或馬爾可夫網(wǎng)(Markovnetwork)。A、貝葉斯網(wǎng)B、拉普拉斯網(wǎng)C、帕斯卡網(wǎng)D、塞繆爾網(wǎng)【正確答案】:A解析:

見(jiàn)算法解析32.()有跟環(huán)境進(jìn)行交互,從反饋當(dāng)中進(jìn)行不斷的學(xué)習(xí)的過(guò)程。A、監(jiān)督學(xué)習(xí)B、非監(jiān)督學(xué)習(xí)C、強(qiáng)化學(xué)習(xí)D、線性回歸【正確答案】:C解析:

033.變量選擇是用來(lái)選擇最好的判別器子集,如果要考慮模型效率,我們應(yīng)該做哪些變量選擇的考慮?:1.多個(gè)變量其實(shí)有相同的用處2.變量對(duì)于模型的解釋有多大作用3.特征攜帶的信息4.交叉驗(yàn)證A、1和4B、1,2和3C、1,3和4D、以上所有【正確答案】:C解析:

這題的題眼是考慮模型效率,所以不要考慮選項(xiàng)234.TF-IDF模型中,TF意思是詞頻,IDF意思是()。A、文本頻率指數(shù);B、逆文本頻率指數(shù)C、詞頻指數(shù)D、逆詞頻指數(shù)【正確答案】:B解析:

TF-IDF模型中,TF意思是詞頻,IDF意思是逆文本頻率指數(shù)。35.()就是讓機(jī)器通過(guò)處理和識(shí)別過(guò)程,把語(yǔ)音信號(hào)轉(zhuǎn)變?yōu)橄鄳?yīng)的文本或信息的高技術(shù)。A、語(yǔ)音分析技術(shù)B、語(yǔ)音轉(zhuǎn)化技術(shù)C、語(yǔ)音合成技術(shù)D、語(yǔ)音識(shí)別技術(shù)【正確答案】:D解析:

語(yǔ)音識(shí)別技術(shù)就是讓機(jī)器通過(guò)處理和識(shí)別過(guò)程,把語(yǔ)音信號(hào)轉(zhuǎn)變?yōu)橄鄳?yīng)的文本或信息的高技術(shù)。36.下面的交叉驗(yàn)證方法

:i.有放回的Bootstrap方法ii.留一個(gè)測(cè)試樣本的交叉驗(yàn)證iii.

5折交叉驗(yàn)證iv.重復(fù)兩次的5折教程驗(yàn)證當(dāng)樣本是1000時(shí),下面執(zhí)行時(shí)間的順序,正確的是:A、i>ii>iii>ivB、ii>iv>iii>iC、iv>i>ii>iiiD、ii>iii>iv>i【正確答案】:B解析:

·

Boostrap方法是傳統(tǒng)地隨機(jī)抽樣,驗(yàn)證一次的驗(yàn)證方法,只需要訓(xùn)練1次模型,所以時(shí)間最少。留一個(gè)測(cè)試樣本的交叉驗(yàn)證,需要n次訓(xùn)練過(guò)程(n是樣本個(gè)數(shù)),這里,要訓(xùn)練1000個(gè)模型。5折交叉驗(yàn)證需要訓(xùn)練5個(gè)模型。重復(fù)2次的5折交叉驗(yàn)證,需要訓(xùn)練10個(gè)模型37.為了對(duì)某圖像中的目標(biāo)進(jìn)行分析和識(shí)別,一般需要對(duì)圖像進(jìn)行()處理。A、圖像加噪B、圖像采集C、圖像壓縮D、圖像分割【正確答案】:D解析:

為了對(duì)某圖像中的目標(biāo)進(jìn)行分析和識(shí)別,一般需要對(duì)圖像進(jìn)行圖像分割處理。38.決策樹所形成的分類邊界有一個(gè)明顯特點(diǎn),它的分類邊界由若干個(gè)()分段組成。A、與坐標(biāo)軸平行B、與坐標(biāo)軸垂直C、與坐標(biāo)軸重合D、過(guò)坐標(biāo)原點(diǎn)【正確答案】:A解析:

見(jiàn)算法解析39.Relu在零點(diǎn)不可導(dǎo),那么在反向傳播中怎么處理()A、設(shè)為0B、設(shè)為無(wú)窮大C、不定義D、設(shè)為任意值【正確答案】:A解析:

Relu在零點(diǎn)不可導(dǎo),那么在反向傳播中設(shè)為040.目前RNN中常用的激活函數(shù)是()A、reluB、sigmoidC、eluD、Swish【正確答案】:B解析:

目前RNN中常用的激活函數(shù)是sigmoid41.下面哪項(xiàng)操作能實(shí)現(xiàn)跟神經(jīng)網(wǎng)絡(luò)中Dropout的類似效果A、BoostingBaggingC、StackingD、Mapping【正確答案】:B解析:

042.下列哪一項(xiàng)在神經(jīng)網(wǎng)絡(luò)中引入了非線性?A、隨機(jī)梯度下降B、修正線性單元(ReLU)C、卷積函數(shù)D、以上都不正確【正確答案】:B解析:

043.DNN不是適合處理圖像問(wèn)題是因?yàn)椤熬S數(shù)災(zāi)難”,那么“維數(shù)災(zāi)難”會(huì)帶來(lái)什么問(wèn)題呢:A、網(wǎng)絡(luò)結(jié)構(gòu)過(guò)于復(fù)雜B、DNN根本不能處理圖像問(wèn)題C、內(nèi)存、計(jì)算量巨大、訓(xùn)練困難D、神經(jīng)元數(shù)量下降,所以精度下降【正確答案】:C解析:

“維數(shù)災(zāi)難”會(huì)帶來(lái)內(nèi)存、計(jì)算量巨大、訓(xùn)練困難等問(wèn)題。44.關(guān)于線性回歸的描述,以下說(shuō)法正確的有A、基本假設(shè)包括隨機(jī)干擾項(xiàng)是均值為0,方差為1的標(biāo)準(zhǔn)正態(tài)分布B、基本假設(shè)包括隨機(jī)干擾項(xiàng)是均值為0的同方差正態(tài)分布C、多重共線性會(huì)使得參數(shù)估計(jì)值方差減小D、基本假設(shè)包括不服從正態(tài)分布的隨機(jī)干擾項(xiàng)【正確答案】:B解析:

線性回歸基本假設(shè)包括隨機(jī)干擾項(xiàng)是均值為0的同方差正態(tài)分布45.深度學(xué)習(xí)是當(dāng)前很熱門的機(jī)器學(xué)習(xí)算法,在深度學(xué)習(xí)中,涉及到大量的矩陣相乘,現(xiàn)在需要計(jì)算三個(gè)稠密矩陣A,B,C的乘積ABC,假設(shè)三個(gè)矩陣的尺寸分別為m?n,n?p,p?q,且mA、(AB)CB、AC(B)C、A(BC)D、所有效率都相同【正確答案】:A解析:

046.下列哪項(xiàng)算法是深度學(xué)習(xí)的重要基礎(chǔ):()A、最小生成樹算法B、最大流-最小割算法C、A*算法D、SGD反向傳播【正確答案】:D解析:

深度學(xué)習(xí)的重要基礎(chǔ)是反向傳播47.2010年谷歌推出以頂點(diǎn)為中心的圖處理系統(tǒng)(),其專為大規(guī)模圖數(shù)據(jù)處理而設(shè)計(jì),將圖數(shù)據(jù)保存在主存儲(chǔ)器中并采用并行計(jì)算的BSP模型AregelB、PregelCregelDregel【正確答案】:B解析:

2010年谷歌推出以頂點(diǎn)為中心的圖處理系統(tǒng)Pregel,其專為大規(guī)模圖數(shù)據(jù)處理而設(shè)計(jì),將圖數(shù)據(jù)保存在主存儲(chǔ)器中并采用并行計(jì)算的BSP模型48.下屬模型是一階段網(wǎng)絡(luò)的是()A、YOLOv2B、rcnnC、fast-rcnnD、faster-rcnn【正確答案】:A解析:

見(jiàn)算法解析49.在分布式隱私保護(hù)機(jī)器學(xué)習(xí)系統(tǒng)中,()可為其提供算力支持。A、DDRB、DRAMC、SRAMD、FPGA【正確答案】:D解析:

在分布式隱私保護(hù)機(jī)器學(xué)習(xí)系統(tǒng)中,F(xiàn)PGA可為其提供算力支持。50.下列哪些沒(méi)有使用Anchorbox?()A、FasterRCNNB、YOLOv1C、YOLOv2D、YOLOv3【正確答案】:B解析:

YOLOv1沒(méi)有使用Anchorbox51.批規(guī)范化(BatchNormalization)的好處都有啥?A、讓每一層的輸入的范圍都大致固定B、它將權(quán)重的歸一化平均值和標(biāo)準(zhǔn)差C、它是一種非常有效的反向傳播(BP)方法D、這些均不是【正確答案】:A解析:

052.盡管人工智能學(xué)術(shù)界出現(xiàn)“百家爭(zhēng)鳴”的局面,但是,當(dāng)前國(guó)際人工智能的主流派仍屬于:A、連接主義B、符號(hào)主義C、行為主義D、經(jīng)驗(yàn)主義【正確答案】:B解析:

盡管人工智能學(xué)術(shù)界出現(xiàn)“百家爭(zhēng)鳴”的局面,但是,當(dāng)前國(guó)際人工智能的主流派仍屬于:符號(hào)主義53.Skip-gram在實(shí)際操作中,使用一個(gè)()(一般情況下,長(zhǎng)度是奇數(shù)),從左到右開始掃描當(dāng)前句子。A、過(guò)濾器B、滑動(dòng)窗口C、篩選器D、掃描器【正確答案】:B解析:

見(jiàn)算法解析54.傳統(tǒng)機(jī)器學(xué)習(xí)和深度學(xué)習(xí)是人工智能核心技術(shù),在工程流程上略有差別,以下步驟在深度學(xué)習(xí)中不需要做的是A、模型評(píng)估B、特征工程C、數(shù)據(jù)清洗D、模型構(gòu)建【正確答案】:B解析:

055.使用批量歸一化可以解決以下哪種神經(jīng)網(wǎng)絡(luò)的訓(xùn)練A、過(guò)擬合OverfittingB、RestrictactivationstobecometoohighorlowC、訓(xùn)練過(guò)慢D、B和C都有【正確答案】:D解析:

056.如何對(duì)featuremaps繼續(xù)進(jìn)行卷積操作?通過(guò)多通道卷積。假設(shè)上一個(gè)卷積層已得到3個(gè)3X3的featuremaps,3個(gè)2x2的卷積核可表示為具有三個(gè)通道卷積核立方體,生成一個(gè)()大小的featuremap。A、2X2B、3X3C、2X3D、6X6【正確答案】:A解析:

見(jiàn)算法解析57.如果問(wèn)題存在最優(yōu)解,則下面幾種搜索算法中,()可以認(rèn)為在這幾種算法中是“智能程度相對(duì)比較高”的算法。A、廣度優(yōu)先搜索B、深度優(yōu)先搜索C、有界深度優(yōu)先搜索D、啟發(fā)式搜索【正確答案】:D解析:

058.L1和L2正則化是傳統(tǒng)機(jī)器學(xué)習(xí)常用來(lái)減少泛化誤差的方法,以下關(guān)于兩者的說(shuō)法正確的是:A、L1正則化可以做特征選擇B、L1和L2正則化均可做特征選擇C、L2正則化可以做特征選擇D、L1和L2正則化均不可做特征選擇【正確答案】:A解析:

059.企業(yè)要建立預(yù)測(cè)模型,需要準(zhǔn)備建模數(shù)據(jù)集,以下四條描述建模數(shù)據(jù)集正確的是()。A、數(shù)據(jù)越多越好B、盡可能多的合適的數(shù)據(jù)C、訓(xùn)練集數(shù)據(jù)是建模集數(shù)據(jù)的一部分D、以上三條都正確【正確答案】:D解析:

060.以下函數(shù)中能將字符串格式的時(shí)間轉(zhuǎn)換為表示時(shí)間的浮點(diǎn)數(shù)的為A、time.mktime(time.strptime())B、pd.to_datetime()C、datetime.datetime.strptime()D、datetime.datetime.strftime()【正確答案】:A解析:

基礎(chǔ)概念61.形成以新一代人工智能重大科技項(xiàng)目為核心、現(xiàn)有研發(fā)布局為支撐的()人工智能項(xiàng)目群。A、“1+N”B、“1+5”C、“1+3”D、“1+6”【正確答案】:A解析:

形成以新一代人工智能重大科技項(xiàng)目為核心、現(xiàn)有研發(fā)布局為支撐的“1+N”人工智能項(xiàng)目群。62.以下關(guān)于L1正則化和L2正則化的說(shuō)法正確的是?A、防止模型欠擬合而加在損失函數(shù)后面的一項(xiàng)B、L1范數(shù)符合拉普拉斯分布,是完全可微的C、L1正則化項(xiàng)是模型各個(gè)參數(shù)的平方和的開方值D、L1正則化可以產(chǎn)生稀疏權(quán)值矩陣,即產(chǎn)生一個(gè)稀疏模型,可以用于特征選擇【正確答案】:D解析:

A、防止模型過(guò)擬合而加在損失函數(shù)后面的一項(xiàng);B、L1范數(shù)符合拉普拉斯分布,是不完全可微的;C、L2正則化項(xiàng)是模型各個(gè)參數(shù)的平方和的開方值。63.DSSM使用()個(gè)全連接層A、兩B、一C、三D、四【正確答案】:A解析:

DSSM使用兩個(gè)全連接層64.下列關(guān)于XGboost算法描述中錯(cuò)誤的是A、由于其特殊原因,無(wú)法分布式化B、xgboost在代價(jià)函數(shù)里加入了正則項(xiàng),用于控制模型的復(fù)雜度;C、可以處理帶有缺失值的樣本D、允許使用列抽樣來(lái)減少過(guò)擬合【正確答案】:A解析:

065.在CNN訓(xùn)練中,除了卷積偏置bias需要學(xué)習(xí)更新以外,()也是學(xué)習(xí)跟新的重要內(nèi)容A、learning_rateB、stepC、weightD、padding【正確答案】:C解析:

在CNN訓(xùn)練中,除了卷積偏置bias需要學(xué)習(xí)更新以外,weight也是學(xué)習(xí)跟新的重要內(nèi)容66.數(shù)據(jù)分析與數(shù)據(jù)可視化密不可分,在python中,哪個(gè)是常用數(shù)據(jù)可視化工具。A、pytorchB、numpyC、pyechartsD、json【正確答案】:C解析:

數(shù)據(jù)分析與數(shù)據(jù)可視化密不可分,在python中,pyecharts是常用數(shù)據(jù)可視化工具。67.下列屬于特征降維的方法有A、主成分分析PCAB、數(shù)據(jù)采樣C、正則化D、最小二乘法【正確答案】:A解析:

068.已知一組數(shù)據(jù)的協(xié)方差矩陣P,下面關(guān)于主分量說(shuō)法錯(cuò)誤的是()。A、主分量分析的最佳準(zhǔn)則是對(duì)一組數(shù)據(jù)進(jìn)行按一組正交基分解,在只取相同數(shù)量分量的條件下,以均方誤差計(jì)算截尾誤差最小B、在經(jīng)主分量分解后,協(xié)方差矩陣成為對(duì)角矩陣C、主分量分析就是K-L變換D、主分量是通過(guò)求協(xié)方差矩陣的特征值得到【正確答案】:C解析:

069.下列哪項(xiàng)關(guān)于模型能力(modelcapacity)的描述是正確的?(指神經(jīng)網(wǎng)絡(luò)模型能擬合復(fù)雜函數(shù)的能力)A、隱藏層層數(shù)增加,模型能力增加B、Dropout的比例增加,模型能力增加C、學(xué)習(xí)率增加,模型能力增加D、都不正確【正確答案】:A解析:

隱藏層加深,模型的擬合能力提升,但是模型參數(shù)會(huì)增多,帶來(lái)計(jì)算壓力;引入dropout就是為了免模型過(guò)擬合,學(xué)習(xí)率是超參數(shù),并不會(huì)影響模型的擬合度70.熵是為消除不確定性所需要獲得的信息量,投擲均勻正六面體骰子的熵是:A、1比特B、2.6比特C、3.2比特D、3.8比特【正確答案】:B解析:

071.數(shù)據(jù)清洗的方法不包括()A、缺失值處理B、噪聲數(shù)據(jù)清除C、一致性檢查D、重復(fù)數(shù)據(jù)記錄處理【正確答案】:D解析:

072.下述()不是人工智能中常用的知識(shí)格式化表示方法A、框架表示法B、產(chǎn)生式表示法C、語(yǔ)義網(wǎng)絡(luò)表示法D、形象描寫表示法【正確答案】:D解析:

知識(shí)表??法主要有:邏輯表?法、產(chǎn)?式表?法、框架表?法、語(yǔ)義?絡(luò)表?法、?向?qū)ο蟊?等等。答案選D73.下列哪項(xiàng)不是SVM的優(yōu)勢(shì)A、可以和核函數(shù)結(jié)合B、通過(guò)調(diào)參可以往往可以得到很好的分類效果C、訓(xùn)練速度快D、泛化能力好【正確答案】:C解析:

SVM的訓(xùn)練速度不快74.在主成分分析中,將幾個(gè)主分量經(jīng)過(guò)線性組合構(gòu)造為一個(gè)綜合評(píng)價(jià)函數(shù)時(shí),每個(gè)主分量的權(quán)數(shù)為()。A、每個(gè)主分量的方差B、每個(gè)主分量的標(biāo)準(zhǔn)差C、每個(gè)主分量的方差貢獻(xiàn)率D、每個(gè)主分量的貢獻(xiàn)率【正確答案】:C解析:

在主成分分析中,將幾個(gè)主分量經(jīng)過(guò)線性組合構(gòu)造為一個(gè)綜合評(píng)價(jià)函數(shù)時(shí),每個(gè)主分量的權(quán)數(shù)為每個(gè)主分量的方差貢獻(xiàn)率。75.以下關(guān)于人工神經(jīng)網(wǎng)絡(luò)(ANN)的描述錯(cuò)誤的有()A、神經(jīng)網(wǎng)絡(luò)對(duì)訓(xùn)練數(shù)據(jù)中的噪聲非常魯棒B、可以處理冗余特征C、訓(xùn)練ANN是一個(gè)很耗時(shí)的過(guò)程D、至少含有一個(gè)隱藏層的多層神經(jīng)網(wǎng)絡(luò)【正確答案】:A解析:

076.在線性回歸算法中,我們認(rèn)為誤差項(xiàng)是符合什么分布的()A、高斯分布B、均勻分布C、二項(xiàng)分布D、泊松分布【正確答案】:A解析:

077.下面()不是有效的變量名。A、_demoB、bananaC、NumbrD、my-score【正確答案】:D解析:

my-score不是有效的變量名。78.關(guān)于支持向量機(jī),哪項(xiàng)說(shuō)法不正確()A、支持向量機(jī)可以用于處理二分類及多分類問(wèn)題B、支持向量機(jī)只能用于線性可分的分類問(wèn)題C、支持向量機(jī)可用于回歸問(wèn)題D、核函數(shù)的選擇對(duì)支持向量機(jī)的性能影響較大【正確答案】:B解析:

支持向量機(jī)可用用于線性可分的分類問(wèn)題,也可于線性不可分的分類問(wèn)題79.YOLOv3網(wǎng)格數(shù)為輸出特征圖[N,C,H,W]的()A、CB、C*HC、H*WD、nan【正確答案】:C解析:

見(jiàn)算法解析80.下列哪項(xiàng)屬于集成學(xué)習(xí)A、決策樹模型B、kNN分類C、AdaboostD、k-means【正確答案】:C解析:

Adaboost屬于集成學(xué)習(xí)81.下列哪個(gè)算法可以用于特征選擇()A、樸素貝葉斯B、感知器C、支持向量機(jī)D、決策樹【正確答案】:D解析:

見(jiàn)算法解析82.某單位開展?jié)撛谧兏秒娍蛻纛A(yù)測(cè)分析,以歷史上已完成過(guò)戶辦理的用戶作為模型的目標(biāo)樣本,預(yù)測(cè)用戶是否過(guò)戶,該類預(yù)測(cè)分析屬于()預(yù)測(cè)A、分類B、數(shù)值C、聚類D、關(guān)聯(lián)【正確答案】:A解析:

083.下列哪個(gè)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)會(huì)發(fā)生權(quán)重共享?A、卷積神經(jīng)網(wǎng)絡(luò)B、循環(huán)神經(jīng)網(wǎng)絡(luò)C、全連接神經(jīng)網(wǎng)絡(luò)D、選項(xiàng)A和B【正確答案】:D解析:

084.在遺傳算法中,變量x的定義域?yàn)閇-2,5],要求其精度為10-6,現(xiàn)用二進(jìn)制進(jìn)行編碼,則碼長(zhǎng)為()A、20B、21C、22D、23【正確答案】:D解析:

085.()曲線以precision、recall為橫縱坐標(biāo)AP曲線B、PR曲線C、mAP曲線D、RoI曲線【正確答案】:B解析:

見(jiàn)算法解析86.下圖描述的網(wǎng)絡(luò)是()A、VGGB、GooLeNetC、ResNetD、Yolo【正確答案】:C解析:

下圖描述的網(wǎng)絡(luò)是ResNet87.假如你在訓(xùn)練一個(gè)線性回歸模型,有下面兩句話:1.如果數(shù)據(jù)量較少,容易發(fā)生過(guò)擬合。2.如果假設(shè)空間較小,容易發(fā)生過(guò)擬合。關(guān)于這兩句話,下列說(shuō)法正確的是?A、1和2都錯(cuò)誤B、1正確,2錯(cuò)誤C、1錯(cuò)誤,2正確D、1和2都正確【正確答案】:B解析:

如果數(shù)據(jù)量較少,容易在假設(shè)空間找到一個(gè)模型對(duì)訓(xùn)練樣本的擬合度很好,容易造成過(guò)擬合,該模型不具備良好的泛化能力。如果假設(shè)空間較小,包含的可能的模型就比較少,也就不太可能找到一個(gè)模型能夠?qū)颖緮M合得很好,容易造成高偏差、低方差,即欠擬合88.以下關(guān)于Bagging(裝袋法)的說(shuō)法不正確的是A、能提升機(jī)器學(xué)習(xí)算法的穩(wěn)定性和準(zhǔn)確性,但難以避免overfittingBagging(裝袋法)是一個(gè)統(tǒng)計(jì)重采樣的技術(shù),它的基礎(chǔ)是BootstrapC、主要通過(guò)有放回抽樣)來(lái)生成多個(gè)版本的預(yù)測(cè)分類器,然后把這些分類器進(jìn)行組合D、進(jìn)行重復(fù)的隨機(jī)采樣所獲得的樣本可以得到?jīng)]有或者含有較少的噪聲數(shù)據(jù)【正確答案】:A解析:

089.深度學(xué)習(xí)中神經(jīng)網(wǎng)絡(luò)類型很多,以下神經(jīng)網(wǎng)絡(luò)信息是單向傳播的是:A、LSTMB、卷積神經(jīng)網(wǎng)絡(luò)C、循環(huán)神經(jīng)網(wǎng)絡(luò)D、GRU【正確答案】:B解析:

卷積神經(jīng)網(wǎng)絡(luò)是單向傳播的90.對(duì)于有噪聲、線性可分的數(shù)據(jù),支持向量機(jī)的解決方式是()A、軟間隔B、硬間隔C、核函數(shù)D、以上選項(xiàng)均不正確【正確答案】:A解析:

對(duì)于有噪聲、線性可分的數(shù)據(jù),支持向量機(jī)的解決方式是軟間隔91.一條規(guī)則形如:,其中“←"左邊的部分稱為()A、規(guī)則長(zhǎng)度B、規(guī)則頭C、布爾表達(dá)式D、規(guī)則體【正確答案】:B解析:

見(jiàn)算法解析92.常用到的的社交分析算法就是()A、社群發(fā)現(xiàn)B、社交發(fā)現(xiàn)C、社區(qū)發(fā)現(xiàn)D、群體發(fā)現(xiàn)【正確答案】:A解析:

常用到的的社交分析算法就是社群發(fā)現(xiàn)93.語(yǔ)句np.sum(arr3,axis=1)的作用是()?注:(已導(dǎo)入numpy庫(kù))importnumpyasnpA、對(duì)整個(gè)數(shù)組求和B、對(duì)每一行求和C、對(duì)第1列求和D、對(duì)每一列求和【正確答案】:B解析:

見(jiàn)算法解析94.LSTM單元中引入了哪些門來(lái)更新當(dāng)前時(shí)刻的單元狀態(tài)向量?A、輸入門、遺忘門B、任意門、輸入門C、輸出門、任意門D、遺忘門、任意門【正確答案】:A解析:

LSTM單元中引入了哪些門來(lái)更新當(dāng)前時(shí)刻的單元狀態(tài)向量?95.()是計(jì)算機(jī)仿真系統(tǒng),通過(guò)對(duì)三維世界的模擬創(chuàng)造出全新的交互系統(tǒng)。A、虛擬現(xiàn)實(shí)B、增強(qiáng)現(xiàn)實(shí)C、混合現(xiàn)實(shí)D、強(qiáng)化現(xiàn)實(shí)【正確答案】:A解析:

虛擬現(xiàn)實(shí)是計(jì)算機(jī)仿真系統(tǒng),通過(guò)對(duì)三維世界的模擬創(chuàng)造出全新的交互系統(tǒng)。96.VGG-19中卷積核的大小為A、3x3B、5x5C、3x3,5x5D、不確定【正確答案】:A解析:

VGG-19中卷積核的大小為3x397.在神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)中,每個(gè)神經(jīng)元會(huì)完成若干功能,下面哪個(gè)功能不是神經(jīng)元所能夠完成的功能A、對(duì)前序相鄰神經(jīng)元所傳遞信息進(jìn)行加權(quán)累加B、對(duì)加權(quán)累加信息進(jìn)行非線性變化(通過(guò)激活函數(shù))C、向前序相鄰神經(jīng)元反饋加權(quán)累加信息D、將加權(quán)累加信息向后續(xù)相鄰神經(jīng)元傳遞【正確答案】:C解析:

098.下面關(guān)于模型預(yù)測(cè)性能的評(píng)估以及交叉驗(yàn)證,說(shuō)法正確的是:A、在scikit-learn包里面使用交叉驗(yàn)證方法,可以使用代碼:fromsklearnimportcross_validationB、需要把數(shù)據(jù)分成訓(xùn)練集和測(cè)試集,用測(cè)試集來(lái)評(píng)估從訓(xùn)練集學(xué)習(xí)得來(lái)的模型的預(yù)測(cè)性能,是因?yàn)閺挠?xùn)練集學(xué)習(xí)得來(lái)的模型可能對(duì)于訓(xùn)練集的數(shù)據(jù)擬合得很好,但是對(duì)于訓(xùn)練集以外的數(shù)據(jù)沒(méi)有太大的泛化能力C、課程中的交叉驗(yàn)證,把數(shù)據(jù)集分成了5份,其中4份作為訓(xùn)練集,剩下一份作為測(cè)試集,這種方法叫做留一交叉驗(yàn)證法D、從訓(xùn)練集中得到的模型,用訓(xùn)練集的數(shù)據(jù)得到的預(yù)測(cè)準(zhǔn)確率一般會(huì)比用測(cè)試集得到的預(yù)測(cè)準(zhǔn)確率低【正確答案】:B解析:

099.循環(huán)神經(jīng)網(wǎng)在工業(yè)上最常用的兩種實(shí)現(xiàn)是:①.LSTM②.GRU③.CNN④.DNNA、①③B、①②C、①③D、①④【正確答案】:B解析:

CNN、DNN不屬于循環(huán)神經(jīng)網(wǎng)絡(luò)100.卷積核與特征圖的通道數(shù)的關(guān)系是:A、卷積核數(shù)量越多特征圖通道數(shù)越少B、卷積核size越大特征圖通道數(shù)越多C、卷積核數(shù)量越多特征圖通道數(shù)越多D、二者沒(méi)有關(guān)系【正確答案】:C解析:

卷積核數(shù)量越多特征圖通道數(shù)越多1.強(qiáng)化學(xué)習(xí)中的兩種免模型學(xué)習(xí)是()、()。A、逆強(qiáng)化學(xué)習(xí)B、時(shí)序差分學(xué)習(xí)C、蒙特卡羅強(qiáng)化學(xué)習(xí)D、模仿學(xué)習(xí)【正確答案】:BC解析:

在現(xiàn)實(shí)的強(qiáng)化學(xué)習(xí)任務(wù)中,環(huán)境的轉(zhuǎn)移概率、獎(jiǎng)賞函數(shù)往往很難得知,甚至很難知道環(huán)境中一共有多少狀態(tài),若學(xué)習(xí)算法不依賴于環(huán)境建模,則稱為“免模型學(xué)習(xí)”,包括蒙特卡羅強(qiáng)化學(xué)習(xí)和時(shí)序差分學(xué)習(xí)2.下列哪些屬于頻繁模式挖掘算法()A、FP-growthB、DBSCANC、AprioriD、GDBT【正確答案】:AC解析:

見(jiàn)算法解析3.下列哪些組件是Resnet通常不包括的()A、殘差連接B、卷積單元C、循環(huán)連接D、Attention模塊【正確答案】:CD解析:

見(jiàn)算法解析4.下列哪些項(xiàng)用于對(duì)問(wèn)題進(jìn)行形式化A、感知B、初始狀態(tài)C、動(dòng)作D、環(huán)境【正確答案】:BC解析:

05.對(duì)于lstm=paddle.nn.LSTM(input_size=3,hidden_size=5,num_layers=2),輸入數(shù)據(jù)的形狀可以是:A、[10,5,3]B、[5,10,3]C、[3,5,10]D、[3,10,5]【正確答案】:AB解析:

lstm輸入形狀為[batch_size,time_steps,input_size],即[..,..,3]6.DecisionTree構(gòu)造的重要步驟。A、特征選擇B、決策樹生成C、剪枝D、計(jì)算信息增益【正確答案】:ABC解析:

決策樹構(gòu)造只有特征選擇、決策樹生成、剪枝三個(gè)環(huán)節(jié)過(guò)程7.SVM中常用的核函數(shù)包括哪些?A、高斯核函數(shù)B、多項(xiàng)式核函數(shù)C、Sigmiod核函數(shù)D、線性核函數(shù)【正確答案】:ABCD解析:

SVM常用的核函數(shù)包括:線性核函數(shù)、多項(xiàng)式核函數(shù)、高斯核函數(shù)、Sigmiod核函數(shù)8.最常用的降維算法是PCA,以下哪項(xiàng)是關(guān)于PCA是正確的A、PCA是一種無(wú)監(jiān)督的方法B、.它搜索數(shù)據(jù)具有最大差異的方向C、主成分的最大數(shù)量D、.所有主成分彼此正交【正確答案】:ABCD解析:

PCA的原理是線性映射,簡(jiǎn)單的說(shuō)就是將高維空間數(shù)據(jù)投影到低維空間上,然后將數(shù)據(jù)包含信息量大的主成分保留下來(lái),忽略掉對(duì)數(shù)據(jù)描述不重要的次要信息。而對(duì)于正交屬性空間中的樣本,如何用一個(gè)超平面對(duì)所有樣本進(jìn)行恰當(dāng)合適的表達(dá)呢?若存在這樣的超平面,應(yīng)該具有兩種性質(zhì):所有樣本點(diǎn)到超平面的距離最近,樣本點(diǎn)在這個(gè)超平面的投影盡可能分開9.屬于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的有()。A、VGGNetB、ResNetC、AlexNetD、GoogleNet【正確答案】:ABCD解析:

010.機(jī)器學(xué)習(xí)的核心要素包括()A、算法B、算力C、操作人員D、數(shù)據(jù)【正確答案】:ABD解析:

操作人員并不是機(jī)器學(xué)習(xí)的核心要素。11.以下哪些是數(shù)據(jù)挖掘的特點(diǎn):A、大量數(shù)據(jù)。數(shù)據(jù)挖掘所處理的數(shù)據(jù)量巨大,這也是數(shù)據(jù)挖掘方法和以前的數(shù)據(jù)分析方法不一樣的地方B、未知的有用的規(guī)律。數(shù)據(jù)挖掘所發(fā)現(xiàn)的模式或規(guī)律,應(yīng)該不是顯而易見(jiàn)的或無(wú)用地,而是對(duì)業(yè)務(wù)來(lái)說(shuō)有意義的、隱含的模式或規(guī)律。C、是一個(gè)過(guò)程。他需要業(yè)務(wù)理解、數(shù)據(jù)理解、數(shù)據(jù)準(zhǔn)備、建模、評(píng)估、部署等一系列步驟D、驗(yàn)證已知的知識(shí)和規(guī)律【正確答案】:ABC解析:

012.關(guān)于聚類的描述正確的是()。A、聚類是一種非監(jiān)督式學(xué)習(xí)B、聚類是一種監(jiān)督式學(xué)習(xí)C、使用的數(shù)據(jù)不需要包含類別卷標(biāo)D、使用的數(shù)據(jù)需要包含類別卷標(biāo)【正確答案】:AC解析:

013.Python中的可變數(shù)據(jù)類型有A、字符串B、數(shù)字C、列表D、字典【正確答案】:CD解析:

014.關(guān)于冪律分布說(shuō)法正確的事()A、對(duì)集成學(xué)習(xí)影響較大B、基于相空間的距離進(jìn)行分類與回歸的效果都變差C、對(duì)k-means影響不大D、概率模型為基礎(chǔ)的算法影響相對(duì)比較小【正確答案】:BD解析:

015.下列算法哪些屬于K-means的變種?A、kNNB、MeanshiftC、k-means++D、以上都不是【正確答案】:BC解析:

見(jiàn)算法解析16.人工神經(jīng)元網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系是()A、人工神經(jīng)元網(wǎng)絡(luò)是深度學(xué)習(xí)的前身B、深度學(xué)習(xí)是人工神經(jīng)元網(wǎng)絡(luò)的一個(gè)分支C、深度學(xué)習(xí)是人工神經(jīng)元網(wǎng)絡(luò)的一個(gè)發(fā)展D、深度學(xué)習(xí)與人工神經(jīng)元網(wǎng)絡(luò)無(wú)關(guān)【正確答案】:AC解析:

深度學(xué)習(xí)是實(shí)現(xiàn)機(jī)器學(xué)習(xí)的一種技術(shù),現(xiàn)在所說(shuō)的深度學(xué)習(xí)大部分都是指神經(jīng)網(wǎng)絡(luò)17.下列哪些模型可以E2E訓(xùn)練()A、YOLOv3B、YOLOv2C、RCNND、fastRCNN【正確答案】:ABD解析:

見(jiàn)算法解析18.屬于深度學(xué)習(xí)模型的選項(xiàng)是?A、樸素貝葉斯B、深度殘差網(wǎng)絡(luò)C、卷積神經(jīng)網(wǎng)絡(luò)CNND、循環(huán)神經(jīng)網(wǎng)絡(luò)RNN【正確答案】:BCD解析:

019.卷積神經(jīng)網(wǎng)絡(luò)中的池化層可以減小下層輸入的尺寸。常見(jiàn)的池化有哪些?A、最小池化層B、乘積池化層C、最大池化層D、平均池化層【正確答案】:CD解析:

卷積神經(jīng)網(wǎng)絡(luò)的池化層常用的兩種是最大池化層和平均池化層。20.決策樹學(xué)習(xí)算法包括哪幾個(gè)部分?A、特征選擇B、樹的生成C、分類決策規(guī)則D、樹的剪枝【正確答案】:ABD解析:

k近鄰算法的三要素:距離度量,k值選擇,分類決策規(guī)則21.RNN循環(huán)神經(jīng)網(wǎng)絡(luò)可以對(duì)一下那些場(chǎng)景進(jìn)行處理()。A、自然語(yǔ)言處理B、圖像處理C、手寫體識(shí)別D、語(yǔ)音識(shí)別【正確答案】:ACD解析:

圖像處理場(chǎng)景主要應(yīng)用于CNN22.NMF(Non-negativeMatrixFactorization)是一種降維算法,它的特點(diǎn)包括A、原始矩陣的元素是非負(fù)數(shù)B、分解后矩陣的元素是非負(fù)數(shù)C、分解后矩陣的元素可以是負(fù)數(shù)D、沒(méi)有“潛在語(yǔ)義空間的每一個(gè)維度都是正交的”這一約束條件【正確答案】:ABD解析:

023.數(shù)據(jù)挖掘的主要功能包括概念描述、趨勢(shì)分析、孤立點(diǎn)分析及()等方面。A、挖掘頻繁模式B、分類和預(yù)測(cè)C、聚類分析D、偏差分析【正確答案】:ABCD解析:

024.在目標(biāo)檢測(cè)中,以下能產(chǎn)生候選框的算法是()A、SelectiveSearchB、ROIpoolingC、RegionproposallayerD、C4.5【正確答案】:AC解析:

見(jiàn)算法解析25.深度學(xué)習(xí)目標(biāo)檢測(cè)算法比傳統(tǒng)方法的優(yōu)勢(shì)()A、算法適應(yīng)性強(qiáng)B、更好的平衡精度C、可遷移學(xué)習(xí)D、數(shù)據(jù)需求少【正確答案】:ABC解析:

見(jiàn)算法解析26.人工神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)可分為()。A、并行網(wǎng)絡(luò)B、串行網(wǎng)絡(luò)C、前饋網(wǎng)絡(luò)D、反饋網(wǎng)絡(luò)【正確答案】:CD解析:

027.神經(jīng)網(wǎng)絡(luò)可以按()A、學(xué)習(xí)方式分類B、網(wǎng)絡(luò)結(jié)構(gòu)分類C、網(wǎng)絡(luò)的協(xié)議類型分類D、網(wǎng)絡(luò)的活動(dòng)方式分類【正確答案】:ABD解析:

028.下面關(guān)于回歸、分類和聚類的說(shuō)法,正確的是:A、通過(guò)網(wǎng)站上顧客的瀏覽行為和購(gòu)買行為來(lái)細(xì)分不同類型的顧客,甚至發(fā)現(xiàn)潛在的顧客,這是一個(gè)分類問(wèn)題B、通過(guò)房子的面積、臥室數(shù)、衛(wèi)生間數(shù)量、是否二手房等來(lái)預(yù)測(cè)房?jī)r(jià),這是一個(gè)分類問(wèn)題C、通過(guò)郵件的內(nèi)容來(lái)檢測(cè)收到的郵件不是不垃圾郵件,這是一個(gè)分類問(wèn)題D、回歸和分類都屬于監(jiān)督學(xué)習(xí),而聚類屬于無(wú)監(jiān)督學(xué)習(xí)【正確答案】:CD解析:

029.長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)在哪些領(lǐng)域有成功應(yīng)用A、語(yǔ)音識(shí)別B、圖片描述C、自然語(yǔ)言處理D、以上都不正確【正確答案】:ABC解析:

030.以下屬于角點(diǎn)提取的特征描述算法的有。A、CannyB、HOGC、SURFD、SIFT【正確答案】:BCD解析:

對(duì)特征的描述有很多種方法和算子,常見(jiàn)的有SIFT特征描述算子、SURF特征描述算子、ORB特征描述算子、HOG特征描述、LBP特征描述以及Harr特征描述。Canny算法是多級(jí)邊緣檢測(cè)算法。答案BCD31.噪聲數(shù)據(jù)的產(chǎn)生原因主要有:()A、數(shù)據(jù)采集設(shè)備有問(wèn)題B、在數(shù)據(jù)錄入過(guò)程中發(fā)生了人為或計(jì)算機(jī)錯(cuò)誤C、數(shù)據(jù)傳輸過(guò)程中發(fā)生錯(cuò)誤D、由于命名規(guī)則或數(shù)據(jù)代碼不同而引起的不一致【正確答案】:ABCD解析:

032.大數(shù)據(jù)智能是新一代人工智能五個(gè)技術(shù)發(fā)展方向之一,其研究面向CPH(賽博、物理人類)三元空間的知識(shí)表達(dá)新體系,鏈接()A、實(shí)體B、技術(shù)C、行為D、關(guān)系【正確答案】:ACD解析:

見(jiàn)算法解析33.seq2seq主要由()和()組成,A、EncoderB、transformerC、DecoderD、dropper【正確答案】:AC解析:

見(jiàn)算法解析34.在隨機(jī)森林中,最終的集成模型是通過(guò)什么策略決定模型結(jié)果的?A、累加制B、求平均數(shù)C、投票制D、累乘制【正確答案】:BC解析:

035.決策樹構(gòu)建過(guò)程中剪枝的策略有A、預(yù)剪枝B、前剪枝C、后剪枝D、再剪枝【正確答案】:AC解析:

剪枝的策略有兩種:預(yù)剪枝和后剪枝。36.常用的盲目搜索方法是什么?A、隨機(jī)碰撞式搜索B、精確碰撞式搜索C、不完全式搜索D、完全式搜索【正確答案】:AD解析:

037.以下屬于多層前饋神經(jīng)網(wǎng)絡(luò)特點(diǎn)的是A、每層神經(jīng)元與下一層神經(jīng)元之間完全互連B、每層神經(jīng)元與下一層神經(jīng)元之間不完全互連C、神經(jīng)元之間不存在同層連接D、神經(jīng)元之間不存在跨層連接【正確答案】:ACD解析:

常用的神經(jīng)網(wǎng)絡(luò)稱為“多層前饋神經(jīng)網(wǎng)絡(luò)”(multi-layerfeedforwardneuralnetwork),該結(jié)構(gòu)滿足以下幾個(gè)特點(diǎn):*每層神經(jīng)元與下一層神經(jīng)元之間完全互連*神經(jīng)元之間不存在同層連接*神經(jīng)元之間不存在跨層連接38.關(guān)于反向傳播算法,它的主要不足在于()。A、訓(xùn)練時(shí)間較長(zhǎng)B、完全不能訓(xùn)練,訓(xùn)練時(shí)由于權(quán)值調(diào)整過(guò)大使得激活函數(shù)達(dá)到飽和C、易陷入局部極小值D、訓(xùn)練過(guò)程中,學(xué)習(xí)新樣本時(shí)有一網(wǎng)舊樣本的趨勢(shì)?!菊_答案】:ABCD解析:

039.狀態(tài)估計(jì)的幾種常用算法()。A、高斯法B、最小二乘法C、快速分解法D、正交變換法【正確答案】:BCD解析:

040.哪些不能用來(lái)評(píng)估神經(jīng)網(wǎng)絡(luò)的計(jì)算模型對(duì)樣本的預(yù)測(cè)值與真實(shí)值之間的誤差大小A、優(yōu)化函數(shù)B、損失函數(shù)C、梯度下降D、反向傳播【正確答案】:ACD解析:

損失函數(shù)用來(lái)衡量神經(jīng)網(wǎng)絡(luò)的計(jì)算模型對(duì)樣本的預(yù)測(cè)值與真實(shí)值之間的誤差41.關(guān)于卷積神經(jīng)網(wǎng)絡(luò)池化層以下描述正確的是?A、池化操作采用掃描窗口實(shí)現(xiàn)B、池化層可以起到降維的作用C、常用的池化方法有最大池化和平均池化D、經(jīng)過(guò)池化的特征圖像變小了【正確答案】:ABCD解析:

池化是一種down-sampling技術(shù),本質(zhì)是基于滑動(dòng)窗口的思想,可以去除特征圖中的冗余信息,降低特征圖的維度。常用的是最大池化和平均池化42.如下哪些是最近鄰分類器的特點(diǎn)()A、它使用具體的訓(xùn)練實(shí)例進(jìn)行預(yù)測(cè),不必維護(hù)源自數(shù)據(jù)的模型B、分類一個(gè)測(cè)試樣例開銷很大C、最近鄰分類器基于全局信息進(jìn)行預(yù)測(cè)D、可以生產(chǎn)任意形狀的決策邊界【正確答案】:ABD解析:

043.除了問(wèn)題本身的定義之外,使用問(wèn)題特定知識(shí)的搜索策略被認(rèn)為是A、啟發(fā)式搜索B、有信息搜索C、二元搜索D、無(wú)信息搜索【正確答案】:AB解析:

044.那種機(jī)器學(xué)習(xí)算法不需要對(duì)數(shù)據(jù)進(jìn)行標(biāo)注A、有監(jiān)督學(xué)習(xí)B、無(wú)監(jiān)督學(xué)習(xí)C、強(qiáng)化學(xué)習(xí)D、深度學(xué)習(xí)【正確答案】:BC解析:

無(wú)監(jiān)督學(xué)習(xí)和強(qiáng)化學(xué)習(xí)不需要標(biāo)注45.聯(lián)想存儲(chǔ)的特點(diǎn)是()A、可以存儲(chǔ)許多相關(guān)(激勵(lì),響應(yīng))模式對(duì)B、以分布、穩(wěn)健的方式存儲(chǔ)信息C、即使輸入激勵(lì)模式完全失真時(shí),仍然可以產(chǎn)生正確的響應(yīng)模式D、可在原存儲(chǔ)中加入新的存儲(chǔ)模式【正確答案】:ABCD解析:

046.不使用全連接處理序列問(wèn)題的原因是()A、時(shí)間步不能確定B、模型太簡(jiǎn)單C、只能處理分類D、算法精度不足【正確答案】:ABD解析:

047.對(duì)股票漲跌方向的判斷,理論上下列哪些方法是可行的?()A、SVMB、DBSCANC、FP-growthD、決策樹【正確答案】:AD解析:

見(jiàn)算法解析48.使用KNN(K-NearestNeighbor)算法解決分類問(wèn)題的步驟包括A、對(duì)未知數(shù)據(jù)進(jìn)行正則化B、計(jì)算未知數(shù)據(jù)與已知標(biāo)簽數(shù)據(jù)之間的距離C、得到距離未知數(shù)據(jù)最近的k個(gè)已知標(biāo)簽數(shù)據(jù)D、通過(guò)已知標(biāo)簽數(shù)據(jù)的數(shù)量進(jìn)行多數(shù)表決,作為未知數(shù)據(jù)的分類結(jié)果【正確答案】:BCD解析:

049.專家系統(tǒng)知識(shí)表示的方法主要有哪些?A、邏輯表示法(謂詞表示法)B、框架C、產(chǎn)生式D、語(yǔ)義網(wǎng)絡(luò)【正確答案】:ABCD解析:

050.以下哪些聚類算法屬于基于原型的聚類()。A、模糊C均值B、EM算法C、SOMD、CLIQUE【正確答案】:ABC解析:

051.以下哪些是專家系統(tǒng)結(jié)構(gòu)的一部分?A、知識(shí)庫(kù)B、推理機(jī)C、動(dòng)態(tài)數(shù)據(jù)庫(kù)D、解釋模塊【正確答案】:ABCD解析:

專家系統(tǒng)的結(jié)構(gòu)包含人機(jī)界面、知識(shí)庫(kù)、推理機(jī)、動(dòng)態(tài)數(shù)據(jù)庫(kù)、知識(shí)庫(kù)答理系統(tǒng)和解釋模塊。52.假設(shè)我們要解決一個(gè)二類分類問(wèn)題,我們已經(jīng)建立好了模型,輸出是0或1,初始時(shí)設(shè)閾值為0.5,超過(guò)0.5概率估計(jì),就判別為1,否則就判別為0;如果我們現(xiàn)在用另一個(gè)大于0.5的閾值,那么現(xiàn)在關(guān)于模型說(shuō)法,正確的是A、模型分類的召回率不變B、模型分類的召回率會(huì)升高C、模型分類準(zhǔn)確率會(huì)升高或不變D、模型分類準(zhǔn)確率降低【正確答案】:AC解析:

準(zhǔn)確率:即預(yù)測(cè)結(jié)果正確的百分比。精確率(查準(zhǔn)率):預(yù)測(cè)結(jié)果為正例樣本中真實(shí)為正例的比例(查得準(zhǔn))。召回率(查全率):真實(shí)為正例的樣本中預(yù)測(cè)結(jié)果為正例的比例(查的全,對(duì)正樣本的區(qū)分能力。F-score:在實(shí)踐中,我們定義了新的指標(biāo)去“綜合”這兩個(gè)指標(biāo)。具體的定義如公式(3),從數(shù)學(xué)上來(lái)看,它其實(shí)是查準(zhǔn)率與查全率的調(diào)和平均數(shù)。對(duì)于二元分類問(wèn)題,F(xiàn)-score綜合考慮了預(yù)測(cè)結(jié)果的查準(zhǔn)率和查全率,是一個(gè)比較好的評(píng)估指標(biāo)。53.下列無(wú)監(jiān)督學(xué)習(xí)算法中可解決降維問(wèn)題的算法有A、PCAB、LSAC、LDAD、k-means【正確答案】:ABC解析:

k-means只能解決聚類問(wèn)題54.下列有監(jiān)督學(xué)習(xí)算法中可解決回歸問(wèn)題的算法包括A、線性回歸B、邏輯回歸C、神經(jīng)網(wǎng)絡(luò)D、隨機(jī)森林【正確答案】:ACD解析:

邏輯回歸無(wú)法解決回歸問(wèn)題55.對(duì)股價(jià)的預(yù)測(cè),下列哪些方法是可行的()A、kNNB、SVRC、線性回歸D、邏輯回歸【正確答案】:BC解析:

見(jiàn)算法解析56.圖像數(shù)字化需要經(jīng)過(guò)的步驟包括A、采樣B、裁剪C、量化D、旋轉(zhuǎn)【正確答案】:AC解析:

見(jiàn)算法解析57.現(xiàn)代的卷積神經(jīng)網(wǎng)絡(luò),常用的模塊包括哪些()A、多分枝結(jié)構(gòu)B、殘差連接C、BatchNormalizationD、Sigmoid激活函數(shù)【正確答案】:ABC解析:

見(jiàn)算法解析58.下列哪些方法的輸出結(jié)果,通常包含boundingbox?()A、MTCNNB、FasterRCNNC、MaskRCNND、AlexNet【正確答案】:ABC解析:

見(jiàn)算法解析59.產(chǎn)生式系統(tǒng)的組成部分包括()A、狀態(tài)空間B、綜合數(shù)據(jù)庫(kù)C、規(guī)則集D、控制策略【正確答案】:BCD解析:

060.卷積神經(jīng)網(wǎng)絡(luò)中典型的模式是?A、卷積層后為池化層,然后還是卷積層-池化層。B、多個(gè)連續(xù)的池化層,然后跟著一個(gè)卷積層C、網(wǎng)絡(luò)中最后的幾個(gè)層是全連接層D、網(wǎng)絡(luò)中最開始的幾個(gè)層是全連接層【正確答案】:AC解析:

一般卷積層后為池化層,網(wǎng)絡(luò)最后為幾個(gè)全連接層。61.梯度為0的點(diǎn)可以是()A、局部最優(yōu)解B、全局最優(yōu)解C、鞍點(diǎn)D、轉(zhuǎn)折點(diǎn)【正確答案】:ABC解析:

062.防止過(guò)擬合的方法有A、增加訓(xùn)練數(shù)據(jù)B、減少特征值C、正則化D、追求損失函數(shù)的最小【正確答案】:ABC解析:

063.深度學(xué)習(xí)中以下哪些步驟是由模型自動(dòng)完成的?A、模型訓(xùn)練B、特征選擇C、分析定位任務(wù)D、特征提取【正確答案】:BD解析:

064.正則化是傳統(tǒng)機(jī)器學(xué)習(xí)中重要且有效的減少泛化誤差的技術(shù),以下技術(shù)屬于正則化技術(shù)的是A、L1正則化B、L2正則化C、DropoutD、動(dòng)量?jī)?yōu)化器【正確答案】:ABC解析:

正則化和優(yōu)化策略是深度學(xué)習(xí)的兩個(gè)重要部分,L1、L2正則化和Dropout屬于正則化,而動(dòng)量?jī)?yōu)化屬于優(yōu)化策略。65.長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)中具有三個(gè)重要開關(guān),我們稱為A、記憶門B、輸入門C、輸出門D、遺忘門【正確答案】:BCD解析:

066.經(jīng)典邏輯推理有哪些?A、自然演繹推理B、歸結(jié)演繹推理C、不確定與非單調(diào)推理D、與、或形演繹推理【正確答案】:ABD解析:

067.選擇下列哪些方法可以用于表示表示智能體的狀態(tài)A、結(jié)構(gòu)式B、模塊式C、網(wǎng)絡(luò)式D、因子式【正確答案】:AD解析:

068.在機(jī)器學(xué)習(xí)中,如果單純?nèi)ヌ岣哂?xùn)練數(shù)據(jù)的預(yù)測(cè)能力,所選模型的復(fù)雜度往往會(huì)很高,這種現(xiàn)象稱為過(guò)擬合對(duì)于產(chǎn)生這種現(xiàn)象以下說(shuō)法正確的是()A、樣本數(shù)量太少B、樣本數(shù)量過(guò)多C、模型太復(fù)雜D、模型太簡(jiǎn)單【正確答案】:AC解析:

見(jiàn)算法解析69.基因知識(shí)圖譜具備以下哪幾種能力?A、輔助病例診斷B、疾病預(yù)測(cè)及診斷C、基因檢測(cè)報(bào)告生成D、實(shí)體查詢【正確答案】:ACD解析:

070.淺層神經(jīng)網(wǎng)絡(luò)與深度神經(jīng)網(wǎng)絡(luò)比較,其區(qū)別之處是A、淺層結(jié)構(gòu)算法:其局限性在于有限樣本和計(jì)算單元情況下對(duì)復(fù)雜函數(shù)的表示能力有限,針對(duì)復(fù)雜分類問(wèn)題其泛化能力受到一定制約B、深度學(xué)習(xí)可通過(guò)學(xué)習(xí)一種深層非線性網(wǎng)絡(luò)結(jié)構(gòu),實(shí)現(xiàn)復(fù)雜函數(shù)逼近,表征輸入數(shù)據(jù)分布式表示,并展現(xiàn)了強(qiáng)大的從少數(shù)樣本集中學(xué)習(xí)數(shù)據(jù)集本質(zhì)特征的能力C、深度學(xué)習(xí)多層的好處是可以用較少的參數(shù)表示復(fù)雜的函數(shù)D、深度學(xué)習(xí)的實(shí)質(zhì),是通過(guò)構(gòu)建具有很多隱層的機(jī)器學(xué)習(xí)模型和海量的訓(xùn)練數(shù)據(jù),來(lái)學(xué)習(xí)更有用的特征,從而最終提升分類或預(yù)測(cè)的準(zhǔn)確性【正確答案】:ABCD解析:

淺層結(jié)構(gòu)算法:其局限性在于有限樣本和計(jì)算單元情況下對(duì)復(fù)雜函數(shù)的表示能力有限,針對(duì)復(fù)雜分類問(wèn)題其泛化能力受到一定制約,深度學(xué)習(xí)可通過(guò)學(xué)習(xí)一種深層非線性網(wǎng)絡(luò)結(jié)構(gòu),實(shí)現(xiàn)復(fù)雜函數(shù)逼近,表征輸入數(shù)據(jù)分布式表示,并展現(xiàn)了強(qiáng)大的從少數(shù)樣本集中學(xué)習(xí)數(shù)據(jù)集本質(zhì)特征的能力,深度學(xué)習(xí)多層的好處是可以用較少的參數(shù)表示復(fù)雜的函數(shù),深度學(xué)習(xí)的實(shí)質(zhì),是通過(guò)構(gòu)建具有很多隱層的機(jī)器學(xué)習(xí)模型和海量的訓(xùn)練數(shù)據(jù),來(lái)學(xué)習(xí)更有用的特征,從而最終提升分類或預(yù)測(cè)的準(zhǔn)確性71.若使用深度學(xué)習(xí)處理語(yǔ)義分類任務(wù),在處理變長(zhǎng)數(shù)據(jù)時(shí),我們通常采?。ǎ、截?cái)噙^(guò)長(zhǎng)語(yǔ)句B、填充隨機(jī)數(shù)C、填充特殊詞語(yǔ)D、不處理【正確答案】:AC解析:

深度學(xué)習(xí)處理長(zhǎng)語(yǔ)句的常用手段72.集成學(xué)習(xí)模型的集成方式有A、同質(zhì)集成B、異質(zhì)集成C、本質(zhì)集成D、泛化集成【正確答案】:AB解析:

若個(gè)體學(xué)習(xí)器都屬于同一類別,例如都是決策樹或都是神經(jīng)網(wǎng)絡(luò),則稱該集成為同質(zhì)的(homogeneous);若個(gè)體學(xué)習(xí)器包含多種類型的學(xué)習(xí)算法,例如既有決策樹又有神經(jīng)網(wǎng)絡(luò),則稱該集成為異質(zhì)的(heterogenous)。73.下列哪些網(wǎng)用到了殘差連接A、FastTextBERTC、GoogLeNetD、ResNet【正確答案】:BD解析:

見(jiàn)算法解析74.以下關(guān)于機(jī)器學(xué)習(xí)算法與傳統(tǒng)基于規(guī)則方法的區(qū)別中正確的是?A、傳統(tǒng)的基于規(guī)則的方法,其中的規(guī)律可以人工顯性的明確出來(lái)B、傳統(tǒng)基于規(guī)則的方法使用顯性編程來(lái)解決問(wèn)題C、機(jī)器學(xué)習(xí)中模型的映射關(guān)系是自動(dòng)學(xué)習(xí)的D、機(jī)器學(xué)習(xí)所中模型的映射關(guān)系必須是隱性的【正確答案】:ABC解析:

075.下面屬于數(shù)據(jù)集的一般特性的有:()A、連續(xù)性B、維度C、稀疏性D、相異性【正確答案】:BC解析:

076.神經(jīng)網(wǎng)絡(luò)解決非線性分類,是通過(guò)()A、構(gòu)造神經(jīng)網(wǎng)絡(luò)B、用激活函數(shù)C、訓(xùn)練權(quán)重矩陣D、讓損失最大化【正確答案】:ABC解析:

077.漢語(yǔ)的演化史表明,量詞的真實(shí)功用可能與()沒(méi)有任何關(guān)系A(chǔ)、隱喻機(jī)制B、個(gè)體化機(jī)制C、單復(fù)數(shù)區(qū)分D、補(bǔ)足音素【正確答案】:BC解析:

見(jiàn)算法解析78.下列選項(xiàng)屬于靜態(tài)圖缺點(diǎn)的是()A、代碼編寫較為簡(jiǎn)潔和方便B、計(jì)算圖構(gòu)建很長(zhǎng)時(shí)間后才提示錯(cuò)誤C、無(wú)法使用pdb或print語(yǔ)句調(diào)試執(zhí)行D、控制流與Python不同,造成一定的學(xué)習(xí)門檻【正確答案】:BCD解析:

見(jiàn)算法解析79.下面關(guān)于隨機(jī)森林和集成學(xué)習(xí)的說(shuō)法,正確的是:A、隨機(jī)森林只能用于解決分類問(wèn)題B、隨機(jī)森林由隨機(jī)數(shù)量的決策樹組成C、集成學(xué)習(xí)通過(guò)構(gòu)建多個(gè)模型,并將各個(gè)模型的結(jié)果使用求平均數(shù)的方法集成起來(lái),作為最終的預(yù)測(cè)結(jié)果,提高分類問(wèn)題的準(zhǔn)確率D、隨機(jī)森林的弱分類器(基分類器)的特征選擇是隨機(jī)的【正確答案】:CD解析:

080.以下說(shuō)法正確的是()。A、聚類是監(jiān)督學(xué)習(xí)B、聚類是非監(jiān)督學(xué)習(xí)C、分類是非監(jiān)督學(xué)習(xí)D、分類是監(jiān)督學(xué)習(xí)【正確答案】:BD解析:

081.下列是svm核函數(shù)的是()A、多項(xiàng)式核函數(shù)B、logistic核函數(shù)C、徑向基核函數(shù)D、sigmoid核函數(shù)【正確答案】:ACD解析:

082.vgg19中的19代表了網(wǎng)絡(luò)中哪些層的數(shù)目總和()A、全連接層B、輸入層C、池化層D、卷積層【正確答案】:ACD解析:

vgg19是常用的卷積神經(jīng)網(wǎng)絡(luò)之一,包括16層卷積層和3層全連接層,中間用到池化層83.可以有效解決過(guò)擬合的方法包括()A、增加樣本數(shù)量B、增加特征數(shù)量C、訓(xùn)練更多的迭代次數(shù)D、采用正則化方法【正確答案】:AD解析:

見(jiàn)算法解析84.下列選項(xiàng)中,哪項(xiàng)是可以用于數(shù)據(jù)采集的技術(shù)?A、FlumeB、HiveC、KafkaD、Mahout【正確答案】:AC解析:

Hive和Mahout主要用于數(shù)據(jù)的分析式處理85.決策樹最常用的算法有A、ID3B、C4.5CARTD、ID4.5【正確答案】:ABC解析:

決策樹最常用的算法有三種:ID3,C4.5和CART。86.下面關(guān)于邏輯回歸的說(shuō)法,正確的是:A、邏輯回歸主要應(yīng)用于二分類問(wèn)題B、邏輯回歸使用LogisticFunction后得到的數(shù)值在-1到1之間C、把邏輯回歸應(yīng)用于多分類問(wèn)題時(shí),需要使用Onevs.Rest方法D、邏輯回歸得到的數(shù)值可以看作屬于類別1的概率【正確答案】:ACD解析:

087.下面關(guān)于決策樹的說(shuō)法,正確的是:A、決策樹有二叉樹和多叉樹B、建立決策樹模型的時(shí)候,可能不需要用到數(shù)據(jù)集中的所有特征來(lái)建立決策樹節(jié)點(diǎn)的分裂規(guī)則C、決策樹子節(jié)點(diǎn)分裂時(shí),選擇的是最優(yōu)的特征進(jìn)行分裂D、決策樹只能用于分類【正確答案】:ABC解析:

088.關(guān)于遺傳算法和進(jìn)化策略,下列說(shuō)法正確的是A、遺傳算法同時(shí)使用交叉和突變操作B、進(jìn)化策略僅使用交叉操作C、進(jìn)化策略不需要用編碼的形式來(lái)表示問(wèn)題D、進(jìn)化策略使用純粹的數(shù)值優(yōu)化計(jì)算【正確答案】:ACD解析:

遺傳算法根據(jù)問(wèn)題域中個(gè)體的適應(yīng)度大小,按照輪盤賭的方法選擇個(gè)體,在完成選擇后,還需要進(jìn)行組合交叉和變異,產(chǎn)生出代表新的解集的種群。A項(xiàng)正確。遺傳算法采用二進(jìn)制編碼雜交;而進(jìn)化策略使用實(shí)數(shù)。CD正確。進(jìn)化策略的每個(gè)個(gè)體都具有兩個(gè)特點(diǎn)。1、基因,通過(guò)基因進(jìn)行運(yùn)算可以得到每個(gè)個(gè)體的適應(yīng)度。2、變異強(qiáng)度,變異強(qiáng)度則是每次基因雜交完,基因變化的一個(gè)范圍。B項(xiàng)錯(cuò)誤。答案ACD89.在卷積神經(jīng)網(wǎng)絡(luò)中,一個(gè)10*10的像素在使用5*5的卷積核進(jìn)行池化,在不補(bǔ)零的情況下能得到以下哪些大小的featuremapA、2*2B、4*4C、6*6D、8*8【正確答案】:ABC解析:

H(output)=(H(input)?F)/S+1;W(output)=(Winput?F)/S+190.人工智能算法中,決策樹分類算法包括A、C4.5B、ID3C、SGDD、CART【正確答案】:ABD解析:

常見(jiàn)決策樹分類算法包括C4.5,ID3,CART。SGD隨機(jī)梯度下降算法屬于降維算法。91.為增加模型的泛化能力,可以使用下列哪些方法A、L1正則化B、L2正則化C、DropoutD、增加訓(xùn)練集樣本數(shù)量【正確答案】:ABCD解析:

4種方法均可92.機(jī)器翻譯的局限性在于()A、訓(xùn)練樣本單一B、只能處理簡(jiǎn)單句C、基于已有的既成案例D、錯(cuò)誤較多【正確答案】:BC解析:

見(jiàn)算法解析93.大規(guī)模關(guān)系分析場(chǎng)景下,以下哪個(gè)選項(xiàng)屬于海量關(guān)系處理的三高需求()A、對(duì)海量數(shù)據(jù)的高效關(guān)系發(fā)現(xiàn)需求B、對(duì)海量數(shù)據(jù)的高效共享需求C、對(duì)海量數(shù)據(jù)的高效存儲(chǔ)和訪問(wèn)需求D、對(duì)關(guān)系分析平臺(tái)的高可擴(kuò)展性和高可用性【正確答案】:ACD解析:

094.英語(yǔ)重視哪兩個(gè)問(wèn)題的區(qū)分?()A、謂語(yǔ)與非謂語(yǔ)B、可數(shù)名詞與不可數(shù)名詞C、冠詞與數(shù)詞D、單復(fù)數(shù)【正確答案】:BD解析:

見(jiàn)算法解析95.Svm適用于以下哪種數(shù)據(jù)集()A、線性可分的數(shù)據(jù)集B、含有很多噪聲和重疊的數(shù)據(jù)C、經(jīng)過(guò)清洗較為干凈的數(shù)據(jù)D、以上數(shù)據(jù)都適用【正確答案】:AB解析:

096.對(duì)于樸素貝葉斯分類器,下面說(shuō)法正確的是()A、適用于小規(guī)模數(shù)據(jù)集B、適用于多分類任務(wù)C、適合增量式訓(xùn)練D、對(duì)輸入數(shù)據(jù)的表達(dá)形式不敏感【正確答案】:ABC解析:

097.關(guān)于線性回歸說(shuō)法正確的是()A、輸入特征是非隨機(jī)的且互不相關(guān)的B、隨機(jī)誤差具有零均值,同方差的特點(diǎn)C、隨機(jī)誤差彼此間不相關(guān)D、輸入特征于隨機(jī)誤差不相關(guān)【正確答案】:ABCD解析:

098.下列說(shuō)法正確的是()A、k折劃分后,得到的是分組后的索引值B、LOO計(jì)算開銷更少C、LOO比k折效果更差D、k折劃分后,得到的是分組后的元素【正確答案】:AC解析:

099.以下屬于深度學(xué)習(xí)算法的是A、CNNB、FCMC、FPND、GCN【正確答案】:ACD解析:

FCM算法是聚類算法,不是深度學(xué)習(xí)算法100.數(shù)據(jù)真實(shí)性具備哪兩種特質(zhì)?A、準(zhǔn)確性B、不確定性C、可信賴度D、雜亂性【正確答案】:AC解析:

01.大數(shù)據(jù)要跟“互聯(lián)網(wǎng)+醫(yī)療健康”緊密地結(jié)合起來(lái),國(guó)家明確的支持“互聯(lián)網(wǎng)+醫(yī)療”、“互聯(lián)網(wǎng)+健康”所以在新的醫(yī)改背景下,互聯(lián)網(wǎng)醫(yī)療跟大數(shù)據(jù)的結(jié)合將會(huì)取得更重要的發(fā)展A、正確B、錯(cuò)誤【正確答案】:A解析:

正確2.訓(xùn)練循環(huán)神經(jīng)網(wǎng)絡(luò)的算法是BPTTA、正確B、錯(cuò)誤【正確答案】:A解析:

正確3.LR的損失函數(shù)為hingeloss(或者說(shuō)是邏輯損失都可以)、而SVM的損失函數(shù)為L(zhǎng)og損失。A、正確B、錯(cuò)誤【正確答案】:B解析:

錯(cuò)誤4.Python標(biāo)準(zhǔn)庫(kù)os中的方法isdir()可以用來(lái)測(cè)試給定的路徑是否為文件夾。A、正確B、錯(cuò)誤【正確答案】:A解析:

正確5.u-net也是采用了encoder-decoder這一結(jié)構(gòu)A、正確B、錯(cuò)誤【正確答案】:A解析:

正確6.人工智能技術(shù)已經(jīng)由原本的單一化輸出向全套解決方案轉(zhuǎn)變,其滲透性也不斷減弱A、正確B、錯(cuò)誤【正確答案】:B解析:

人工智能技術(shù)已經(jīng)由原本的單一化輸出向全套解決方案轉(zhuǎn)變,其滲透性也不斷增強(qiáng)7.語(yǔ)音識(shí)別技術(shù)就是讓機(jī)器通過(guò)處理和識(shí)別過(guò)程,把語(yǔ)音信號(hào)轉(zhuǎn)變?yōu)橄鄳?yīng)的文本或信息的高技術(shù)A、正確B、錯(cuò)誤【正確答案】:A解析:

正確8.對(duì)于多分類問(wèn)題神經(jīng)網(wǎng)絡(luò)一般使用歐氏距離損失而不用交叉熵A、正確B、錯(cuò)誤【正確答案】:B解析:

分類問(wèn)題常用的損失函數(shù)為交叉熵9.在GBK和CP936編碼中一個(gè)漢字需要2個(gè)字節(jié)。A、正確B、錯(cuò)誤【正確答案】:A解析:

正確10.Python標(biāo)準(zhǔn)庫(kù)os中的方法listdir()返回包含指定路徑中所有文件和文件夾A、正確B、錯(cuò)誤【正確答案】:A解析:

正確11.人工智能就是機(jī)器展現(xiàn)出的智能,即只要是某種機(jī)器,具有某種或某些智能的特征或表現(xiàn),都應(yīng)該算作“人工智能”A、正確B、錯(cuò)誤【正確答案】:A解析:

正確12.在處理序列數(shù)據(jù)時(shí),較容易出現(xiàn)梯度消失現(xiàn)象的模型是RNN。A、正確B、錯(cuò)誤【正確答案】:A解析:

RNN有短期記憶問(wèn)題,無(wú)法處理很長(zhǎng)的輸入序列,訓(xùn)練RNN需要投入極大的成本13.目標(biāo)檢測(cè)的主要目的是讓計(jì)算機(jī)可以自動(dòng)識(shí)別圖片或者視頻幀中所有目標(biāo)的類別,并在該目標(biāo)周圍繪制邊界框,標(biāo)示出每個(gè)目標(biāo)的位置A、正確B、錯(cuò)誤【正確答案】:A解析:

正確14.基于規(guī)則的AI系統(tǒng)由一連串的if-then-else規(guī)則來(lái)進(jìn)行推斷或行動(dòng)決策。()A、正確B、錯(cuò)誤【正確答案】:A解析:

015.人工智能技術(shù)可通過(guò)對(duì)特征庫(kù)學(xué)習(xí)自動(dòng)查找系統(tǒng)漏洞和識(shí)別關(guān)鍵目標(biāo),提高攻擊效率。A、正確B、錯(cuò)誤【正確答案】:A解析:

正確16.當(dāng)在內(nèi)存網(wǎng)絡(luò)中獲得某個(gè)內(nèi)存空間時(shí),通常選擇讀取矢量形式數(shù)據(jù)而不是標(biāo)量,這里需要基于內(nèi)容的尋址或基于位置的尋址來(lái)完成A、正確B、錯(cuò)誤【正確答案】:B解析:

017.購(gòu)物籃模型(maket-basketmodel):用于描述兩種對(duì)象之間的一對(duì)多關(guān)系A(chǔ)、正確B、錯(cuò)誤【正確答案】:B解析:

多對(duì)多關(guān)系18.Mapreduce適用于可以串行處理的應(yīng)用程序A、正確B、錯(cuò)誤【正確答案】:B解析:

019.根據(jù)發(fā)音對(duì)象不同,語(yǔ)音識(shí)別可以分為特定人語(yǔ)音識(shí)別和非特定人語(yǔ)音識(shí)別A、正確B、錯(cuò)誤【正確答案】:A解析:

正確20.Python2.x和Python3.x中input()函數(shù)的返回值都是字符串。A、正確B、錯(cuò)誤【正確答案】:B解析:

見(jiàn)函數(shù)庫(kù)21.LSTM單元中,輸入門控制當(dāng)前信息的注入,遺忘門過(guò)濾上個(gè)時(shí)刻的不重要信息,然后兩者處理后的信息相加后更新當(dāng)前時(shí)刻的狀態(tài)向量A、正確B、錯(cuò)誤【正確答案】:A解析:

正確22.相較于機(jī)器學(xué)習(xí)經(jīng)典的有監(jiān)督學(xué)習(xí)、無(wú)監(jiān)督學(xué)習(xí)問(wèn)題,強(qiáng)化學(xué)習(xí)最大的特點(diǎn)是在交互中學(xué)習(xí)A、正確B、錯(cuò)誤【正確答案】:A解析:

正確23.計(jì)算機(jī)視覺(jué)的主要研究方向分為圖像分類、目標(biāo)檢測(cè)、目標(biāo)跟蹤和語(yǔ)義分割A(yù)、正確B、錯(cuò)誤【正確答案】:A解析:

正確24.用于分類與回歸應(yīng)用的主要算法有決策樹、BP神經(jīng)網(wǎng)絡(luò)、貝葉斯A、正確B、錯(cuò)誤【正確答案】:A解析:

025.bagging不允許訓(xùn)練實(shí)例被同一個(gè)預(yù)測(cè)器多次采樣。A、正確B、錯(cuò)誤【正確答案】:B解析:

允許26.Kmean模型能自動(dòng)生成K個(gè)聚類中心A、正確B、錯(cuò)誤【正確答案】:B解析:

錯(cuò)誤27.鼓勵(lì)人工智能企業(yè)參與或主導(dǎo)制定國(guó)際標(biāo)準(zhǔn),加強(qiáng)人工智能領(lǐng)域的知識(shí)產(chǎn)權(quán)保護(hù),建立人工智能公共專利池,促進(jìn)人工智能新技術(shù)的利用與擴(kuò)散A、正確B、錯(cuò)誤【正確答案】:A解析:

正確28.訓(xùn)練CNN時(shí),可以對(duì)輸入進(jìn)行旋轉(zhuǎn)、平移、縮放等預(yù)處理提高模型泛化能力A、正確B、錯(cuò)誤【正確答案】:A解析:

029.DSSM模型的結(jié)構(gòu)是三塔A、正確B、錯(cuò)誤【正確答案】:B解析:

雙塔30.深度學(xué)習(xí)與機(jī)器學(xué)習(xí)算法之間的區(qū)別在于,后者過(guò)程中無(wú)需進(jìn)行特征提取工作,也就是說(shuō),我們建議在進(jìn)行深度學(xué)習(xí)過(guò)程之前要首先完成特征提取的工作。A、正確B、錯(cuò)誤【正確答案】:B解析:

031.AdaGrad使用的是一階差分(firstorderdifferentiation)A、正確B、錯(cuò)誤【正確答案】:A解析:

032.根據(jù)覆蓋面不同,知識(shí)圖譜可以分為通用知識(shí)圖譜、行業(yè)知識(shí)圖譜A、正確B、錯(cuò)誤【正確答案】:A解析:

正確33.SPPTextMining是文本挖掘的工具A、正確B、錯(cuò)誤【正確答案】:B解析:

034.Sigmoid是早期神經(jīng)網(wǎng)絡(luò)模型中常見(jiàn)的非線性變換函數(shù)A、正確B、錯(cuò)誤【正確答案】:A解析:

正確35.谷歌研究提出,隨著訓(xùn)練數(shù)據(jù)數(shù)量級(jí)的增加,相同機(jī)器視覺(jué)算法模型的性能呈指數(shù)上升。A、正確B、錯(cuò)誤【正確答案】:B解析:

歌研究提出,隨著訓(xùn)練數(shù)據(jù)數(shù)量級(jí)的增加,相同機(jī)器視覺(jué)算法模型的性能呈線性上升。36.Inception塊的設(shè)計(jì)思想:多通路(multi-path)設(shè)計(jì)形式,使用不同大小的卷積核提取圖像特征,并附加最大池化操作,將這四個(gè)輸出層沿著通道這一維度進(jìn)行拼接。最終輸出特征圖將包含不同大小的卷積核提取到的特征A、正確B、錯(cuò)誤【正確答案】:A解析:

正確37.如果需要連接大量字符串成為一個(gè)字符串,那么使用字符串對(duì)象的join()方法比運(yùn)算符+具有更高的效率。A、正確B、錯(cuò)誤【正確答案】:A解析:

正確38.飛槳支持兩種深度學(xué)習(xí)建模編寫方式,更方便調(diào)試的動(dòng)態(tài)圖模式和性能更好并便于部署的靜態(tài)圖模式A、正確B、錯(cuò)誤【正確答案】:A解析:

正確39.在UTF-8編碼中一個(gè)漢字需要占用3個(gè)字節(jié)。A、正確B、錯(cuò)誤【正確答案】:A解析:

正確40.計(jì)算機(jī)視覺(jué)中最基本的幾個(gè)子任務(wù)是:圖像分類、物體檢測(cè)、圖像語(yǔ)義分割和實(shí)例分割A(yù)、正確B、錯(cuò)誤【正確答案】:A解析:

正確41.LSTM是一個(gè)非常經(jīng)典的面向序列的模型,可以對(duì)自然語(yǔ)言句子或是其他時(shí)序信號(hào)進(jìn)行建模,是一種循環(huán)神經(jīng)網(wǎng)絡(luò)。A、正確B、錯(cuò)誤【正確答案】:A解析:

正確42.Gini指數(shù)越大表示集合中被選中的樣本被分錯(cuò)的概率越小,也就是說(shuō)集合的純度越高。A、正確B、錯(cuò)誤【正確答案】:B解析:

注意:Gini指數(shù)越小表示集合中被選中的樣本被分錯(cuò)的概率越小,也就是說(shuō)集合的純度越高,反之,集合越不純。43.自然語(yǔ)言處理主要分為兩個(gè)流程:自然語(yǔ)言理解和自然語(yǔ)言生成A、正確B、錯(cuò)誤【正確答案】:A解析:

正確44.人工智能是對(duì)人的意識(shí)和思維過(guò)程的模擬,利用機(jī)器學(xué)習(xí)和數(shù)據(jù)分析方法賦予機(jī)器類人的能力A、正確B、錯(cuò)誤【正確答案】:A解析:

正確45.虛擬現(xiàn)實(shí)技術(shù)具有多感知性、沉浸性、交互性等特征A、正確B、錯(cuò)誤【正確答案】:A解析:

正確46.機(jī)器學(xué)習(xí),有學(xué)習(xí)能力,通過(guò)答案+數(shù)據(jù)=規(guī)則,正確率不斷提升()A、正確B、錯(cuò)誤【正確答案】:A解析:

正確47.卷積神經(jīng)網(wǎng)絡(luò)是更善于處理圖像的網(wǎng)絡(luò)A、正確B、錯(cuò)誤【正確答案】:A解析:

正確48.Python字典中的“鍵”可以是元組。A、正確B、錯(cuò)誤【正確答案】:A解析:

正確49.數(shù)據(jù)集太小,數(shù)據(jù)樣本不足時(shí),深度學(xué)習(xí)相對(duì)其它機(jī)器學(xué)習(xí)算法,有明顯優(yōu)勢(shì)。A、正確B、錯(cuò)誤【正確答案】:B解析:

錯(cuò)誤50.卷積神經(jīng)網(wǎng)絡(luò)的并發(fā)性,比循環(huán)神經(jīng)網(wǎng)絡(luò)好A、正確B、錯(cuò)誤【正確答案】:A解析:

正確51.PSP網(wǎng)絡(luò)獲取上下文信息的關(guān)鍵在于增大感受野A、正確B、錯(cuò)誤【正確答案】:A解析:

正確52.混沌度(Perplexity)是一種常見(jiàn)的應(yīng)用在使用深度學(xué)習(xí)處理NLP問(wèn)題過(guò)程中的評(píng)估技術(shù),混沌度越高越好A、正確B、錯(cuò)誤【正確答案】:B解析:

053.從產(chǎn)業(yè)鏈的角度來(lái)講,人工智能分為三層,由基礎(chǔ)層、過(guò)程層、應(yīng)用層組成A、正確B、錯(cuò)誤【正確答案】:B解析:

人工智能產(chǎn)業(yè)鏈包括三層:基礎(chǔ)層、技術(shù)層和應(yīng)用層54.人工智能研究的先驅(qū)者認(rèn)為人的智能主要表現(xiàn)在人能學(xué)習(xí)知識(shí)和運(yùn)用知識(shí)上,知識(shí)是智能的基礎(chǔ)于是學(xué)者們把專門的知識(shí)集、規(guī)則集和附加過(guò)程組成知識(shí)庫(kù),開發(fā)出許多專家系統(tǒng)(英文縮寫為ES),在領(lǐng)域獲得成功()A、正確B、錯(cuò)誤【正確答案

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論