人工智能自然語(yǔ)言技術(shù)練習(xí)(習(xí)題卷9)_第1頁(yè)
人工智能自然語(yǔ)言技術(shù)練習(xí)(習(xí)題卷9)_第2頁(yè)
人工智能自然語(yǔ)言技術(shù)練習(xí)(習(xí)題卷9)_第3頁(yè)
人工智能自然語(yǔ)言技術(shù)練習(xí)(習(xí)題卷9)_第4頁(yè)
人工智能自然語(yǔ)言技術(shù)練習(xí)(習(xí)題卷9)_第5頁(yè)
已閱讀5頁(yè),還剩50頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

試卷科目:人工智能自然語(yǔ)言技術(shù)練習(xí)人工智能自然語(yǔ)言技術(shù)練習(xí)(習(xí)題卷9)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能自然語(yǔ)言技術(shù)練習(xí)第1部分:?jiǎn)雾?xiàng)選擇題,共116題,每題只有一個(gè)正確答案,多選或少選均不得分。[單選題]1.下列哪個(gè)不是目前命名實(shí)體識(shí)別技術(shù)的難點(diǎn)?()A)長(zhǎng)度不確定B)嵌套情況復(fù)雜C)分詞準(zhǔn)確度不高D)命名實(shí)體的構(gòu)成規(guī)律復(fù)雜答案:C解析:[單選題]2.EM算法在高斯混合模型中的應(yīng)用中的E步驟主要做了什么事情A)確定Q函數(shù)B)明確隱變量,寫(xiě)出完全數(shù)據(jù)的對(duì)數(shù)似然函數(shù)C)求Q函數(shù)對(duì)theta的極大值,即求新一輪迭代的模型參數(shù)D)不確定答案:A解析:[單選題]3.下列可以用馬爾可夫模型來(lái)分析的是A)基因序列數(shù)據(jù)B)其余選項(xiàng)結(jié)對(duì)C)股價(jià)數(shù)據(jù)D)電影評(píng)論數(shù)據(jù)答案:B解析:[單選題]4.貝葉斯定理實(shí)質(zhì)上是對(duì)()的陳述。A)聯(lián)合概率B)邊際概率C)條件概率D)后驗(yàn)概率答案:C解析:[單選題]5.如果從一個(gè)區(qū)間[a,b],從中隨機(jī)出一個(gè)值y,下列說(shuō)法中不正確的是?A)取最小值的對(duì)數(shù)得到a的值B)取最小值的對(duì)數(shù)得到b的值C)取最大值的對(duì)數(shù)得到b的值D)取任意值r,則超參數(shù)設(shè)置為10的r次方答案:B解析:[單選題]6.以下選項(xiàng)中關(guān)于LDA的優(yōu)點(diǎn)描述說(shuō)法正確的是A)LDA適合對(duì)非高斯分布樣本進(jìn)行降維;B)可以使用類(lèi)別的先驗(yàn)知識(shí);C)LDA降維最多降到分類(lèi)數(shù)k-1維;D)LDA可能過(guò)度擬合數(shù)據(jù)。答案:B解析:[單選題]7.對(duì)于滿(mǎn)足正態(tài)分布的樣本數(shù)據(jù)來(lái)說(shuō)效果會(huì)很好,但是過(guò)于依賴(lài)初始聚類(lèi)中心的算法是基于()的聚類(lèi)算法。A)模型B)網(wǎng)格C)模糊D)密度答案:C解析:[單選題]8.BP算法是人工智能的里程碑,具體這個(gè)算法能起到什么作用A)最大化實(shí)際輸出與訓(xùn)練集的誤差率B)最小化實(shí)際輸出與訓(xùn)練集的誤差率C)均值化實(shí)際輸出與訓(xùn)練集的誤差率D)范數(shù)化實(shí)際輸出與訓(xùn)練集的誤差率答案:B解析:[單選題]9.基于信息論的詞義消歧方法的關(guān)鍵在于特征選擇,為此可以采用①互信息②信息增益③決策樹(shù)④最大熵等方法進(jìn)行特征選擇()A)①②B)③④C)①②③④D)②③④答案:C解析:[單選題]10.以下選項(xiàng)當(dāng)中,描述了EM的優(yōu)缺點(diǎn),那么關(guān)于它的優(yōu)點(diǎn)描述正確的是?A)對(duì)初始值敏感B)簡(jiǎn)單性和普適性C)不同的初值可能得到不同的參數(shù)估計(jì)值D)不能保證找到全局最優(yōu)值答案:B解析:[單選題]11.概率圖中的無(wú)向邊表示的是什么A)表示單向的依賴(lài)B)表述互相依賴(lài)關(guān)系C)表示無(wú)依賴(lài)關(guān)系D)不確定答案:B解析:[單選題]12.下面使用深度學(xué)習(xí)做情感分析的說(shuō)法錯(cuò)誤的是哪個(gè)?()A)情感分析是一個(gè)分類(lèi)問(wèn)題,不需要人工標(biāo)注樣本B)卷積神經(jīng)網(wǎng)絡(luò)也能提取文本的特征,實(shí)現(xiàn)文本情感的分類(lèi)C)使用循環(huán)神經(jīng)網(wǎng)絡(luò)進(jìn)行情感分析時(shí),每個(gè)時(shí)刻的輸入是句子中詞的編碼,最后一個(gè)時(shí)刻才有輸出,即情感類(lèi)別D)當(dāng)檢驗(yàn)樣本與訓(xùn)練樣本有比較大的差別時(shí),即使使用深度學(xué)習(xí)的算法,分類(lèi)效果往往也不理想答案:A解析:[單選題]13.情感分析的基礎(chǔ)性工作是()。A)文本信息抽取B)文本的主客觀分類(lèi)C)情感分類(lèi)D)情感極性判斷答案:A解析:[單選題]14.以下哪種不是文法的表示類(lèi)型?A)無(wú)約束短語(yǔ)結(jié)構(gòu)文法B)上下文有關(guān)文法C)上下文無(wú)關(guān)文法D)反則文法答案:D解析:[單選題]15.如果造成了數(shù)據(jù)的維度稀疏,我們可以怎么解決A)回歸B)分類(lèi)C)降維D)聚類(lèi)答案:C解析:[單選題]16.在機(jī)器學(xué)習(xí)算法中,正則化是為了A)防止欠擬合B)防止過(guò)擬合C)防止擬合D)其它都不對(duì)答案:B解析:[單選題]17.看以下這個(gè)單詞,RandomForest指的是哪個(gè)算法A)隨機(jī)森林B)決策樹(shù)C)聚類(lèi)D)邏輯回歸答案:A解析:[單選題]18.CRF(條件隨機(jī)場(chǎng))是一個(gè)什么模型A)是生成式模型B)是判別式模型C)即是生成式模型又是判別式D)不確定答案:B解析:[單選題]19.ReinforcementLearning是什么網(wǎng)絡(luò)A)全連接網(wǎng)絡(luò)B)遷移學(xué)習(xí)C)循環(huán)神經(jīng)網(wǎng)絡(luò)D)強(qiáng)化學(xué)習(xí)答案:D解析:[單選題]20.在下列神經(jīng)網(wǎng)絡(luò)的參數(shù)中,其中的參數(shù)的調(diào)試不包括哪個(gè)?A)學(xué)習(xí)率αB)動(dòng)量梯度下降的參數(shù)βC)mini-Batch的大小D)輸入圖片大小答案:D解析:[單選題]21.自然語(yǔ)言處理是用()技術(shù)的一種應(yīng)用。A)語(yǔ)音識(shí)別B)虛擬現(xiàn)實(shí)C)人工智能D)文字識(shí)別答案:C解析:[單選題]22.TF-IDF應(yīng)該如何構(gòu)建A)文檔中出現(xiàn)頻率最高的詞B)文檔中最重要的詞C)詞向量化D)文本分類(lèi)答案:B解析:[單選題]23.以下不是語(yǔ)料庫(kù)的三點(diǎn)基本認(rèn)識(shí)的是A)語(yǔ)料庫(kù)中存放的是在語(yǔ)言的實(shí)際使用中真實(shí)出現(xiàn)出的語(yǔ)言材料。B)語(yǔ)料庫(kù)是以電子計(jì)算機(jī)為載體承載語(yǔ)言知識(shí)的基本資源,并不等于語(yǔ)言知識(shí)。C)真實(shí)語(yǔ)料需要經(jīng)過(guò)加工(分析和處理),才能成為有用的資源。D)語(yǔ)料庫(kù)是語(yǔ)料庫(kù)語(yǔ)言學(xué)研究的基礎(chǔ)資源,也是經(jīng)驗(yàn)主義語(yǔ)言研究方法的主要資源。答案:D解析:[單選題]24.()是統(tǒng)計(jì)一個(gè)詞出現(xiàn)在文檔集中文檔頻次的統(tǒng)計(jì)量。A)逆文檔頻率B)詞頻C)詞頻-逆文檔頻率D)以上都不對(duì)答案:A解析:[單選題]25.TextRank是由哪個(gè)算法改進(jìn)而來(lái)的A)FastTextB)TextCNNC)PageRankD)TF-IDF答案:C解析:[單選題]26.漢語(yǔ)自動(dòng)分詞的F-測(cè)度具體定義是()A)P=(系統(tǒng)輸出正確詞個(gè)數(shù)/系統(tǒng)輸出詞個(gè)數(shù))*100%B)R=(系統(tǒng)輸出正確詞個(gè)數(shù)/標(biāo)準(zhǔn)答案中詞的個(gè)數(shù))*100%C)F=((β2+1)*P*R)/(β2*P+R)=(B=1)(2*P*R)/(P+R)D)P(A|B)=P(B|A)*P(A)/P(B)答案:C解析:[單選題]27.以下哪個(gè)技術(shù)可以用于機(jī)器寫(xiě)詩(shī)、機(jī)器閱讀A)深度學(xué)習(xí)B)GANC)自編碼D)遷移學(xué)習(xí)答案:A解析:[單選題]28.在tf中常用的reshape函數(shù)它的用途是做什么?A)維度轉(zhuǎn)化B)相加C)相乘D)相減答案:A解析:[單選題]29.縱觀決策樹(shù)有哪些優(yōu)點(diǎn)A)易于理解和解釋?zhuān)瑳Q策樹(shù)可以可視化。B)決策樹(shù)學(xué)習(xí)可能創(chuàng)建一個(gè)過(guò)于復(fù)雜的樹(shù),并不能很好的預(yù)測(cè)數(shù)據(jù)。也就是過(guò)擬合C)決策樹(shù)可能是不穩(wěn)定的,因?yàn)榧词狗浅P〉淖儺?,可能?huì)產(chǎn)生一顆完全不同的樹(shù)D)如果某些分類(lèi)占優(yōu)勢(shì),決策樹(shù)將會(huì)創(chuàng)建一棵有偏差的樹(shù)答案:A解析:[單選題]30.NLP任務(wù)是,使用以下哪個(gè)模型會(huì)使準(zhǔn)確率升高A)BERTB)XLNETC)GPT-2D)ELMo答案:B解析:XLNET在所有模型中都給出了最好的準(zhǔn)確性。它在20個(gè)任務(wù)上都優(yōu)于BERT,在情感分析、問(wèn)答、自然語(yǔ)言推理等18個(gè)任務(wù)上都取得了頂尖的結(jié)果。[單選題]31.tf.subtract的返回值是什么類(lèi)型的數(shù)據(jù)A)范數(shù)B)數(shù)組C)矢量D)Tensor答案:D解析:[單選題]32.自然語(yǔ)言處理是指理解給定文本的哪方面內(nèi)容?A)字?jǐn)?shù)B)關(guān)鍵詞C)敏感詞D)含義答案:D解析:[單選題]33.下列特征選擇的方法,不屬于的是哪個(gè)?A)嵌入B)過(guò)濾C)包裝D)抽樣答案:D解析:[單選題]34.關(guān)于面向?qū)ο蟮奶匦?,下面描述不?duì)的是():A)A:封裝B)B:繼承C)C:多態(tài)D)D:消息答案:D解析:[單選題]35.關(guān)于指數(shù)加權(quán)平均數(shù)的好處,下列說(shuō)法描述正確的是哪個(gè)?A)只需要少量參數(shù)B)占用極少內(nèi)存C)不適用學(xué)習(xí)率D)是非監(jiān)督式學(xué)習(xí)答案:B解析:[單選題]36.現(xiàn)實(shí)世界中,各處都體現(xiàn)出信息傳遞的過(guò)程,那么信息傳播的速度,是以()數(shù)量級(jí)進(jìn)行A)線性B)冪函數(shù)C)指數(shù)D)常數(shù)答案:C解析:[單選題]37.AutoEncoder是什么網(wǎng)絡(luò)和技術(shù)A)自編碼器B)強(qiáng)化學(xué)習(xí)C)遷移學(xué)習(xí)D)循環(huán)神經(jīng)網(wǎng)絡(luò)答案:A解析:[單選題]38.RNN可以將()的時(shí)間步進(jìn)行關(guān)聯(lián)處理A)先前B)之后C)丟失D)LSTM答案:A解析:[單選題]39.SVM作為常用的經(jīng)典算法,其中的泛化誤差指的是什么A)分類(lèi)超平面與支持向量的距離B)SVM對(duì)新數(shù)據(jù)的預(yù)測(cè)準(zhǔn)確度C)SVM中的誤差閾值D)不確定答案:B解析:[單選題]40.自然語(yǔ)言處理不能做什么?()A)分詞B)詞編碼C)自動(dòng)文摘D)計(jì)算機(jī)病毒答案:D解析:[單選題]41.使用共現(xiàn)矩陣做詞向量容易導(dǎo)致維度爆炸,如何解決A)使用SVD降維B)使用K-MeansC)使用KNN處理D)不能解決答案:A解析:[單選題]42.在HMM中,我們可以怎么樣去進(jìn)行參數(shù)估計(jì)呢?A)EM算法B)維特比算法C)前向后向算法D)極大似然估計(jì)答案:D解析:[單選題]43.馬爾科夫鏈在計(jì)算時(shí)要依靠A)先驗(yàn)概率B)后驗(yàn)概率C)條件概率D)最大似然概率答案:B解析:[單選題]44.人工智能最近大火,那么它是從20世紀(jì)()開(kāi)始出現(xiàn)了A)50年代B)60年代C)70年代D)80年代答案:A解析:[單選題]45.BERT有幾個(gè)訓(xùn)練任務(wù)A)1B)2C)3D)4答案:B解析:[單選題]46.如果對(duì)數(shù)據(jù)的特征做了歸一化,會(huì)有什么優(yōu)點(diǎn)A)提高復(fù)雜關(guān)系的擬合能力B)不確定C)訓(xùn)練數(shù)據(jù)歸一化后,容易更快地通過(guò)梯度下降找到最優(yōu)解。D)以上都正確答案:C解析:[單選題]47.什么是KNN算法,如何理解KNNA)KNN可以說(shuō)是最簡(jiǎn)單的分類(lèi)算法之一,同時(shí),它也是最常用的分類(lèi)算法之一B)通過(guò)建立自變量因變量之間一次函數(shù)的關(guān)系去做回歸C)找到間隔最大的超平面,去做分類(lèi)D)不確定答案:A解析:[單選題]48.EM算法也有很多的缺點(diǎn),例如:A)解決梯度下降等優(yōu)化方法的缺陷B)對(duì)初始值敏感C)解決了求和的項(xiàng)數(shù)將隨著隱變量的數(shù)目以指數(shù)級(jí)上升D)不確定答案:A解析:[單選題]49.KS檢驗(yàn)與卡方檢驗(yàn)的相同點(diǎn)A)處理方式相同B)得到的效果相同C)二者都用于類(lèi)別數(shù)據(jù)D)都采用實(shí)際頻數(shù)和期望頻數(shù)只差進(jìn)行檢驗(yàn)答案:D解析:[單選題]50.構(gòu)建神經(jīng)網(wǎng)絡(luò)模型,經(jīng)常會(huì)發(fā)生過(guò)擬合現(xiàn)象,下列選項(xiàng)中關(guān)于擬合說(shuō)法正確的是?A)過(guò)擬合只發(fā)生在理論階段,實(shí)際不會(huì)發(fā)生這種情況B)欠擬合是數(shù)據(jù)量過(guò)多,造成無(wú)法全部計(jì)算的現(xiàn)象C)過(guò)擬合是指數(shù)據(jù)量大,計(jì)算復(fù)雜的情況D)訓(xùn)練準(zhǔn)確率高,測(cè)試準(zhǔn)確率低的情況,數(shù)據(jù)過(guò)擬合答案:D解析:[單選題]51.線圖分析法的數(shù)據(jù)結(jié)構(gòu)不包括那個(gè)部分?A)線圖B)待處理表C)點(diǎn)規(guī)則集合D)點(diǎn)圖答案:D解析:[單選題]52.一家全國(guó)范圍發(fā)行的雜志出版商聘用你分析他們的社交媒體數(shù)據(jù)集,并希望知道哪些新出版物是最有價(jià)值的。你會(huì)使用以下哪一項(xiàng)分析工具?()A)文本挖掘B)情感分析C)網(wǎng)絡(luò)挖掘軟件D)關(guān)聯(lián)分析的數(shù)據(jù)答案:B解析:[單選題]53.以下哪一個(gè)不是知網(wǎng)描述的關(guān)系A(chǔ))上下位關(guān)系B)實(shí)體-值關(guān)系C)實(shí)體-屬性關(guān)系D)反義關(guān)系答案:C解析:[單選題]54.在文檔中,刪除?啊??的?這樣的詞稱(chēng)為什么A)詞干提?。⊿temming)B)詞形還原(Lemmatization)C)停用詞(StopWords)D)以上所有答案:C解析:[單選題]55.網(wǎng)絡(luò)表示(NetworkEmbedding)模型是受到以下哪種模型的啟發(fā)而來(lái)?A)LDAB)word2vecC)PageRankD)SVD答案:B解析:[單選題]56.詞義消歧可以看成是一種標(biāo)注問(wèn)題,但是要使用()A)詞性標(biāo)記B)語(yǔ)性標(biāo)記C)詞義標(biāo)記D)語(yǔ)義標(biāo)記答案:D解析:[單選題]57.在以下四個(gè)選項(xiàng)中哪些屬于神經(jīng)網(wǎng)絡(luò)中的參數(shù)A)學(xué)習(xí)率B)權(quán)重C)迭代次數(shù)D)隱藏層的大小答案:B解析:[單選題]58.Relu函數(shù)存在一定的缺陷,以下哪個(gè)激活函數(shù)是對(duì)其進(jìn)行的改進(jìn)A)sigmoidB)LeakyreluC)reluD)tanh答案:B解析:[單選題]59.基于機(jī)器學(xué)習(xí)的情感分類(lèi),關(guān)鍵在于特征選擇、()分類(lèi)模型。A)標(biāo)記詞性B)特征提取C)特征權(quán)重量化D)情感極性判斷答案:C解析:[單選題]60.通常使用到的交叉熵函數(shù)是作為什么作用?A)損失函數(shù)B)激活函數(shù)C)sigmoid函數(shù)D)relu函數(shù)答案:A解析:[單選題]61.tf.split是什么意思A)沿著某一維度連結(jié)tensorB)沿著某一維度將tensor分離為num_splittensorsC)對(duì)tensor進(jìn)行切片操作D)沿著某維度進(jìn)行序列反轉(zhuǎn)答案:B解析:[單選題]62.LDA中的一個(gè)采樣是什么采樣A)gamma函數(shù)B)二項(xiàng)分布C)pLSAD)Gibbs采樣答案:D解析:[單選題]63.對(duì)原始的語(yǔ)料文件進(jìn)行預(yù)處理時(shí)要進(jìn)行()。A)抽取數(shù)據(jù)中的問(wèn)答對(duì)話(huà)集合B)構(gòu)建詞典C)模型訓(xùn)練D)模型測(cè)試答案:B解析:[單選題]64.通過(guò)去計(jì)算一個(gè)句子出現(xiàn)的概率的模型,稱(chēng)之為什么模型A)預(yù)訓(xùn)練模型B)語(yǔ)言模型C)編碼模型D)解碼模型答案:B解析:[單選題]65.關(guān)于采用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行圖像分類(lèi)和文本分類(lèi)的比較,下列說(shuō)法錯(cuò)誤的是()A)卷積神經(jīng)網(wǎng)絡(luò)只能用于圖像分類(lèi),不能用于文本分類(lèi)B)使用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行句子分類(lèi),一般將句子中每個(gè)詞表示為固定長(zhǎng)度的向量,這樣句子就可以表示為矩陣,從而使得在結(jié)構(gòu)上與圖像類(lèi)似,并在后續(xù)進(jìn)行卷積等處C)圖像處理應(yīng)用中,卷積核處理的局部區(qū)域?yàn)閳D像的一小塊區(qū)域,而在文本分類(lèi)時(shí)卷積核處理的局部區(qū)域通常為相鄰的上下幾行(幾個(gè)詞)。因此卷積核的寬度和輸入矩陣的寬度相等D)使用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行句子分類(lèi)或者文檔分類(lèi),卷積提取的特征與采用n-gram模式提取的特征類(lèi)似答案:A解析:[單選題]66.以下哪個(gè)領(lǐng)域包含文本摘要任務(wù)A)圖像識(shí)別B)數(shù)據(jù)挖掘C)自然語(yǔ)言D)不確定答案:C解析:[單選題]67.以下的序列數(shù)據(jù)中,屬于一對(duì)多(一個(gè)輸入,多個(gè)輸出)的關(guān)系是哪個(gè)?A)音樂(lè)生成B)情感分類(lèi)C)機(jī)器翻譯D)DNA序列分析答案:A解析:[單選題]68.我們經(jīng)常使用到L1,L2正則化,那么他們可以起到什么樣的作用?A)防止過(guò)擬合B)邊緣檢測(cè)C)提取特征D)簡(jiǎn)化數(shù)據(jù)答案:A解析:[單選題]69.在使用深度學(xué)習(xí)進(jìn)行文本處理時(shí),一個(gè)文本句子要被理解,首先需要做的是。()A)分詞B)詞性標(biāo)注C)命名實(shí)體識(shí)別D)生成詞嵌入答案:A解析:[單選題]70.適合高階n-gram模型的平滑方法為()。A)加1平滑B)古德-圖靈平滑C)線性插值平滑D)均值平滑答案:D解析:[單選題]71.在文本分類(lèi)應(yīng)用中,關(guān)于詞袋模型的描述正確的是()A)任何一個(gè)單詞只能存在于某一個(gè)詞袋中B)一個(gè)單詞可能存在于多個(gè)詞袋中但頻率不同C)所有詞袋中單詞的并集就等同于詞匯表D)詞袋模型描述的是單詞在所有文本中出現(xiàn)的頻率答案:B解析:[單選題]72.貝葉斯作為常用的理論基礎(chǔ),它的定理實(shí)質(zhì)上是對(duì)()的陳述。A)聯(lián)合概率B)邊際概率C)條件概率D)后驗(yàn)概率答案:C解析:[單選題]73.下列選項(xiàng)中關(guān)于樸素貝葉斯分類(lèi)算法是基于什么假設(shè)的說(shuō)法正確的是?A)條件獨(dú)立B)條件不獨(dú)立C)聯(lián)合概率D)不確定答案:A解析:[單選題]74.下列選項(xiàng)中對(duì)于神經(jīng)網(wǎng)絡(luò)中的超參數(shù)調(diào)試的方法的描述,其中描述正確的是哪個(gè)選項(xiàng)?A)隨機(jī)選擇點(diǎn)來(lái)試驗(yàn)超參數(shù)效果B)當(dāng)你給超參數(shù)取值時(shí),另一個(gè)慣例是采用由精細(xì)到粗糙的策略。C)只調(diào)試容易的D)給定默認(rèn)值即可答案:A解析:[單選題]75.()思想是如果測(cè)試過(guò)程中的一個(gè)實(shí)例在訓(xùn)練語(yǔ)料中未出現(xiàn),那么,它就是一個(gè)新事物,也就是說(shuō),這是它第一次出現(xiàn),可以用在訓(xùn)練語(yǔ)料中看到新實(shí)例的概率來(lái)代替未出現(xiàn)實(shí)例的概率A)Witten-Bell平滑算法B)絕對(duì)折扣和線性折扣C)扣留估計(jì)算法D)交叉校驗(yàn)算法答案:A解析:[單選題]76.網(wǎng)絡(luò)結(jié)構(gòu)中常用的dropout函數(shù),對(duì)其描述正確的是哪個(gè)?A)用于分割數(shù)據(jù)集B)一個(gè)激活函數(shù)C)屬于正則處理D)用于將數(shù)據(jù)樣本多樣化答案:C解析:[單選題]77.GBDT使用的是什么思想A)BaggingB)BoostingC)邏輯回歸D)線性回歸答案:B解析:[單選題]78.概率圖模型是常用的基礎(chǔ),以下四個(gè)選項(xiàng)關(guān)于概率圖模型描述正確的是?A)概率圖模型是用圖來(lái)表示變量概率依賴(lài)關(guān)系B)概率圖是樹(shù)狀的結(jié)構(gòu)C)概率圖就是概率,是相同的D)不確定答案:A解析:[單選題]79.以下關(guān)于智能問(wèn)答方法的說(shuō)法錯(cuò)誤的是()。A)智能問(wèn)答方法包括基于信息檢索的方法,基于語(yǔ)義分析的方法,基于規(guī)則的專(zhuān)家系統(tǒng)方法,基于深度學(xué)習(xí)的方法B)基于信息檢索的方法要求答案中必須至少包含問(wèn)句中的一個(gè)字或詞,所以不如語(yǔ)義解析方法精確C)基于語(yǔ)義分析的方法常用的方法是利用組合范疇語(yǔ)法(CCG),CCG的核心是詞匯D)基于規(guī)則的專(zhuān)家系統(tǒng)方法準(zhǔn)確度高,并且具有很強(qiáng)的通用性,能覆蓋很多的應(yīng)用場(chǎng)景答案:D解析:[單選題]80.線性回歸的本質(zhì)是什么A)通過(guò)數(shù)據(jù)預(yù)測(cè)進(jìn)行分類(lèi)B)通過(guò)數(shù)據(jù)將預(yù)測(cè)結(jié)果回歸到真實(shí)值上C)通過(guò)數(shù)據(jù)使相似的數(shù)據(jù)聚到一塊D)通過(guò)數(shù)據(jù)做縮小維度答案:B解析:[單選題]81.ELMO是個(gè)預(yù)訓(xùn)練模型,使用了LSTM做特征提取,那么其中用了幾層的LSTMA)單層B)雙層C)三層D)不確定答案:B解析:[單選題]82.tf中的conv2d(a,b,c,d),參數(shù)b代表什么?A)被卷積數(shù)據(jù)B)步長(zhǎng)C)卷積核D)填充答案:C解析:[單選題]83.專(zhuān)家系統(tǒng)是以()為基礎(chǔ),以推理為核心的系統(tǒng)。A)專(zhuān)家B)軟件C)知識(shí)D)解決問(wèn)題答案:C解析:[單選題]84.關(guān)于損失函數(shù)的意義說(shuō)法正確的是A)損失函數(shù)越小,模型魯棒性越好B)損失函數(shù)越小,模型魯棒性越差C)損失函數(shù)越大,模型魯棒性越好D)不確定答案:A解析:[單選題]85.適用于樣本容量較大的文本集合的文本分類(lèi)算法是()A)樸素貝葉斯算法B)支持向量機(jī)算法C)神經(jīng)網(wǎng)絡(luò)算法D)K最近鄰答案:D解析:[單選題]86.tf.expand_dims是什么意思A)改變tensor的形狀B)返回tensor的rankC)插入維度1進(jìn)入一個(gè)tensor中D)返回?cái)?shù)據(jù)的元素?cái)?shù)量答案:C解析:[單選題]87.帶深度限制的Leaf-wise的葉子生長(zhǎng)策略是以下哪個(gè)算法的優(yōu)化A)XGBoostB)隨機(jī)森林C)GBDTD)LightGBM答案:D解析:[單選題]88.以下四個(gè)算法中哪個(gè)是文本特征提取算法A)TF-IDFB)OpenNLPC)SVDD)PLSA答案:A解析:[單選題]89.隱馬爾科夫模式是指:A)HMMB)SVMC)CRFD)MEMM答案:A解析:[單選題]90.預(yù)訓(xùn)練模型的優(yōu)勢(shì)在哪里A)不用從零還是重新訓(xùn)練只需要微調(diào)B)需要重新在自己的數(shù)據(jù)上訓(xùn)練并且微調(diào)C)速度慢D)準(zhǔn)確度相比較來(lái)說(shuō)會(huì)比較低答案:A解析:[單選題]91.sigmoid缺點(diǎn)之一就是非線性變化較慢,可以通過(guò)以下哪個(gè)激活函數(shù)進(jìn)行改善A)SigmoidB)TanhC)ReluD)不確定答案:C解析:[單選題]92.對(duì)自然語(yǔ)言中的交叉歧義問(wèn)題,通常通過(guò)()技術(shù)解決。A)分詞B)命名實(shí)體識(shí)別C)詞性標(biāo)注D)詞向量答案:A解析:[單選題]93.目前情感分類(lèi)的研究主要有基于情感詞典的情感分析和基于()的情感分類(lèi)方法。A)統(tǒng)計(jì)學(xué)習(xí)B)機(jī)器學(xué)習(xí)C)語(yǔ)料庫(kù)D)模式匹配答案:B解析:[單選題]94.哪個(gè)算法可以做機(jī)器翻譯A)LSAB)seq2seqC)TextFastD)LSTM答案:B解析:[單選題]95.統(tǒng)計(jì)自然語(yǔ)言處理研究的典型過(guò)程是A)設(shè)計(jì)算法-進(jìn)行訓(xùn)練-測(cè)試算法-發(fā)現(xiàn)問(wèn)題-改進(jìn)算法B)設(shè)計(jì)算法-進(jìn)行訓(xùn)練-測(cè)試算法-發(fā)現(xiàn)問(wèn)題-改進(jìn)算法-重復(fù)C)設(shè)計(jì)算法-測(cè)試算法-進(jìn)行訓(xùn)練-發(fā)現(xiàn)問(wèn)題-改進(jìn)算法D)設(shè)計(jì)算法-進(jìn)行訓(xùn)練-測(cè)試算法-發(fā)現(xiàn)問(wèn)題-改進(jìn)算法-重復(fù)答案:B解析:[單選題]96.哪種數(shù)據(jù)類(lèi)型數(shù)據(jù)類(lèi)型可以看作關(guān)系型數(shù)據(jù)庫(kù)的一張表A)半結(jié)構(gòu)化數(shù)據(jù)B)非結(jié)構(gòu)化數(shù)據(jù)C)結(jié)構(gòu)化數(shù)據(jù)D)不確定答案:C解析:[單選題]97.像TensorFlow這樣的框架,為機(jī)器學(xué)習(xí)和()提供了方便靈活的接口A)機(jī)器學(xué)習(xí)B)算法重構(gòu)C)NPLD)深度學(xué)習(xí)答案:D解析:[單選題]98.使用word2vec后會(huì)得到的是___?A)得到的是一個(gè)向量空間,相似的詞之間距離小,不想近的詞之間距離大B)一個(gè)句子出現(xiàn)的概率C)得到一個(gè)詞出現(xiàn)的概率D)以上都不是答案:A解析:[單選題]99.transformer的作用是什么A)做分類(lèi)B)做特征函數(shù)C)不確定D)做特征提取答案:D解析:[單選題]100.關(guān)于Relu激活函數(shù)說(shuō)法正確的是A)經(jīng)過(guò)Relu變換之后的取值在[0,1]之間B)正半?yún)^(qū)是本身,負(fù)半?yún)^(qū)全為0C)經(jīng)過(guò)Relu變換之后的取值在[-1,1]之間D)經(jīng)過(guò)Relu變換之后的取值在[-∞,+∞]之間答案:B解析:[單選題]101.RNN的意思是什么A)全連接網(wǎng)絡(luò)B)卷積神經(jīng)網(wǎng)絡(luò)C)循環(huán)神經(jīng)網(wǎng)絡(luò)D)感知機(jī)網(wǎng)絡(luò)答案:C解析:[單選題]102.對(duì)一個(gè)概率空間,其信息熵在多種劃分中是A)一定相等B)一定不等C)不確定無(wú)關(guān)聯(lián)D)互有關(guān)聯(lián)答案:C解析:[單選題]103.以及幾個(gè)模型中,可以產(chǎn)生詞向量并且用單向的特征提取器的是哪個(gè)A)BERTB)GPTC)ELMoD)Word2Vec答案:B解析:[單選題]104.關(guān)于常用的交叉熵函數(shù),說(shuō)法正確的是__?A)在二分類(lèi)中交叉熵函數(shù)和最大似然函數(shù)表達(dá)式相同B)交叉熵函數(shù)是從信息論角度得到的C)交叉熵函數(shù)是從概率角度得到的D)最大似然函數(shù)是從概率角度的到的答案:C解析:[單選題]105.概率圖模型中的有向圖模型和無(wú)向圖模型有什么相同的地方A)都是轉(zhuǎn)換成了概率相加的形式B)將復(fù)雜的聯(lián)合分布分解為多個(gè)因子相加C)將復(fù)雜的聯(lián)合分布分解為多個(gè)因子的乘積D)以上所有答案:C解析:[單選題]106.GBDT是怎樣構(gòu)成的A)由多個(gè)弱分類(lèi)器B)由多個(gè)強(qiáng)分類(lèi)器C)由若干個(gè)弱分類(lèi)器和若干個(gè)強(qiáng)分類(lèi)器D)不確定答案:A解析:[單選題]107.Earley算法中涉及幾項(xiàng)基本操作?A)1B)2C)3D)4答案:C解析:[單選題]108.(1)關(guān)鍵詞歸一化(2)潛在語(yǔ)義索引(3)隱狄利克雷分布,這三項(xiàng)技術(shù)當(dāng)中,哪些可以減小特征的維度A)只有(1)B)(2)、(3)C)(1)、(3)D)(1)、(2)、(3)答案:D解析:[單選題]109.自然語(yǔ)言處理是()技術(shù)的一種應(yīng)用。A)語(yǔ)音識(shí)別B)虛擬現(xiàn)實(shí)C)人工智能D)自然語(yǔ)言答案:C解析:[單選題]110.隨機(jī)森林過(guò)擬合了怎么辦,如何處理?A)要用交叉驗(yàn)證來(lái)調(diào)整樹(shù)的數(shù)量。B)換模型C)換代價(jià)函數(shù)D)不確定答案:A解析:[單選題]111.正規(guī)式Ml與M2等價(jià)就是指()A)Ml與M2的狀態(tài)數(shù)相等B)MI與M2的有向邊條數(shù)相等C)Ml與M2所識(shí)別的語(yǔ)言集相等D)Ml與M2狀態(tài)數(shù)與有向邊條數(shù)相等答案:C解析:[單選題]112.關(guān)于traintest.Dev數(shù)據(jù)集說(shuō)法錯(cuò)誤的是A)可以直接使用訓(xùn)練集來(lái)驗(yàn)證算子的準(zhǔn)確率B)訓(xùn)練集用于算子的擬合C)驗(yàn)證集和測(cè)試集用來(lái)評(píng)判算子的準(zhǔn)確度D)可以不配置驗(yàn)證集答案:A解析:[單選題]113.數(shù)據(jù)可視化可以導(dǎo)入下面那個(gè)包?A)A:sklearn.linear_modelB)B:sklearn.model_selectionC)C:matplotlib.pylabD)D:sklearn.metrics答案:D解析:[單選題]114.詞袋子模型有很多缺點(diǎn),使用NNLM解決了詞袋子的哪些缺點(diǎn)A)簡(jiǎn)單快速B)數(shù)據(jù)稀疏和語(yǔ)義問(wèn)題C)預(yù)料充足的情況下效果好D)不確定答案:B解析:[單選題]115.softmax又可以稱(chēng)為什么函數(shù)A)概率B)歸一化C)損失函數(shù)D)空間答案:B解析:[單選題]116.模型中參數(shù)過(guò)多,過(guò)于復(fù)雜可能會(huì)發(fā)生一下哪種情況A)正常擬合B)過(guò)擬合C)欠擬合D)不確定答案:B解析:第2部分:多項(xiàng)選擇題,共57題,每題至少兩個(gè)正確答案,多選或少選均不得分。[多選題]117.自然語(yǔ)言處理可用于下列哪些領(lǐng)域()A)文本分類(lèi)B)輿情監(jiān)測(cè)C)機(jī)器翻譯D)智能問(wèn)答答案:ABCD解析:[多選題]118.下面哪些算法可以處理分類(lèi)任務(wù)?A)KNNB)邏輯回歸C)k-meanD)PCA答案:AB解析:[多選題]119.LDA可以分為以下哪些步驟A)一個(gè)函數(shù):gamma函數(shù)。B)四個(gè)分布:二項(xiàng)分布、多項(xiàng)分布、beta分布、Dirichlet分布。C)一個(gè)概念和一個(gè)理念:共軛先驗(yàn)和貝葉斯框架。D)兩個(gè)模型:pLSA、LDA。答案:ABCD解析:[多選題]120.文本表示分類(lèi)(基于粒度)A)長(zhǎng)文本表示B)離散表示C)詞表示D)基于聚類(lèi)表示答案:AC解析:[多選題]121.BagofWords模型的優(yōu)點(diǎn)A)簡(jiǎn)單方便快速B)在語(yǔ)料充足的前提下,對(duì)于簡(jiǎn)單自然語(yǔ)言處理任務(wù)效果不錯(cuò)C)準(zhǔn)確率較低D)無(wú)法關(guān)注詞語(yǔ)間的順序答案:AB解析:[多選題]122.以下任務(wù)中圖像的哪些任務(wù)用到了深度學(xué)習(xí)A)圖像識(shí)別B)物體識(shí)別C)圖片修復(fù)D)圖片美化答案:ABCD解析:[多選題]123.目前較常用的無(wú)監(jiān)督關(guān)鍵詞提取算法有()A)TF-IDF算法B)TextRank算法C)主題模型算法D)以上都不對(duì)答案:ABC解析:[多選題]124.XGBoost的目標(biāo)函數(shù)由哪些組成A)損失函數(shù)B)正則項(xiàng)C)梯度下降D)以上都正確答案:AB解析:[多選題]125.隨機(jī)森林中的?隨機(jī)?體現(xiàn)在什么方面A)隨機(jī)森林的隨機(jī)性體現(xiàn)在每棵樹(shù)的訓(xùn)練樣本都是隨機(jī)的B)模型的代價(jià)是隨機(jī)的C)樹(shù)中每個(gè)節(jié)點(diǎn)的分裂屬性集合也是隨機(jī)選擇確定的。D)以上都正確答案:AC解析:[多選題]126.線性回歸中最小化代價(jià)函數(shù)是尋找哪些最優(yōu)參數(shù)A)K(拐點(diǎn)數(shù))B)W(權(quán)重)C)B(偏置)D)以上都正確答案:BC解析:[多選題]127.概率圖模型結(jié)合了下列哪些知識(shí)A)信息論B)圖論C)概率論D)以上都是答案:BC解析:[多選題]128.特征歸一化常用的方式有哪些A)線性函數(shù)歸一化B)非線性函數(shù)歸一化C)零均值歸一化D)以上都是答案:AC解析:[多選題]129.寫(xiě)出幾種主要的網(wǎng)絡(luò)結(jié)構(gòu)形式。A)星形結(jié)構(gòu):具有一個(gè)中心結(jié)點(diǎn),所有通訊都通過(guò)它。B)環(huán)形結(jié)構(gòu):網(wǎng)絡(luò)結(jié)點(diǎn)連成一個(gè)封閉的環(huán)形。C)總線結(jié)構(gòu):具有一個(gè)共享總線,所有結(jié)點(diǎn)掛在上面,又稱(chēng)樹(shù)形結(jié)構(gòu)D)以上都正確答案:ABCD解析:[多選題]130.預(yù)處理單個(gè)特征的時(shí)候,通常有哪些操作A)歸一化B)離散化C)缺失值處理D)數(shù)據(jù)變換答案:ABCD解析:[多選題]131.以下四個(gè)選項(xiàng)中,有哪些屬于有監(jiān)督學(xué)習(xí)算法A)聚類(lèi)B)降維C)分類(lèi)D)回歸答案:CD解析:[多選題]132.下面對(duì)專(zhuān)家系統(tǒng)敘述錯(cuò)誤的是:()A)專(zhuān)家系統(tǒng)是運(yùn)用知識(shí)和推理來(lái)解決問(wèn)題的;B)專(zhuān)家系統(tǒng)是把關(guān)于問(wèn)題求解的知識(shí)隱含于程序中的;C)專(zhuān)家系統(tǒng)不具有透明性,無(wú)法回答用戶(hù)?Why?和?How?等問(wèn)題;D)利用骨架系統(tǒng)開(kāi)發(fā)專(zhuān)家系統(tǒng),相對(duì)于其他開(kāi)發(fā)工具,其效率是最高的,靈活性是最好的,局限性也是最少的。答案:BCD解析:[多選題]133.NLP的應(yīng)用,都有那些??A)語(yǔ)音識(shí)別B)自動(dòng)翻譯C)控制裝置D)人臉識(shí)別答案:ABC解析:[多選題]134.隨機(jī)森林也有很多明顯的缺點(diǎn),以下描述正確的是A)它可以處理很高維度的數(shù)據(jù),并且不用降維,無(wú)需做特征選擇;B)隨機(jī)森林已經(jīng)被證明在某些噪音比較大的分類(lèi)或回歸問(wèn)題上會(huì)過(guò)擬合。C)對(duì)于有不同取值的屬性數(shù)據(jù),取值劃分較多的屬性會(huì)對(duì)隨機(jī)森林產(chǎn)生更大的影響,所以隨機(jī)森林在這種數(shù)據(jù)上產(chǎn)出的屬性權(quán)值是不可信的。D)以上都正確答案:BC解析:[多選題]135.下列屬于詞袋模型優(yōu)點(diǎn)的是:A)簡(jiǎn)單方便快速B)在語(yǔ)料充足的前提下,對(duì)于簡(jiǎn)單自然語(yǔ)言處理任務(wù)效果不錯(cuò)C)準(zhǔn)確率較低D)無(wú)法關(guān)注詞語(yǔ)間的順序答案:AB解析:[多選題]136.邏輯回歸中加入非線性有什么好處A)提升模型表達(dá)能力B)降低模型表達(dá)能力C)易于模型的快速迭代D)加大擬合答案:ACD解析:[多選題]137.協(xié)同過(guò)濾和基于內(nèi)容的模型是兩種流行的推薦引擎,在建立這樣的算法中NLP扮演什么角色?A)從文本中提取特征B)測(cè)量特征相似度C)為學(xué)習(xí)模型的向量空間編程特征D)以上都是答案:ABCD解析:[多選題]138.無(wú)監(jiān)督學(xué)習(xí)的特點(diǎn)有()A)目標(biāo)明確B)不需要帶標(biāo)簽的數(shù)據(jù)C)效果容易評(píng)估D)無(wú)法量化效果答案:BD解析:[多選題]139.以下關(guān)于機(jī)器學(xué)習(xí)K-mean聚類(lèi)描述正確的是?A)A:同一族盡可能相似B)B:不同簇盡可能相異C)C:同一簇盡可能相異D)D:不同簇盡可能相似答案:AB解析:[多選題]140.以下選項(xiàng)中描述tensorflow正確的有哪些?A)在被稱(chēng)之為會(huì)話(huà)(Session)的上下文(context)中執(zhí)行圖B)使用圖(graphs)來(lái)表示計(jì)算任務(wù),用于搭建神經(jīng)網(wǎng)絡(luò)的計(jì)算過(guò)程C)使用feed和fetch可以為任意的操作賦值或者從其中獲取數(shù)據(jù)D)使用張量(tensor)表示數(shù)據(jù),用?階?表示張量的維度,通過(guò)變量(Variable)維護(hù)狀態(tài)答案:ABCD解析:[多選題]141.GPT的缺點(diǎn)有哪些A)適用雙向的LSTM特征提取能力弱B)使用了單向的語(yǔ)言模型C)使用單向的Transformer,會(huì)丟失很多信息D)不確定答案:BC解析:[多選題]142.使用tf實(shí)現(xiàn)一個(gè)交叉熵的損失函數(shù),以下選項(xiàng)正確的是哪些?A)entropy=-tf.reduce_sum(y_actual*tf.log(y_predict))B)entropy=-tf.reduce_mean(y_actual*tf.log(y_predict))C)entropy=-tf.reduce_max(y_actual*tf.log(y_predict))D)entropy=-tf.reduce_any(y_actual*tf.log(y_predict))答案:AB解析:[多選題]143.BERT雖然目前比較火,但是也很多需要改進(jìn)的地方,例如___?A)參數(shù)量太大B)輸入遮蔽的時(shí)候隨機(jī)遮蔽單個(gè)字C)輸入句子最大限度512D)有很強(qiáng)烈的語(yǔ)義信息答案:ABC解析:[多選題]144.以下幾個(gè)選項(xiàng)中關(guān)于GBDT描述正確的是A)預(yù)測(cè)階段的計(jì)算速度快,樹(shù)與樹(shù)之間可并行化計(jì)算(注意預(yù)測(cè)時(shí)可并行)B)在分布稠密的數(shù)據(jù)集上,泛化能力和表達(dá)能力都很好;C)GBDT在高維稀疏的數(shù)據(jù)集上表現(xiàn)不佳;D)訓(xùn)練過(guò)程需要串行訓(xùn)練,只能在決策樹(shù)內(nèi)部采用一些局部并行的手段提高訓(xùn)練速度。答案:ABCD解析:[多選題]145.關(guān)于集合外一個(gè)點(diǎn),到該集合的距離,描述正確的是哪些選項(xiàng)A)是該點(diǎn)到集合邊界點(diǎn)的最短距離B)是該點(diǎn)到集合內(nèi)所有點(diǎn)的最短距離C)是該點(diǎn)到集合內(nèi)任意一點(diǎn)的距離D)是該點(diǎn)到集合內(nèi)非邊界點(diǎn)的某點(diǎn)的距離答案:AB解析:[多選題]146.XGBoost雖然是在GBDT的基礎(chǔ)上改進(jìn)的,但是也有很多不同的地方,例如:A)GBDT是機(jī)器學(xué)習(xí)算法,XGBoost是該算法的工程實(shí)現(xiàn)。B)在使用CART作為基分類(lèi)器時(shí),XGBoost顯式地加入了正則項(xiàng)來(lái)控制模型的復(fù)雜度,有利于防止過(guò)擬合,從而提高模型的泛化能力。C)GBDT在模型訓(xùn)練時(shí)只使用了代價(jià)函數(shù)的一階導(dǎo)數(shù)信息,XGBoost對(duì)代價(jià)函數(shù)進(jìn)行二階泰勒展開(kāi),可以同時(shí)使用一階和二階導(dǎo)數(shù)。D)傳統(tǒng)的GBDT采用CART作為基分類(lèi)器,XGBoost支持多種類(lèi)型的基分類(lèi)器,比如線性分類(lèi)器。答案:ABCD解析:[多選題]147.關(guān)于神經(jīng)網(wǎng)絡(luò)的層數(shù)說(shuō)法,正確的分為哪幾層A)輸入層B)輸出層C)隱藏層D)以上都正確答案:ABCD解析:[多選題]148.循環(huán)神經(jīng)網(wǎng)絡(luò)一般用于下面哪些領(lǐng)域A)聊天機(jī)器人B)文本糾錯(cuò)C)命名實(shí)體識(shí)別D)文本分類(lèi)答案:ABCD解析:[多選題]149.我們一般將數(shù)據(jù)集分為哪幾類(lèi)A)訓(xùn)練集B)測(cè)試集C)驗(yàn)證集D)批處理集答案:ABC解析:[多選題]150.LDA中的兩個(gè)模型指的是哪兩個(gè)A)pLSAB)GBDTC)LDAD)XGBoost答案:AC解析:[多選題]151.人類(lèi)語(yǔ)言有什么特別之處?A)專(zhuān)門(mén)用來(lái)傳達(dá)說(shuō)話(huà)者/作者意思的系統(tǒng)B)讓計(jì)算機(jī)/機(jī)器在理解語(yǔ)言上像人類(lèi)一樣智能C)一門(mén)計(jì)算機(jī)科學(xué)、人工智能以及語(yǔ)言學(xué)的交叉學(xué)科D)一個(gè)離散的/符號(hào)的/分類(lèi)的信號(hào)系統(tǒng)答案:AD解析:[多選題]152.哪些適合用RNN神經(jīng)網(wǎng)絡(luò)處理A)語(yǔ)音識(shí)別B)情感分類(lèi)C)機(jī)器翻譯D)DNA序列分析答案:ABCD解析:[多選題]153.基于規(guī)則的分詞主要方法有()A)統(tǒng)計(jì)語(yǔ)言模型B)正向最大匹配法C)逆向最大匹配法D)雙向最大匹配法答案:BCD解析:[多選題]154.DSSM的思路是什么A)使用了遮蔽部分詞的思想B)摒棄了后匹配的思路,采用詞間先匹配C)將先匹配的結(jié)果做成灰度圖,然后在建模D)使用了杰卡德進(jìn)行計(jì)算答案:BC解析:[多選題]155.下列幾個(gè)優(yōu)化器中,可以跳出局部最優(yōu)的分別有哪些?A)AdamB)MomentumC)RMSpropD)Lasso答案:ABC解析:[多選題]156.在NLP的工業(yè)應(yīng)用中,基于統(tǒng)計(jì)的語(yǔ)言模型都有哪些應(yīng)用A)語(yǔ)音識(shí)別B)機(jī)器翻譯C)句法分析D)短語(yǔ)識(shí)別答案:ABCD解析:[多選題]157.自然語(yǔ)言的應(yīng)用都有哪些A)機(jī)器翻譯B)文本摘要C)文本分類(lèi)D)多輪會(huì)話(huà)機(jī)器人答案:ABCD解析:[多選題]158.神經(jīng)網(wǎng)絡(luò)中最常用的Dropout,可以起到什么作用A)防止過(guò)擬合B)每次訓(xùn)練,都對(duì)每個(gè)神經(jīng)網(wǎng)絡(luò)單元,按一定概率臨時(shí)丟棄C)將詞向量化D)防止欠擬合答案:AB解析:[多選題]159.關(guān)于Adaboost的權(quán)重描述,以下體現(xiàn)正確的是()A)A:樣本權(quán)重B)B:代價(jià)函數(shù)C)C:梯度下降D)D:弱分類(lèi)器權(quán)重答案:AD解析:[多選題]160.基于統(tǒng)計(jì)的語(yǔ)言模型在哪些自然語(yǔ)言方面得到廣泛應(yīng)用A)序列標(biāo)注B)語(yǔ)音識(shí)別C)序列標(biāo)注D)機(jī)器翻譯答案:ABCD解析:[多選題]161.相比XGBoost,LightGBM在哪些地方進(jìn)行了優(yōu)化?A)基于Histogram的決策樹(shù)算法B)帶深度限制的Leaf-wise的葉子生長(zhǎng)策略C)直方圖做差加速直接D)支持類(lèi)別特征(CategoricalFeature)答案:ABCD解析:[多選題]162.下列選項(xiàng)中,哪些是比較常用的梯度下降優(yōu)化器?A)dropoutB)動(dòng)量梯度下降法C)RMSpropD)Adam答案:BCD解析:[多選題]163.TF-IDF處理的特點(diǎn)是:A)TF=在某一類(lèi)中詞條出現(xiàn)的次數(shù)/該類(lèi)中所有詞條數(shù)目B)IDF=log(語(yǔ)料庫(kù)中文檔總數(shù)/包含詞條的文檔數(shù)+1)C)IDF=log(語(yǔ)料庫(kù)中文檔總數(shù)/包含詞條的文檔數(shù))+1D)TF-IDF=TF*IDF答案:ABD解析:[多選題]164.softmax函數(shù)的描述以下正確的是哪些選項(xiàng)?A)用于多類(lèi)別分類(lèi)B)映射到概率空間C)壓縮數(shù)據(jù)D)用于卷積層答案:ABC解析:[多選題]165.人工智能Deeplearning中,文本分類(lèi)方法有哪些?A)特征工程B)TextCNNC)分類(lèi)器D)FastText答案:BD解析:[多選題]166.EM算法放到高斯混合模型中應(yīng)用,一般會(huì)有哪些步驟?A)明確隱變量,寫(xiě)出完全數(shù)據(jù)的對(duì)數(shù)似然函數(shù)。B)EM算法的E步:確定Q函數(shù)C)求Q函數(shù)對(duì)theta的極大值,即求新一輪迭代的模型參數(shù)D)以上都正確答案:ABCD解析:[多選題]167.什么是聚類(lèi)算法,如何去理解聚類(lèi)?A)聚類(lèi)是一種機(jī)器學(xué)習(xí)技術(shù)B)它涉及到數(shù)據(jù)點(diǎn)的分組C)給定一組數(shù)據(jù)點(diǎn),我們可以使用聚類(lèi)算法將每個(gè)數(shù)據(jù)點(diǎn)劃分為一個(gè)特定的組D)聚類(lèi)是一種無(wú)監(jiān)督學(xué)習(xí)的方法,是許多領(lǐng)域中常用的統(tǒng)計(jì)數(shù)據(jù)分析技術(shù)答案:ABCD解析:[多選題]168.什麼樣的資料集適合深度學(xué)習(xí)A)數(shù)據(jù)集太大B)數(shù)據(jù)集太小,數(shù)據(jù)樣本不足C)數(shù)據(jù)集沒(méi)有局部相關(guān)特性D)樣本量多答案:AD解析:[多選題]169.Transformer中的encode層是由那幾個(gè)構(gòu)成的A)self-AttentionB)Attention層C)前饋神經(jīng)網(wǎng)絡(luò)D)CNN答案:AC解析:[多選題]170.以下四個(gè)選項(xiàng)中,哪些方法可以解決深度網(wǎng)絡(luò)的梯度消失問(wèn)題A)控制網(wǎng)絡(luò)深度B)使用Sigmoid激活函數(shù)C)預(yù)訓(xùn)練+微調(diào)D)使用ReLU激活函數(shù)答案:ACD解析:[多選題]171.詞袋子模型的優(yōu)缺點(diǎn)A)簡(jiǎn)單方便快速B)在語(yǔ)料充足的前提下,對(duì)于簡(jiǎn)單自然語(yǔ)言處理任務(wù)效果不錯(cuò)C)準(zhǔn)確率較低D)無(wú)法關(guān)注詞語(yǔ)間的順序答案:ABCD解析:[多選題]172.如何去構(gòu)建一顆決策樹(shù)A)構(gòu)建根節(jié)點(diǎn)B)構(gòu)建葉子節(jié)點(diǎn)C)選擇新特征繼續(xù)分割D)最終子集都被分到葉子節(jié)點(diǎn)上答案:ABCD解析:[多選題]173.GBDT算法中如果按照高維的ID特征做分裂,會(huì)出現(xiàn)哪些不好的情況A)子樹(shù)數(shù)量非常多B)計(jì)算量會(huì)非常大C)訓(xùn)練會(huì)非常慢D)以上都正確答案:ABCD解析:第3部分:判斷題,共66題,請(qǐng)判斷題目是否正確。[判斷題]174.機(jī)器學(xué)習(xí)包含了深度學(xué)習(xí),同時(shí)也包含了人工智能A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]175.RNN的中文名叫循環(huán)神經(jīng)網(wǎng)絡(luò)或遞歸神經(jīng)網(wǎng)絡(luò)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]176.LightGBM是google開(kāi)源出來(lái)的A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]177.機(jī)器學(xué)習(xí)和深度學(xué)習(xí)沒(méi)有任何區(qū)別A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]178.文本情感分類(lèi)是簡(jiǎn)單的二分類(lèi)任務(wù)。錯(cuò)A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]179.文本向量化按照向量化的粒度可以將其分為以字單位、以詞為單位和以句子為單位向量表達(dá)。對(duì)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]180.Skip-Gram模型與CBOW模型相反,是根據(jù)目標(biāo)詞預(yù)測(cè)其上下文。對(duì)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]181.自然語(yǔ)言處理,簡(jiǎn)稱(chēng)NLP,是計(jì)算機(jī)科學(xué)領(lǐng)域以及人工智能領(lǐng)域的一個(gè)重要的研究方向。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]182.國(guó)標(biāo)碼用兩位二進(jìn)制數(shù)表示一個(gè)漢字A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]183.數(shù)據(jù)特征歸一化可以用到?jīng)Q策樹(shù)中A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]184.淺層句法分析,也叫部分句法分析或語(yǔ)塊分析A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]185.決策樹(shù)基本思想是貪心算法A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]186.隨著狀態(tài)序列長(zhǎng)度T的增加,隱狀態(tài)序列的個(gè)數(shù)成倍增長(zhǎng)。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]187.分詞是自然語(yǔ)言處理技術(shù)的基礎(chǔ)構(gòu)成之一,并且是其它技術(shù)的基礎(chǔ)。對(duì)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]188.GBDT是非集成學(xué)習(xí),而隨機(jī)森林屬于集成學(xué)習(xí)A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]189.ELMo是很好的語(yǔ)言模型,而word2vec是預(yù)訓(xùn)練模型A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]190.目前常見(jiàn)的智能問(wèn)答技術(shù)包括文本問(wèn)答、知識(shí)圖譜問(wèn)答、社區(qū)問(wèn)答(問(wèn)答對(duì))、表格問(wèn)答、視覺(jué)問(wèn)答等多種形式,其中,知識(shí)圖譜問(wèn)答是起到各類(lèi)問(wèn)答核心橋梁作用的問(wèn)答形式,通常會(huì)與文本、視覺(jué)、社區(qū)等問(wèn)答形式混合搭配起來(lái)使用。()A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]191.HMM是生成式模型,屬于動(dòng)態(tài)貝葉斯網(wǎng)絡(luò)。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]192.深度學(xué)習(xí)屬于連接主義學(xué)派的A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]193.漢字的外碼只是研制漢字輸入系統(tǒng)時(shí)要考慮的問(wèn)題,跟文本的自動(dòng)分析沒(méi)有關(guān)系。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]194.貝葉斯網(wǎng)絡(luò)(Bayesiannetwork),又稱(chēng)信念網(wǎng)絡(luò)(BeliefNetwork),或有向無(wú)環(huán)圖模型(directedacyclicgraphicalmodel),是一種概率圖模型A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]195.激活函數(shù)一般連接在輸入層的前面A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]196.基于詞義消歧方法主要包括:基于詞典語(yǔ)義定義的方法,基于義類(lèi)辭典的方法和基于雙語(yǔ)詞典的方法A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]197.NLP是人工智能研究的一個(gè)子領(lǐng)域,也是人工智能中最為困難的問(wèn)題之一。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]198.機(jī)器學(xué)習(xí)中,傳統(tǒng)的基于規(guī)則的方法,其中的規(guī)律可以人工顯性的明確出來(lái)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]199.GBDT的核心在于累加所有樹(shù)的結(jié)果作為最終結(jié)果,而分類(lèi)樹(shù)的結(jié)果顯然是沒(méi)辦法累加的A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]200.由于EM的計(jì)算方法中每一次迭代都分兩步,其中一個(gè)為期望步(E步),另一個(gè)為極大步(M步),所以算法被稱(chēng)為EM算法(ExpectationMaximizationAlgorithm)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]201.前向算法需要對(duì)網(wǎng)格所有路徑進(jìn)行窮舉計(jì)算。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]202.機(jī)器學(xué)習(xí)的分類(lèi)模型可用于文本情感分析。對(duì)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]203.end-to-end是由輸入端的數(shù)據(jù)直接得到輸出端A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]204.基于詞典的分詞方法常用字符串匹配的方式實(shí)現(xiàn)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]205.CNN卷積神經(jīng)網(wǎng)絡(luò)在NLP中同樣有很多的應(yīng)用A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]206.國(guó)際擴(kuò)展碼GBK兼容國(guó)標(biāo)碼。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]207.CNN中卷積核的大小越大越好A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]208.循環(huán)神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)沒(méi)有什么區(qū)別A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]209.Glove進(jìn)行編碼的詞向量可以解決一詞多意A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]210.梯度下降在應(yīng)用中并無(wú)實(shí)際意義A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]211.機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的共同的目標(biāo)就是實(shí)現(xiàn)人工智能A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]212.擴(kuò)大隱層層數(shù)會(huì)使得神經(jīng)網(wǎng)絡(luò)的?容量?更多,進(jìn)而表達(dá)力和特征抽取能力會(huì)變強(qiáng)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]213.Doc2vec不僅提取文本的語(yǔ)義信息,而且提取了文本的語(yǔ)序信息。對(duì)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]214.訓(xùn)練文本分類(lèi)模型的正確流程是文本清洗、詞性標(biāo)注和去除停用詞、文本特征提取、特征降維、使用梯度下降訓(xùn)練模型。對(duì)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]215.互信息是信息論中的一個(gè)概念,它用來(lái)度量一個(gè)消息中兩個(gè)信號(hào)之間的相互依賴(lài)程度A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]216.ASCII碼由美國(guó)國(guó)家標(biāo)準(zhǔn)局制定,1972年被國(guó)際標(biāo)準(zhǔn)化組織定為國(guó)際標(biāo)準(zhǔn),稱(chēng)為ISO646標(biāo)準(zhǔn)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]217.在馬爾科夫模型中,每個(gè)狀態(tài)代表了多個(gè)可觀察事件。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]218.程序設(shè)計(jì)語(yǔ)言中的自底向上分析法適用于漢語(yǔ)句法分析A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]219.詞頻TF注重詞在文檔中的出現(xiàn)頻次,沒(méi)有考慮到詞在其他文檔下的出現(xiàn)頻次,缺乏對(duì)文檔的區(qū)分能力。對(duì)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]220.CNN不能做文字的特征提取,只適用于做圖片的特征提取A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]221.在邏輯回歸中也可以在目標(biāo)函數(shù)上加入L1,L2正則項(xiàng)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]222.邏輯回歸既可以做分類(lèi)又可以做回歸,是個(gè)比較全能的算法A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]223.SVM既可以做分類(lèi)也可以做回歸A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]224.卷積的目的進(jìn)行特征抽取A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]225.感知器分類(lèi)器最早由Rosenblatt提出()A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]226.正則表達(dá)式可用于自動(dòng)提取人名與電話(huà)號(hào)碼。對(duì)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]227.N-Gram中的N越大的話(huà),速度會(huì)特別特別慢,因?yàn)榇翱谧兇罅薃)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]228.LSTM和GRU同樣都有三個(gè)門(mén)A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]229.基于劃分的聚類(lèi)特點(diǎn)是計(jì)算量大。很適合發(fā)現(xiàn)中小規(guī)模的數(shù)據(jù)庫(kù)中小規(guī)模的數(shù)據(jù)庫(kù)中的球狀簇。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]230.設(shè)計(jì)一個(gè)漢字輸入系統(tǒng)需要對(duì)漢字進(jìn)行編碼,這里指漢字的外碼,即輸出碼A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]231.LR的訓(xùn)練速度很慢A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]232.CNN網(wǎng)絡(luò)只適用于計(jì)算機(jī)視覺(jué),而不適用于自然語(yǔ)言A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]233.淺層句法分析的結(jié)果并不是一顆完整的句法樹(shù),但各個(gè)語(yǔ)塊是完整句法樹(shù)的一個(gè)子圖,只要加上語(yǔ)塊之間的依附關(guān)系,就可以構(gòu)成完整

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論