人工智能自然語言技術練習(習題卷6)_第1頁
人工智能自然語言技術練習(習題卷6)_第2頁
人工智能自然語言技術練習(習題卷6)_第3頁
人工智能自然語言技術練習(習題卷6)_第4頁
人工智能自然語言技術練習(習題卷6)_第5頁
已閱讀5頁,還剩49頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領

文檔簡介

試卷科目:人工智能自然語言技術練習人工智能自然語言技術練習(習題卷6)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能自然語言技術練習第1部分:單項選擇題,共116題,每題只有一個正確答案,多選或少選均不得分。[單選題]1.一下哪個網(wǎng)絡是NLP中用的最多的A)ANNB)CNNC)RNND)DNN答案:C解析:[單選題]2.在處理數(shù)據(jù)時需要進行歸一化,那么關于歸一化的描述正確的哪個選項A)通過中值和均值進行確定B)通過平均值和最小值確定C)通過方差和均值確定D)通過標準差和均值確定答案:C解析:[單選題]3.主成分分析法的簡寫是哪個A)PCAB)LDAC)SVMD)K-Means答案:A解析:[單選題]4.專家系統(tǒng)的正向推理是以()作為出發(fā)點,按照一定的策略,應用知識庫中的知識,推斷出結(jié)論的過程。A)需要解決的問題B)已知事實C)證明結(jié)論D)表示目標的謂詞或命題答案:B解析:[單選題]5.tf.nn.softmax_cross_entropy_with_logits的作用是什么?A)信息熵B)信息元C)交叉熵D)logits答案:C解析:[單選題]6.情感分析技術的核心問題是()。A)情感分類B)信息預測C)輿情分析D)文本抽取答案:A解析:[單選題]7.以下四個模型當中,哪個模型不能動態(tài)的去調(diào)整詞向量A)ELMoB)GPTC)BERTD)word2vec答案:D解析:[單選題]8.語料庫是以語言文字為材料,語料庫的選材原則是()A)仔細審核一定是近3年的B)電子形式存儲一定是近5年C)電子形式存儲代表性D)仔細審核代表性答案:C解析:[單選題]9.如果我們想加速線性變換可以使用以下哪個激活函數(shù)A)SigmoidB)TanhC)ReluD)不確定答案:C解析:[單選題]10.深度學習和機器學習存在什么關系A)機器學習屬于深度學習B)深度學習為機器學習更方便的提取特征C)機器學習是為深度學習服務的D)無相應關系答案:B解析:[單選題]11.以下四種說法當中,關于GBDT的描述說法正確的有哪些A)GBDT是并行生成B)GBDT則是多棵樹累加之和C)GBDT對異常值比較敏感D)GBDT是減少模型的偏差答案:A解析:[單選題]12.以下四個選項中,人臉識別可以用網(wǎng)絡架構(gòu)A)LeNET5B)(CNN:AlexNet)C)VGGD)ResNet答案:B解析:[單選題]13.獨熱表示的缺點不包括()。A)構(gòu)造簡單B)維數(shù)過高C)可以保留語義D)矩陣稀疏答案:C解析:[單選題]14.集成學習GBDT是很好的算法,同時也有很多優(yōu)點,以下對其優(yōu)點的描述A)在分布稠密的數(shù)據(jù)集上,泛化能力和表達能力都很好;B)GBDT在高維稀疏的數(shù)據(jù)集上表現(xiàn)不佳;C)訓練過程需要串行訓練,只能在決策樹內(nèi)部采用一些局部并行的手段提高訓練速度。D)不確定答案:A解析:[單選題]15.訓練模型階段,如果想要損失值最小,需要得到什么值?A)鞍點B)局部最優(yōu)解C)轉(zhuǎn)折點D)全局最優(yōu)解答案:D解析:[單選題]16.以下的四個選項中,哪個選項不是激活函數(shù)?A)reluB)sigmoidC)tanhD)dropout答案:D解析:[單選題]17.關于概率圖中的無向邊,下列描述正確的是A)表示單向的依賴B)表述互相依賴關系C)表示無依賴關系D)不確定答案:B解析:[單選題]18.下面哪個隊tf.reverse的解釋是正確的A)沿著某一維度連結(jié)tensorB)沿著某一維度將tensor分離為num_splittensorsC)對tensor進行切片操作D)沿著某維度進行序列反轉(zhuǎn)答案:D解析:[單選題]19.欠擬合對于模型來說會有什么影響A)在訓練集上的效果很好,但是在測試集上的效果很差B)在訓練集上的效果差,在測試集上的效果也差C)在訓練集上的效果很好,在測試集上的效果也很好D)在訓練集上的效果很差,但是在測試集上的效果很好答案:A解析:[單選題]20.人工智能NLP方向在生活中的應用A)機器翻譯B)圖像處理C)對話系統(tǒng)D)文本分類答案:B解析:[單選題]21.樸素貝葉斯算法訓練階段的輸出是什么?()A)新數(shù)據(jù)的分類結(jié)果B)特征屬性和訓練樣本C)分類器D)訓練樣本的出現(xiàn)頻率答案:C解析:[單選題]22.歐氏距離也可以叫做什么()A)非負距離B)平面距離C)絕對值距離D)平方范數(shù)距離答案:D解析:[單選題]23.在實現(xiàn)前向傳播和反向傳播中使用的?cache?是什么?A)它用于跟蹤我們正在搜索的超參數(shù),以加速計算。B)用于在訓練期間緩存代價函數(shù)的中間值。C)使用它傳遞反向傳播中計算的變量到相應的前向傳播步驟,它包含對于前向傳播計算導數(shù)有用的變量。D)使用它傳遞前向傳播中計算的變量到相應的反向傳播步驟,它包含對于反向傳播計算導數(shù)有用的變量。答案:D解析:cache?緩存?記錄來自正向傳播單元的值,并將其發(fā)送到反向傳播單元,這是鏈式求導的需要。[單選題]24.機器學習邏輯回歸logisticsregression算法,屬于哪類算法??A)A:分類算法B)B:聚類算法C)C:神經(jīng)網(wǎng)絡算法D)D:支持向量機算法答案:A解析:[單選題]25.LightGBM是由哪個公司開源出來的A)谷歌B)百度C)微軟D)facebook答案:C解析:[單選題]26.集成學習是機器學習的重要組成部分,以下說法正確的是A)通過變量和因變量之間的一次函數(shù)關系構(gòu)建的B)通過找到一個最優(yōu)的超平面去完美的分類C)就是將多個機器學習模型組合起來,共同工作以達到優(yōu)化算法的目的D)以上都正確答案:C解析:[單選題]27.馬爾科夫假設當前詞(n)出現(xiàn)的概率依賴于哪些詞A)n-3B)n-2C)nD)n-1答案:D解析:[單選題]28.以下幾個選項中,可以通過哪種方式來選擇參數(shù)或超參A)通過常識選擇B)隨機選擇點來試驗超參數(shù)效果C)選擇輸入的參數(shù)即可D)取離散參數(shù)的平均值答案:B解析:[單選題]29.以下幾個選項中,哪個選項沒描述神經(jīng)網(wǎng)絡的超參數(shù)是正確的A)權(quán)重B)偏置C)神經(jīng)網(wǎng)絡的層數(shù)D)激活值答案:C解析:[單選題]30.以下四個函數(shù)當中,哪個不是python內(nèi)建函數(shù)A)iterB)hashC)binD)number答案:D解析:[單選題]31.可以如何選擇神經(jīng)網(wǎng)絡的參數(shù)或超參A)通過常識選擇B)隨機選擇點來試驗超參數(shù)效果C)選擇輸入的參數(shù)即可D)取離散參數(shù)的平均值答案:B解析:[單選題]32.下面哪項不屬于目前常見的分類器?()A)KNNB)DTC)RSAD)NN答案:C解析:[單選題]33.卷積神經(jīng)網(wǎng)絡包含如下哪個概念A)視野域B)循環(huán)結(jié)構(gòu)C)梯度消失D)以上都不包含答案:A解析:[單選題]34.不是Synset之間的關系類型有A)反義關系B)繼承關系C)上下關系D)整體與局部關系答案:C解析:[單選題]35.自然語言處理是()技術的一種應用。A)語音識別B)虛擬現(xiàn)實C)人工智能D)自然語言答案:C解析:[單選題]36.下列關于不精確推理過程的敘述錯誤的是()。A)不精確推理過程是從不確定的事實出發(fā)B)不精確推理過程最終能夠推出確定的結(jié)論C)不精確推理過程是運用不確定的知識D)不精確推理過程最終推出不確定性的結(jié)論答案:B解析:[單選題]37.下列哪一項在神經(jīng)網(wǎng)絡中引入了非線性?A)隨機梯度下降B)修正線性單元(ReLU)C)卷積函數(shù)D)以上都不正確答案:B解析:[單選題]38.下面BiGram和TreGram說法正確的是A)BiGram效果會更好B)BiGram的速度會比TreGram的慢C)TreGram的效果更好D)TreGram的滑動窗口是2答案:C解析:[單選題]39.LDA屬于一個什么模型A)語言模型B)詞袋子模型C)預訓練模型D)不確定答案:B解析:[單選題]40.以下四個模型中,哪個使用了雙向的LSTM語言模型A)GPTB)BERTC)ULMFitD)ELMo答案:D解析:ELMo嘗試訓練兩個獨立的LSTM語言模型(從左到右和從右到左),并將結(jié)果連接起來以產(chǎn)生詞嵌入。[單選題]41.在神經(jīng)網(wǎng)絡中我們經(jīng)常會使用到正則化,那么正則化有什么作用A)A防止過擬合B)B邊緣檢測C)C提取特征D)D簡化數(shù)據(jù)答案:A解析:[單選題]42.Tensorflow1.0和2.0最本質(zhì)的區(qū)別A)1.0是動態(tài)圖,2.0是經(jīng)態(tài)度B)1.0是靜態(tài)圖,2.0是動態(tài)圖C)1.0debug更方便D)2.0運行速度更快答案:B解析:[單選題]43.SVM中,若C的值很小,以下哪種說法正確?A)會發(fā)生誤分類現(xiàn)象B)數(shù)據(jù)將被正確分類C)不確定D)以上都不對答案:A解析:[單選題]44.下列關于K均值說法,正確的是?A)K均值接收未標記的數(shù)據(jù)集,然后將數(shù)據(jù)聚類成不同的組B)通過生成樹的形式對,數(shù)據(jù)集進行分類C)通過自變量和因變量之間的一次函數(shù)關系,構(gòu)建回歸模型D)構(gòu)建一個超平面,將數(shù)據(jù)在更高維度上,使用超平面更好的劃分答案:A解析:[單選題]45.基于商品評論數(shù)據(jù)來評估客戶對商品的態(tài)度運用了到以哪項數(shù)據(jù)分析工具?()A)文本挖掘B)情感分析C)自然語言處理D)以上三種都有答案:D解析:[單選題]46.樸素貝葉斯算法,描述正確的是:A)它假設特征分量之間相互獨立B)它假設特征分量之間相互不獨立C)不確定D)以上都正確答案:A解析:[單選題]47.google開發(fā)的深度學習框架叫什么A)pytorchB)tensorflowC)caffeD)mxnet答案:B解析:[單選題]48.bert這個預訓練語言模型當中存在什么缺點A)性能不好有很大提升空間B)使用了雙向的Transformer效果不好C)沒有LSTM特征提取的好D)使用了單向的Transformer答案:A解析:[單選題]49.BERT中關于遮蔽掉的15%的字,說法不正確的是A)15%中的80%的字使用MASK替換B)15%中的10%使用隨機的其他詞替換C)15%中的10%使用原詞(正確的詞替換)D)15%中的20%使用原詞替換答案:D解析:[單選題]50.Attention是通過那種方式計算權(quán)重的A)tanhB)reluC)softmaxD)sigmoid答案:C解析:[單選題]51.關于tf.conv2d函數(shù),該方法接收到的張量維度是多大?A)[batch,in_height,in_width,in_channels]B)[Size,in_height,in_width,in_channels]C)[batch,in_width,in_height,in_channels]D)[batch,in_channels,in_height,in_width]答案:A解析:[單選題]52.下列不是知識表示法的是()。A)計算機表示法B)謂詞表示法C)框架表示法D)產(chǎn)生式規(guī)則表示法答案:A解析:[單選題]53.以下哪個函數(shù)表示雙曲正切激活函數(shù)?A)ReluB)sigmoidC)tanhD)sin答案:C解析:[單選題]54.LSTM的那個門是選擇性的丟棄信息?A)輸入門B)遺忘門C)輸出門D)更新門答案:B解析:[單選題]55.假定現(xiàn)在有一個四分類問題,用One-vs-all策略訓練一個SVM的模型,需要訓練幾個SVM模型?A)1B)2C)3D)4答案:D解析:[單選題]56.bert中可以接受的最大句子長度是多少A)128B)512C)768D)64答案:A解析:[單選題]57.遷移學習說的是下面哪個網(wǎng)絡?A)RNNB)CNNC)NLPD)TransferLearning答案:D解析:[單選題]58.在以下四個模型當中哪個是排列語言模型A)BERTB)ELMOC)GPTD)XLNET答案:D解析:XLNET提供了基于排列的語言模型,這是與BERT的一個關鍵區(qū)別。[單選題]59.分類模型包括決策樹、貝葉斯和()分類方法A)線性回歸B)嶺回歸C)K-meansD)SVM答案:D解析:[單選題]60.()的任務是:統(tǒng)計給定語料中有多少個不同的字對,每個字對各出現(xiàn)多少次。A)單字字頻統(tǒng)計B)雙字字頻統(tǒng)計C)多字字頻統(tǒng)計D)字對字頻統(tǒng)計答案:B解析:[單選題]61.預訓練模型GPT的優(yōu)點是什么A)引入了單向的Transformer效果得到提升B)使用雙向的TransformerC)拋開了下文只用了上文信息D)使用了雙向的LSTM做特征提取答案:A解析:[單選題]62.在NLP中CRF的到廣泛的應用,那么CRF是什么模型A)是生成式模型B)是判別式模型C)即是生成式模型又是判別式D)不確定答案:B解析:[單選題]63.哪個激活函數(shù)用于表示GRU的?門?A)reluB)tanhC)LeakyReluD)sigmoid答案:D解析:[單選題]64.下邊關于CBOW說法正確的是A)使用中心詞預測上下文單詞B)與上下問的詞序是相關的C)和Skip-Gram是相同的D)使用上下文單詞預測中心詞答案:D解析:[單選題]65.下列哪一種技術能被用于英語中的關鍵詞歸一化,即把關鍵詞轉(zhuǎn)化為其基本形式?A)詞形還原B)探測法C)余弦相似度D)N元語法模型答案:A解析:[單選題]66.語義網(wǎng)絡是一種用實體及其語義關系來表達知識的()A)有義圖B)無義圖C)有向圖D)無相圖答案:C解析:[單選題]67.在預處理極端,關于數(shù)據(jù)歸一化的描述正確的哪個選項A)通過中值和均值進行確定B)通過方差和均值確定C)通過平均值和最小值確定D)通過標準差和均值確定答案:B解析:[單選題]68.什么是結(jié)構(gòu)化數(shù)據(jù)?A)數(shù)據(jù)庫中的數(shù)據(jù)B)HTML文檔C)文本D)圖片答案:A解析:[單選題]69.tf.to_int64的作用?A)轉(zhuǎn)為64位浮點類型-float64B)轉(zhuǎn)為32位整型-int32C)字符串轉(zhuǎn)為數(shù)字D)轉(zhuǎn)為64位整型-int64答案:D解析:[單選題]70.所謂繼承是指對事物的描述從()結(jié)點傳遞到具體結(jié)點A)抽象B)現(xiàn)實C)普通D)任意答案:A解析:[單選題]71.自然語言理解是人工智能的重要應用領域,下面列舉中的()不是它要實現(xiàn)的目標。A)理解別人講的話B)對自然語言表示的信息進行分析概括或編輯。C)自動程序設計D)機器翻譯答案:C解析:[單選題]72.神經(jīng)網(wǎng)絡反向傳播傳播的是什么?A)學習率B)迭代次數(shù)C)誤差D)網(wǎng)絡層數(shù)答案:C解析:[單選題]73.通過(1,3)(2,5)(3,7)(4,9)這些數(shù)據(jù)可以構(gòu)建怎樣的線性函數(shù)A)Y=W*X+bB)Y=lnXC)Y=X2D)Y=K*X2答案:A解析:[單選題]74.tf如何定義常量?A)tensor=tf.constant([1,2])B)tensor=tf.constant(1)C)tensor=tf.constant(-1,shape=[2,3])D)a=tf.constant([1.0,2.0],name="a)答案:D解析:[單選題]75.下邊哪些模型不能將文本向量化A)word2vecB)bertC)ELMOD)DSSM答案:D解析:[單選題]76.信息增益和信息增益比相比有什么不同A)它們的計算方法完全相同B)信息增益總是偏向于選擇取值較多的屬性。信息增益比在此基礎上增加了一個罰項C)信息增益可以處理連續(xù)型的數(shù)據(jù)D)信息增益比可以處理連續(xù)型的數(shù)據(jù)答案:B解析:[單選題]77.不屬于面向?qū)ο蟮氖茿)A:封裝B)B:繼承C)C:多態(tài)D)D:消息答案:D解析:[單選題]78.SVM中的代價參數(shù)C表示什么?A)交叉驗證的次數(shù)B)用到的核函數(shù)C)在分類準確性和模型復雜度之間的權(quán)衡D)以上都不對答案:C解析:[單選題]79.KNN算法的基本要素有()A)K值的選擇距離度量分類決策規(guī)則B)利用自變量和因變量之間的一次函數(shù)關系C)找出最好的分類超平面D)利用自變量和因變量之間的對數(shù)關系答案:A解析:[單選題]80.聚類中的肘部法則是選擇A)就是從K值和代價函數(shù)J的二維圖中找出J下降變平滑的拐點對應的K值。B)最大K值C)最小K值D)隨機K值答案:A解析:[單選題]81.自然語言處理發(fā)展,主要存在的難點不包括A)語言不規(guī)范,靈活性高B)新詞C)錯別字D)語種過多答案:D解析:[單選題]82.早期的語料庫語言學主要研究不包括A)語料庫的建設B)語言習得C)音系研究D)方言學與語料庫技術的結(jié)合答案:A解析:[單選題]83.馬爾可夫鏈具有()特性A)狀態(tài)轉(zhuǎn)移B)無記憶性C)穩(wěn)定變化D)隨機性答案:B解析:[單選題]84.為什么會提出LightGBM,最主要是什么原因A)并無實際的意義B)為了解決GBDT的并行問題C)為了改進XGBoostD)為了解決GBDT在大數(shù)據(jù)上遇到的問題答案:D解析:[單選題]85.數(shù)據(jù)歸一化通常和以下哪個選項中一起使用A)訓練集的mini-batchB)測試集的mini-batchC)整個訓練集D)整個測試集答案:A解析:[單選題]86.從句子左端將一個終結(jié)符移到棧頂是什么操作A)歸約B)接收C)移進D)拒絕答案:C解析:[單選題]87.OpenCV中,高通濾波器的作用是?A)檢測低頻率B)檢測高頻率C)過濾信號頻譜低頻部分D)過濾信號頻譜高頻部分答案:C解析:[單選題]88.NLP中的核心和最重要網(wǎng)絡是哪個?A)CNNB)NNC)RNND)SVM答案:C解析:[單選題]89.下列不正確的是A)正則文法(3型)通常用于詞法分析B)0型文法生成能力弱C)上下文有關文法(1型)的分析算法過于復雜,不便于實際應用D)上下文無關文法(2型)的規(guī)則體系便于構(gòu)造,是研究得最多的一種文法答案:B解析:[單選題]90.高斯馬爾可夫定理中OLS估計量的有A)OLS估計量的期望值等于待估參數(shù)B)OLS估計量的值等于待估參數(shù)C)殘差和為0D)OLS估計量在所有想i選哪個無偏估計兩會中具有最小方差答案:D解析:[單選題]91.LDA模型是應用比較廣泛的一種主題模型,包含詞、()和文檔3層結(jié)構(gòu)。A)主題B)詞頻C)權(quán)重D)詞性答案:A解析:[單選題]92.以下哪個激活函數(shù)的執(zhí)行速度是最快的A)reluB)tanhC)sigmoidD)不能確定答案:A解析:[單選題]93.邏輯回歸的目標函數(shù)中增大L1正則化會有什么結(jié)果A)所有的參數(shù)w都變成0B)所有參數(shù)w都會趨近于0C)所有參數(shù)w都不會變化D)不確定答案:A解析:[單選題]94.馬爾科夫是個幾元組模型A)1B)2C)3D)4答案:C解析:[單選題]95.漢語自動分詞的準確率具體定義是()A)P=(系統(tǒng)輸出正確詞個數(shù)/系統(tǒng)輸出詞個數(shù))*100%B)R=(系統(tǒng)輸出正確詞個數(shù)/標準答案中詞的個數(shù))*100%C)F=((β2+1)*P*R)/(β2*P+R)=(B=1)(2*P*R)/(P+R)D)P(A|B)=P(B|A)*P(A)/P(B)答案:A解析:[單選題]96.NLP自然語言處理的一般處理流程順序是():1、獲取語料2、數(shù)據(jù)預處理3、特征工程4、特征選擇5、模型選擇6、模型訓練7、模型評估8、投產(chǎn)上線A)12345678B)12345687C)21345678D)21346578答案:A解析:[單選題]97.以下選項中哪個和其他的是不同的A)nltkB)scikitlearnC)SpaCyD)BERT答案:D解析:除了BERT是一個詞嵌入方法以外,其它都是NLP庫。[單選題]98.語言就是()A)句子的集合B)產(chǎn)生式的集合C)符號串的集合D)句型的集合答案:A解析:[單選題]99.基于直方圖的稀疏特征優(yōu)化多線程優(yōu)化。是以下哪個框架做的優(yōu)化A)LightGBMB)XGBoostC)隨機森林D)GBDT答案:A解析:[單選題]100.關于數(shù)據(jù)處理定理下列說法不正確的是A)若X、Y、Z組成一個馬爾可夫鏈,則有I(X;Z)大于等于I(X;Y)B)若X、Y、Z組成一個馬爾可夫鏈,則有I(X;Z小于等于I(X;Y)C)數(shù)據(jù)處理過程中熵不會增加D)通過數(shù)據(jù)處理后,一般只會增加信息的損失,最多保持原來的信息答案:A解析:[單選題]101.SVM算法有很多的優(yōu)點,以下四個選項中針對SVM的性能為什么好,描述正確的是?A)核函數(shù)的選擇B)核函數(shù)的參數(shù)C)軟間隔參數(shù)CD)以上所有答案:D解析:[單選題]102.Word2Vec的訓練方式屬于__?A)無監(jiān)督B)有監(jiān)督C)半監(jiān)督D)自主學習答案:A解析:[單選題]103.下列不是自然語言處理的應用領域的是()。A)經(jīng)濟B)政務C)醫(yī)療D)商務答案:A解析:[單選題]104.以下哪個操作可以停止樹的循環(huán)A)加入L2正則B)加入L1正則C)設置樹的最大深度D)以上都可以答案:C解析:[單選題]105.對于超參數(shù)調(diào)試的方法的描述,其中描述正確的是哪個選項?A)隨機選擇點來試驗超參數(shù)效果B)當你給超參數(shù)取值時,另一個慣例是采用由精細到粗糙的策略。C)只調(diào)試容易的D)給定默認值即可答案:A解析:[單選題]106.高維組合特征的處理,具體是怎么做的A)在特征工程中經(jīng)常會把一階離散特征兩兩組合B)在特征工程中經(jīng)常會把一階離散特征打散C)刪除一部分離散特征D)不確定答案:A解析:[單選題]107.指數(shù)分布的均值的倒數(shù)的共軛先驗分布是()A)貝塔分布B)泊松分布C)伽馬分布D)指數(shù)分布答案:B解析:[單選題]108.反向傳播指的是哪個變量的傳遞?A)訓練輪次B)批處理數(shù)C)誤差D)網(wǎng)絡層數(shù)答案:C解析:[單選題]109.馬爾可夫模型的局限性不包括A)數(shù)據(jù)規(guī)模B)狀態(tài)遷移C)異質(zhì)性D)靜態(tài)分析答案:D解析:[單選題]110.LDA模型的隱變量Z是A)每個詞對應的主題B)每篇文檔對應的主題C)每段話對應的主題D)每個詞組對應的主題答案:A解析:[單選題]111.如果說數(shù)據(jù)當中有缺失值,可以使用以下哪種方式去填充A)平均值B)不填充C)代價D)學習率答案:A解析:[單選題]112.K-Means最終得到的結(jié)果是什么A)將已經(jīng)分類好的數(shù)據(jù),重新進行劃分類別B)未標記的數(shù)據(jù)聚類成不同的組C)不確定D)將已經(jīng)標記好的數(shù)據(jù)打散成無類別形式答案:B解析:[單選題]113.tf.mul的作用是什么A)相乘B)相加C)相減D)相除答案:A解析:[單選題]114.文本分類,情感識別等等屬于以下哪個選項的子任務A)數(shù)據(jù)挖掘B)不確定C)圖像識別D)自然語言答案:D解析:[單選題]115.以下針對數(shù)據(jù)粒度的描述中,哪個表述不正確:A)粒度是指數(shù)據(jù)倉庫小數(shù)據(jù)單元的詳細程度和級別;B)數(shù)據(jù)越詳細,粒度就越小,級別也就越高;C)數(shù)據(jù)綜合度越高,粒度也就越大,級別也就越高;D)粒度的具體劃分將直接影響數(shù)據(jù)倉庫中的數(shù)據(jù)量以及查詢質(zhì)量.答案:C解析:[單選題]116.長短期記憶人工神經(jīng)網(wǎng)絡Longshort-termmemory,其縮寫是()A)LSTMB)CONVC)CNND)RNN答案:A解析:第2部分:多項選擇題,共57題,每題至少兩個正確答案,多選或少選均不得分。[多選題]117.在k-NN中可以使用以下哪個距離度量?A)ManhattanB)MinkowskiC)TanimotoD)Jaccard答案:ABCD解析:[多選題]118.以下四個偽代碼中,哪個是pytorch的學習率調(diào)整方法A)lr_scheduler.StepLRB)lr_scheduler.MultiStepLRC)lr_scheduler.ExponentialLRD)lr_scheduler.CosineAnnealingLR答案:ABCD解析:[多選題]119.神經(jīng)網(wǎng)絡在NLP中有哪些常見應用領域A)機器創(chuàng)作B)個性化推薦C)文本分類D)情感分析答案:ABCD解析:[多選題]120.序列類型數(shù)據(jù)有:A)語音識別B)情感分類C)機器翻譯D)DNA序列分析答案:ABCD解析:[多選題]121.信息增益是由什么求來的A)信息熵B)信息增益比C)條件熵D)基尼系數(shù)答案:AC解析:[多選題]122.詞_袋_子模型的優(yōu)點A)簡單方便快速B)在語料充足的前提下,對于簡單自然語言處理任務效果不錯C)準確率較低D)無法關注詞語間的順序答案:AB解析:[多選題]123.以下哪幾項屬于GRUA)更新門B)遺忘門C)輸入門D)重置門答案:AD解析:[多選題]124.在神經(jīng)網(wǎng)絡中經(jīng)常使用交叉熵,以下幾個選項中描述正確的是?A)用信息熵B)用softmax映射到概率空間C)在全連接層D)進行優(yōu)化時用答案:ABCD解析:[多選題]125.情感分析的主要內(nèi)容包括()A)主客觀分類B)情感分類C)情感極性判斷D)情感表達答案:ABC解析:[多選題]126.深度學習提出的常用激活函數(shù)有哪些A)ReluB)leaky-ReluC)tanhD)sigmoid答案:ABCD解析:[多選題]127.以下哪些數(shù)據(jù)是常見的數(shù)據(jù)A)文本B)圖像C)音頻D)視頻答案:ABCD解析:[多選題]128.深度學習在CV圖像中有哪些常見應用A)圖像識別B)物體識別C)圖片修復D)圖片美化答案:ABCD解析:[多選題]129.ELMO,BERT,GPT三個預訓練模型,以下說法錯誤的是__?A)都是預訓練模型B)ELMO使用的LSTM,BERT和GPT用的是TransformerC)BERT和GPT都使用的Transformer作為的特征提取D)以上都正確答案:ABCD解析:[多選題]130.哪些是判別式Discriminativemodel模型A)HMMB)SVMC)CRFD)MEMM答案:BCD解析:[多選題]131.使用決策樹去做預測需要以下哪些步驟A)收集數(shù)據(jù)B)分析數(shù)據(jù)C)訓練算法D)測試算法答案:ABCD解析:[多選題]132.GBDT主要由哪幾個概念組成A)RegressionDecistionTree(即DT)B)GradientBoosting(即GB)C)Shrinkage(算法的一個重要演進分枝,目前大部分源碼都按該版本實現(xiàn))。D)以上都正確答案:ABCD解析:[多選題]133.文本生成任務包括哪幾類A)文本到文本的生成B)數(shù)據(jù)到文本的生;C)文本到圖像的生成D)圖像到文本的生成答案:ABD解析:[多選題]134.交叉熵公式的符號代表為:A)m是訓練輸入元素個數(shù)B)∑的加和長度是輸入個數(shù)C)y(i)來自標簽的onehot表D)hθ(x(i))和標簽one-hot表維度一致答案:ABCD解析:[多選題]135.下面屬于維歸約常用的線性代數(shù)技術的有:A)主成分分析B)特征提取C)奇異值分解D)特征加權(quán)答案:AC解析:[多選題]136.關于k-NN算法,以下哪個陳述是正確的?A)如果所有數(shù)據(jù)的比例均相同,則k-NN的效果會更好B)k-NN在少數(shù)輸入變量(p)下工作良好,但在輸入數(shù)量很大時會遇到困難C)k-NN對所解決問題的函數(shù)形式?jīng)]有任何假設D)以上都正確答案:ABCD解析:[多選題]137.如果需要做Batch歸一化的操作,那么它的具體流程是怎樣的?A)求每個訓練批次數(shù)據(jù)的均值B)求每個訓練批次數(shù)據(jù)的方差C)使用求得的均值和方差對該批次的訓練數(shù)據(jù)做歸一化,獲得0-1分布D)尺度變換和偏移答案:ABCD解析:[多選題]138.為什么SVM對缺失某些特征數(shù)據(jù)敏感?A)VM沒有處理缺失值的策略(決策樹有)B)特征空間的好壞對SVM的性能很重要C)SVM希望樣本在特征空間中線性可分D)以上都正確答案:ABCD解析:[多選題]139.以下幾個tensorflow中的方法,可以做總體加和或平均的函數(shù),分別是哪個?A)tf.reduce_sumB)tf.multiplyC)tf.reduce_meanD)tf.norm答案:AC解析:[多選題]140.基于神經(jīng)網(wǎng)絡的語言模型一般分為哪幾層A)輸入層B)投影層C)隱藏層D)輸出層答案:ABCD解析:[多選題]141.下面屬于NLP研究內(nèi)容的有哪些?A)文檔分類B)信息抽取C)輿情分析D)信息檢索答案:ABCD解析:[多選題]142.下列選項中,哪些屬于NLP知識體系()A)問答系統(tǒng)B)詞性標注C)文本挖掘D)糾錯答案:AC解析:[多選題]143.正則表達式可以()A)測試字符串內(nèi)的模式。例如,可以測試輸入字符串,以查看字符串內(nèi)是否出現(xiàn)電話號碼模式或信用卡號碼模式B)替換文本??梢允褂谜齽t表達式來識別文檔中的特定文本,完全刪除該文本或者用其他文本替換它C)基于模式匹配從字符串中提取子字符串D)可以查找文檔內(nèi)或輸入域內(nèi)特定的文本答案:ABCD解析:四、填空題8題)[多選題]144.數(shù)學建模前需要哪些準備工作。A)A:填補缺失值B)B:計算召回率C)C:數(shù)據(jù)標準化D)D:填補缺失值答案:ABC解析:[多選題]145.L1和L2正則化的區(qū)別A)L1可以讓一部分特征的系數(shù)縮小到0,從而間接實現(xiàn)特征選擇。B)L1讓所有特征的系數(shù)都縮小,但是不會減為0,它會使優(yōu)化求解穩(wěn)定快速C)L2可以讓一部分特征的系數(shù)縮小到0,從而間接實現(xiàn)特征選擇。D)L2讓所有特征的系數(shù)都縮小,但是不會減為0,它會使優(yōu)化求解穩(wěn)定快速答案:AD解析:[多選題]146.以下哪些屬于GRUA)更新門B)重置門C)輸入門D)輸出門答案:AB解析:[多選題]147.以下四個選項當中描述的是EM算法缺點的是?A)簡單性和普適性B)解決梯度下降等優(yōu)化方法的缺陷C)對初始值敏感D)不能保證找到全局最優(yōu)值。答案:CD解析:[多選題]148.什麼樣的資料集不適合用深度學習A)數(shù)據(jù)集太大B)數(shù)據(jù)集太小,數(shù)據(jù)樣本不足C)數(shù)據(jù)集沒有局部相關特性D)樣本量太多答案:BC解析:[多選題]149.關于LDA有有哪些含義A)一種是線性判別分析(LinearDiscriminantAnalysis)B)不確定C)種是概率主題模型:隱含狄利克雷分布D)以上都正確答案:AC解析:[多選題]150.情感分析的應用領域有()A)商品評論B)輿情分析C)信息預測D)推薦系統(tǒng)答案:ABCD解析:[多選題]151.在Histogram算法之上,LightGBM還做了哪些優(yōu)化A)帶深度限制的Leaf-wise的葉子生長策略B)直方圖做差加速直接C)支持類別特征(CategoricalFeature)D)不確定答案:ABC解析:[多選題]152.MLlib中用于線性回歸算法的包主要有()。A)RidgeRegressionWithSGDB)LinearRegressionWithSGDC)LeftRegressionD)LassoWithSGD答案:ABD解析:[多選題]153.卷積神經(jīng)網(wǎng)絡中的卷積操作分別都是有哪些部分構(gòu)成的A)卷積層B)RELUC)POOLING層D)pedding答案:ABC解析:[多選題]154.Jieba.cut方法的3個參數(shù)分別是?A)cat_allB)HMMC)SepD)sentence答案:ABD解析:[多選題]155.如果模型訓練中使用到了Adam動態(tài)優(yōu)化器,可以使用以下哪種方式下降?A)batchB)mini-batchC)LassoD)Ridge答案:AB解析:[多選題]156.以下關于隱馬爾科夫模型的參數(shù)說法正確的是A)Y:隱狀態(tài)B)A:輸出觀察值概率矩陣C)B:狀態(tài)轉(zhuǎn)移概率矩陣D)Π:初始狀態(tài)概率矩陣答案:AD解析:[多選題]157.關于神經(jīng)網(wǎng)絡,由哪幾部分組成A)輸入層B)輸出層C)隱藏層D)以上都正確答案:ABCD解析:[多選題]158.下列任務中,SVM可以做哪些任務A)分類B)聚類C)降維D)回歸答案:AD解析:[多選題]159.邏輯回歸有哪些可以優(yōu)化的方法A)梯度下降B)隨機梯度下降C)mini隨機梯度下降D)以上都正確答案:ABCD解析:[多選題]160.有向圖模型和無向圖模型的不同之處A)無向圖模型因子是勢函數(shù),需要全局歸一B)有向圖模型因子是概率分布,需要全局歸一C)有向圖模型因子是概率分布,無需全局歸一D)無向圖模型因子是勢函數(shù),無需全局歸一答案:AC解析:[多選題]161.添加了正則化項的,以下都有哪些模型?A)A:lasso回歸B)B:Ridge回歸C)C:邏輯回歸D)D:K-means答案:AB解析:[多選題]162.iAIEngine-NLU詞性標注返回值類型ResponseResult對象中包括以下哪些參數(shù)?()A)codeB)messageC)posD)type答案:ABC解析:[多選題]163.EM算法在機器學習中有著怎樣的應用A)學習高斯混合模型B)隱馬爾科夫算法C)LDA主題模型的變分推斷D)不確定答案:ABC解析:[多選題]164.GBDT雖然有很好的應用和效果,但是也有很明顯的缺點,比如___A)預測階段的計算速度快,樹與樹之間可并行化計算(注意預測時可并行);B)在分布稠密的數(shù)據(jù)集上,泛化能力和表達能力都很好;C)訓練過程需要串行訓練,只能在決策樹內(nèi)部采用一些局部并行的手段提高訓練速度。D)GBDT在高維稀疏的數(shù)據(jù)集上表現(xiàn)不佳;答案:CD解析:[多選題]165.以下關于Batch歸一化的特點描述正確的選項是哪些?A)使參數(shù)搜索問題變得容易B)使神經(jīng)網(wǎng)絡對超參數(shù)的選擇更加穩(wěn)定C)超參數(shù)的范圍更加龐大D)使訓練更加容易答案:ABCD解析:[多選題]166.判別式Discriminativemodel模型有什么缺點A)學習過程比較復雜B)目標分類中易產(chǎn)生較大錯誤率C)不能反映訓練數(shù)據(jù)本身的特性D)沒辦法把整個場景描述出來答案:CD解析:[多選題]167.可以度量文本相似度的算法有哪些A)主題模型B)LDAC)BERTD)Word2Vec+VSM答案:ABCD解析:[多選題]168.對sigmoid描述正確的是?A)將負的權(quán)值映射到正值B)將輸出數(shù)據(jù)壓縮到[0,1]集合范圍C)能解決非線性分類問題D)將正權(quán)值映射到負數(shù)答案:ABC解析:[多選題]169.以下選項中關于梯度下降法有哪幾種類型A)GDB)SGDC)MiniBatchSGDD)SVD答案:ABC解析:[多選題]170.馬爾科夫三元組當中分別表示什么A)S是狀態(tài)集合B)π是初始狀態(tài)的概率C)X是輸入的向量D)A是狀態(tài)間的轉(zhuǎn)移概率答案:ABD解析:[多選題]171.以下幾個選項中,屬于語言模型的是哪些A)統(tǒng)計的語言模型B)機器學習的語言模型C)神經(jīng)網(wǎng)絡的語言模型D)不確定答案:AC解析:[多選題]172.為什么GBDT不適合使用高維稀疏特征?A)高維稀疏的ID類特征會使樹模型的訓練變得極為低效B)容易過擬合。C)高維稀疏的ID類特征會使樹模型的訓練變得極為高效D)容易欠擬合。答案:AB解析:[多選題]173.文本計算相似度方式有哪些A)歐幾里得距離B)曼哈頓距離C)SimHashD)余弦相似性答案:ABCD解析:第3部分:判斷題,共66題,請判斷題目是否正確。[判斷題]174.SVM就是想找到一個距離最大的超平面,可以更好的去做分類A)正確B)錯誤答案:對解析:[判斷題]175.XGBoost對樹的復雜度包含了兩個部分:一個是樹里面葉子節(jié)點的個數(shù)T;一個是樹上葉子節(jié)點的得分w的L2模平方A)正確B)錯誤答案:對解析:[判斷題]176.激活函數(shù)其實就是接了一個線性的變換A)正確B)錯誤答案:錯解析:[判斷題]177.擴展庫jieba的函數(shù)cut可以用來對中文文本進行分詞并返回包含分詞結(jié)果的列表。對A)正確B)錯誤答案:對解析:[判斷題]178.ELMO使用到了遮蔽掉部分詞去進行訓練的思想A)正確B)錯誤答案:錯解析:[判斷題]179.目前較常用的無監(jiān)督關鍵詞提取算法有TF-IDF算法、TextRank算法和主題模型算法。對A)正確B)錯誤答案:對解析:[判斷題]180.語義分析從分析的深度上分為淺層語義分析和深層語義推理兩個層次A)正確B)錯誤答案:對解析:[判斷題]181.RNN可用于判斷輸入句子的情感傾向。對A)正確B)錯誤答案:對解析:[判斷題]182.概率圖模型包括了樸素貝葉斯模型、最大熵模型、隱馬爾可夫模型、條件隨機場、主題模型等,在機器學習的諸多場景中都有著廣泛的應用。A)正確B)錯誤答案:對解析:[判斷題]183.L1會將參數(shù)縮減為0,而L2會將參數(shù)縮小趨近于0A)正確B)錯誤答案:對解析:[判斷題]184.Batch_Size太小,模型表現(xiàn)效果極其糟糕(error飆升)。A)正確B)錯誤答案:對解析:[判斷題]185.深度學習可以在NLP中取得這樣的成績主要歸結(jié)為海量的數(shù)據(jù)和深度學習算法的革新。A)正確B)錯誤答案:對解析:[判斷題]186.邏輯回歸可以將多分類看成多個二分類,然后進行多分類A)正確B)錯誤答案:對解析:[判斷題]187.只有大的語料庫才可以有效利用語料檢索系統(tǒng).錯A)正確B)錯誤答案:錯解析:[判斷題]188.ID3,C4.5,CART都屬于邏輯回歸算法A)正確B)錯誤答案:錯解析:[判斷題]189.最基礎的Seq2Seq模型包含了3個部分,即編碼器、解碼器和連接兩者的中間狀態(tài)向量。對A)正確B)錯誤答案:對解析:[判斷題]190.GBDT和隨機森林的思想和流程是相同的A)正確B)錯誤答案:錯解析:[判斷題]191.tf-idf在文本分類中效果一定比word2vec好。錯A)正確B)錯誤答案:錯解析:[判斷題]192.可以使用1-NN分類器構(gòu)造2-NN分類器嗎?A)正確B)錯誤答案:對解析:[判斷題]193.分類和聚類并不屬于機器學習的算法A)正確B)錯誤答案:錯解析:[判斷題]194.降維算法,可以篩選出來更少的特征去做任務,有更好的效果A)正確B)錯誤答案:對解析:[判斷題]195.分布式表示的思想是詞的語義是通過上下文信息確定的,即相同語境出現(xiàn)的詞,其語義也相近。對A)正確B)錯誤答案:對解析:[判斷題]196.將文本進行Embedding的過程叫做,詞干提?。⊿temming)A)正確B)錯誤答案:錯解析:這是分詞(tokenization),而不是詞干提取。[判斷題]197.one-hot可以直接做命名實體識別A)正確B)錯誤答案:錯解析:[判斷題]198.HMM的狀態(tài)序列既不能直接獲得,也不能通過觀察序列獲得A)正確B)錯誤答案:錯解析:[判斷題]199.人工智能的三大學派包括連接主義,符號主義和行為主義A)正確B)錯誤答案:對解析:[判斷題]200.SVM做分類的本質(zhì)是想找到一條最優(yōu)的超平面,完美的分開不同的類別A)正確B)錯誤答案:對解析:[判斷題]201.情感分析是基于大數(shù)據(jù)的文本分析的一種運用,指的是對文本中情感的傾向性和評價對象進行提取的過程。()A)正確B)錯誤答案:對解析:[判斷題]202.N-gram模型中,N指的是忽略距離大于n的上文詞的影響,N越大時。模型包含的次序信息越豐富,同時計算量隨之增大。A)正確B)錯誤答案:對解析:[判斷題]203.KNN通過建立因變量和自變量之間的一次函數(shù)關系,來做回歸A)正確B)錯誤答案:對解析:[判斷題]204.特征選擇是決策樹學習算法的關鍵()A)正確B)錯誤答案:對解析:[判斷題]205.DM模型對應Word2Vec模型里的Skip-gram模型。錯A)正確B)錯誤答案:錯解析:[判斷題]206.XGBoost并不是一個集成學習的算法A)正確B)錯誤答案:錯解析:[判斷題]207.自然語言處理研究的分支領域包括文本分類、信息抽取、信息檢索、信息過濾、自動文摘、智能問答、話題推薦、機器翻譯、主題詞識別、知識庫構(gòu)建、深度文本表示、命名實體識別、文本生成、文本分析(詞法、句法和語法)、輿情分析、自動校對、語音識別與合成等。A)正確B)錯誤答案:對解析:[判斷題]208.NLP的應用面非常廣泛,涉及文化、教育、軍事、醫(yī)療、商業(yè)、政務、社交等各個領域。()A)正確B)錯誤答案:對解析:[判斷題]209.引入兩層的神經(jīng)網(wǎng)絡可以使線性切分變成非線性切分A)正確B)錯誤答案:對解析:[判斷題]210.決策樹的測試:最小化損失函數(shù)A)正確B)錯誤答案:對解析:[判斷題]211.XGBoost屬于深度學習的一個經(jīng)典算法A)正確B)錯誤答案:錯解析:[判斷題]212.n元謂詞都不是命題A)正確B)錯誤答案:錯解析:[判斷題]213.正則表達式的search函數(shù)返回的是正則表達式在字符串中所有匹配結(jié)果的列表。錯A)正確B)錯誤答案:錯解析:[判斷題]214.問答系統(tǒng)的知識庫內(nèi)容和規(guī)模能直接改變問答系統(tǒng)結(jié)果,并影響問答能力和效率。對A)正確B)錯誤答案:對解析:[判斷題]215.上下文無關文法(2型)的規(guī)則體系便于構(gòu)造,是研究得最多的一種文法A)正確B)錯誤答案:對解析:[判斷題]216.隱馬爾科夫模型的數(shù)學思想是由Baker極其同事在20世紀60年代到70年代初提出來的A)正確B)錯誤答案:錯解析:[判斷題]217.為了便于處理各個領域的文本,結(jié)巴分詞提供了用戶添加自定義詞的功能。()A)正確B)錯誤答案:對解析:[判斷題]218.邏輯回歸是一個既可以做回歸也可以做分類的算法A)正確B)錯誤答案:錯解析:[判斷題]219.gbdt通過多輪迭代,每輪迭代產(chǎn)生一個弱分類器,每個分類器在上一輪分類器的殘差基礎上進行訓練。A)正確B)錯誤答案:對解析:[判斷題]220.用任何一個漢字在語料中出現(xiàn)的次數(shù),除以所有漢字出現(xiàn)的總次數(shù),就可以得到這個漢字的頻率。A)正確B)錯誤答案:對解析:[判斷題]221.自然語言處理中,最常用深度學習算法是CNN,因為其具有記憶功能?A)正確B)錯誤答案:錯解析:[判斷題]222.如果某個特征當中有缺失值,缺失比較少的話,可以使用該特征的平均值或者其它比較靠譜的數(shù)據(jù)進行填充A)正確B)錯誤答案:對解析:[判斷題]223

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論