人工智能自然語言技術練習(習題卷11)_第1頁
人工智能自然語言技術練習(習題卷11)_第2頁
人工智能自然語言技術練習(習題卷11)_第3頁
人工智能自然語言技術練習(習題卷11)_第4頁
人工智能自然語言技術練習(習題卷11)_第5頁
已閱讀5頁,還剩16頁未讀 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

試卷科目:人工智能自然語言技術練習人工智能自然語言技術練習(習題卷11)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能自然語言技術練習第1部分:單項選擇題,共45題,每題只有一個正確答案,多選或少選均不得分。[單選題]1.謂語動詞句法成分關系特征()A)路徑和位置B)位置和動詞原形C)框架和位置D)路徑和框架答案:A解析:[單選題]2.以下四個說法中,哪個是GBDT的優(yōu)點A)在分布稠密的數據集上,泛化能力和表達能力都很好;B)GBDT在高維稀疏的數據集上表現(xiàn)不佳;C)訓練過程需要串行訓練,只能在決策樹內部采用一些局部并行的手段提高訓練速度。D)不確定答案:A解析:[單選題]3.基于LDA主題模型的文本情感分析不包括()。A)文本轉換B)主題提取和情感詞提取C)主題情感摘要生成D)系統(tǒng)評測答案:A解析:[單選題]4.SVM中的代價參數C表示什么?A)交叉驗證的次數B)用到的核函數C)在分類準確性和模型復雜度之間的權衡D)以上都不對答案:C解析:[單選題]5.美元貨幣符號?$?表示匹配字符串的()位置。A)結束B)開始C)中間D)表示貨幣的字符串答案:A解析:[單選題]6.下列算法中,訓練數據集是無label的數據,是雜亂無章的,經過變換后變得有序,先無序,后有序是哪個算算法A)SVMB)邏輯回歸C)線性回歸D)聚類答案:D解析:[單選題]7.交叉檢驗的方法不包括以下幾項A)口頭信息、書面信息與實際狀況之間的驗證B)不同數據和信息之間的關系的合理性驗證C)不同時間的關聯(lián)數據之間的合理性驗證D)同一個人對不同問題提供的信息的驗證答案:D解析:[單選題]8.BP算法說的是那兩個參數之間的誤差率A)最大化實際輸出與訓練集的誤差率B)最小化實際輸出與訓練集的誤差率C)均值化實際輸出與訓練集的誤差率D)范數化實際輸出與訓練集的誤差率答案:B解析:[單選題]9.以下哪些是神經網絡中的?超參數??A)隱藏層的大小B)激活值C)權重D)偏置答案:A解析:[單選題]10.()是指從文本中抽取出特定的事件或事實信息。例如,從時事新聞報道中抽取出某一恐怖事件的基本信息,如時間、地點、事件制造者、受害人、襲擊目標、傷亡人數等。A)文本分類B)文本聚類C)信息抽取D)信息過濾答案:C解析:[單選題]11.下列是對于Batch歸一化的描述,其中它的流程步驟不包括下列哪個選項?A)求每個訓練批次數據的均值B)求每個訓練批次數據的方差C)使用求得的均值和方差對該批次的訓練數據做歸一化,獲得0-1分布D)求每個訓練批次的和答案:D解析:[單選題]12.馬爾科夫鏈達到最穩(wěn)定狀態(tài)時,其穩(wěn)定概率與()無關A)初始轉發(fā)B)中間狀態(tài)C)當前狀態(tài)D)最末狀態(tài)答案:A解析:[單選題]13.關于對于數據切分的問題,以下說法正確的是?A)可以不設置訓練集B)可以不設置測試集C)可以不設置驗證集D)不確定答案:C解析:[單選題]14.Relu(RectifiedLinearUnit)又叫做什么A)隨機糾正線性單元B)廣義線性模型C)雙曲正切D)修正線性單元函數答案:D解析:A選項指的是RRelu[單選題]15.katz指數又稱ADL指數,由難到易分為()類A)4B)5C)6D)7答案:C解析:[單選題]16.下列關于不精確推理過程的敘述錯誤的是()。A)不精確推理過程是從不確定的事實出發(fā)B)不精確推理過程最終能夠推出確定的結論C)不精確推理過程是運用不確定的知識D)不精確推理過程最終推出不確定性的結論答案:B解析:[單選題]17.句法成分相關特征之一()A)短語類型B)句法成分句子C)句法成分詞D)句法成分詞性答案:A解析:[單選題]18.NiLTK的安裝步驟為()。A)安裝NLP虛擬環(huán)境→安裝NLTK一→檢查是否存在NLTK→下載NLTK數據包B)安裝NLTK→安裝NLP虛擬環(huán)境→檢查是否存在NLTK→下載NLTK數據包C)安裝NLP虛擬環(huán)境一安裝NLTK一下載NLTK數據包一檢查是否存在NLTKD)下載NLTK數據包→安裝NLP虛擬環(huán)境→安裝NLTK→檢查是否存在NLTK答案:A解析:[單選題]19.梯度爆炸如何解決??A)對于RNN,可以通過梯度截斷,避免梯度消失B)可以通過添加正則項,避免梯度爆炸C)使用LSTM等自循環(huán)和門控制機制,避免梯度爆炸D)優(yōu)化激活函數,譬如將sigmold改為relu,避免梯度消失答案:B解析:[單選題]20.格語法提供了一種用于分析特定句子()的方法A)主旨B)含義C)成分D)類別答案:B解析:[單選題]21.NLP任務想要做的好,最基礎的操作是什么A)文本的向量化B)下有任務的處理C)模型的選擇D)都不正確答案:A解析:[單選題]22.以下哪個與支持向量機無關A)使用核函數B)將低維向量向高維向量轉換C)使低維線性不可分的數據在高維線性可分D)使用向量的都叫支持向量機答案:D解析:[單選題]23.循環(huán)神經網絡RNN的作用描述正確的是A)增大文本數量B)簡化文本C)特征提取D)文本分類答案:C解析:[單選題]24.dropout作為常用的函數,它能起到什么作用A)沒有激活函數功能B)一種正則化方式C)一種圖像特征處理算法D)一種語音處理算法答案:B解析:[單選題]25.如果網絡中遇到了梯度爆炸問題,下列選項中哪個可以很好的解決?A)梯度剪切,正則B)增加擬合數據C)增加訓練數據維度D)增加隱藏層答案:A解析:[單選題]26.加入正則項,可以解決處理以下哪個問題A)正常擬合B)過擬合C)欠擬合D)不確定答案:B解析:[單選題]27.MSE(MeanSquareError)均方誤差可以用到以下哪個算法當中A)邏輯回歸B)GBDTC)聚類D)KNN答案:B解析:[單選題]28.雖然隨機森林和GBDT都屬于集成學習,他們有什么不同之處A)都是由多棵樹組成,最終的結果都是由多棵樹一起決定。B)組成隨機森林的樹可以并行生成,而GBDT是串行生成C)RF和GBDT在使用CART樹時,可以是分類樹或者回歸樹。D)不確定答案:B解析:[單選題]29.如果對圖像進行池化,ksize=[1,4,4,1]那么圖像會變成多大A)縮小到1/2B)擴大四倍C)擴大兩倍D)縮小到1/16答案:D解析:[單選題]30.關于traintest.Dev數據集說法錯誤的是A)可以直接使用訓練集來驗證算子的準確率B)訓練集用于算子的擬合C)驗證集和測試集用來評判算子的準確度D)可以不配置驗證集答案:A解析:[單選題]31.XGBoost中的節(jié)點的分裂方式A)枚舉出了不同樹結構的貪心法B)通過基尼系數C)通過信息增益D)通過信息增益比答案:A解析:[單選題]32.NLP可以說是人工智能中最難的一個方向,那么它的難體現(xiàn)在哪個地方A)語言的多樣性,多變性等B)算力能力的提升C)數據量變得很大D)算法沒有更新答案:A解析:[單選題]33.對于數據的處理過程過采樣和欠采樣可以解決什么問題的A)詞向量化處理B)提取特征C)樣本類別不平衡D)文本摘要處理答案:C解析:[單選題]34.K-Means最明顯的缺點是什么?A)耗時耗內存B)耗時但是節(jié)省內存C)不耗時但是耗內存D)不耗時也不耗內存答案:A解析:[單選題]35.邏輯回歸的損失函數是什么A)信息熵B)信息增益C)對數損失D)均方誤差答案:C解析:[單選題]36.在NLP,處理句子文本時,哪種基于語法的文本句法分析方法可以用于名詞短語檢測等任務A)部分語音標注B)依存句法分析(DependencyParsing)和選取句法分析(ConstituencyParsing)C)SkipGram和N-Gram提取D)連續(xù)性詞包答案:B解析:[單選題]37.Bagging的核心思想是什么A)核心思想為并行地訓練一系列各自獨立的同類模型,然后再將各個模型的輸出結果按照某種策略進行聚合B)核心思想是并行地訓練一系列各自獨立的不同類模型,然后通過訓練一個元模型(meta-model)來將各個模型輸出結果進行結合C)不確定D)核心思想為串行地訓練一系列前后依賴的同類模型,即后一個模型用來對前一個模型的輸出結果進行糾正答案:A解析:[單選題]38.關于數據處理定理下列說法不正確的是A)若X、Y、Z組成一個馬爾可夫鏈,則有I(X;Z)大于等于I(X;Y)B)若X、Y、Z組成一個馬爾可夫鏈,則有I(X;Z小于等于I(X;Y)C)數據處理過程中熵不會增加D)通過數據處理后,一般只會增加信息的損失,最多保持原來的信息答案:A解析:[單選題]39.在模型訓練的階段,使用的優(yōu)化算法中,超參數學習率會怎么變化A)保持不變B)持續(xù)較小C)持續(xù)增大D)不變答案:B解析:[單選題]40.在自然語言中,主要應用到的是深度學習神經網絡是以下哪個A)ANNB)CNNC)RNND)XNN答案:C解析:[單選題]41.歐氏距離也可以叫做什么()A)非負距離B)平面距離C)絕對值距離D)平方范數距離答案:D解析:[單選題]42.在TF-IDF計算中和哪些因素相關A)不確定B)詞意C)詞序D)詞權重答案:D解析:[單選題]43.集成學習GBDT是很好的算法,同時也有很多優(yōu)點,以下對其優(yōu)點的描述A)在分布稠密的數據集上,泛化能力和表達能力都很好;B)GBDT在高維稀疏的數據集上表現(xiàn)不佳;C)訓練過程需要串行訓練,只能在決策樹內部采用一些局部并行的手段提高訓練速度。D)不確定答案:A解析:第2部分:多項選擇題,共21題,每題至少兩個正確答案,多選或少選均不得分。[多選題]44.Adaboost中有兩種權重,體現(xiàn)在()A)A:樣本權重B)B:代價函數C)C:梯度下降D)D:弱分類器權重答案:AD解析:[多選題]45.Transformer中的encode層是由那幾個構成的A)self-AttentionB)Attention層C)前饋神經網絡D)CNN答案:AC解析:[多選題]46.seq2seq可以做機器翻譯等之類的NLP任務,那么在編碼器中可以用以下哪些模型做特征提???A)CNNB)RNNC)LSTMD)SVM答案:ABC解析:[多選題]47.以下四個選項中,使用到了Transformer做特征提取模型有哪些A)BERTB)ALBERTC)GPTD)ELMO答案:ABC解析:[多選題]48.下列()是違約概率模型A)風險中性定價模型B)信用監(jiān)測模型C)信用風險計算方法D)以上都正確答案:ABCD解析:[多選題]49.pytorch框架可用于解決以下哪些問題A)NLPB)CVC)DMD)都不能答案:ABC解析:[多選題]50.從區(qū)間[a,b]中隨機獲取一個x值,對于該操作,下列選項中描述正確的有哪些?A)取最小值的對數得到a的值B)取最小值的對數得到b的值C)取最大值的對數得到a的值D)取最大值的對數得到b的值答案:AD解析:[多選題]51.自然語言處理(NLP)中為什么要進行文本表示文本表示A)根本原因是計算機不方便對文本字符串進行處理B)便于機器學習C)良好的文本表示可以提升算法的效果D)無實際意義答案:ABC解析:[多選題]52.文本分類(基于表示方法)A)短文本表示B)One-hot表示C)詞表示D)CBOW答案:BD解析:[多選題]53.線性函數歸一化,是怎么去實現(xiàn)的A)將原始數據映射到均值為0、標準差為1的分布上B)對原始數據的等比縮放C)使結果映射到[1,2]的范圍D)以上都正確答案:AB解析:[多選題]54.下面那個是bert的訓練任務A)編解碼B)均方誤差C)遮蔽語言模型D)下一句預測答案:CD解析:[多選題]55.詞_袋_子模型的優(yōu)點A)簡單方便快速B)在語料充足的前提下,對于簡單自然語言處理任務效果不錯C)準確率較低D)無法關注詞語間的順序答案:AB解析:[多選題]56.情感分析的應用領域有()A)商品評論B)輿情分析C)信息預測D)推薦系統(tǒng)答案:ABCD解析:[多選題]57.下列選項中關于tf.nn.SoftMax函數的描述以下正確的是哪些選項?A)用于多類別分類B)映射到概率空間C)壓縮數據D)用于卷積層答案:ABC解析:[多選題]58.使用tensorflow關于實現(xiàn)交叉熵損失函數的API,以下選項正確的是哪些?A)entropy=-tf.reduce_sum(y_actual*tf.log(y_predict))B)entropy=-tf.reduce_mean(y_actual*tf.log(y_predict))C)entropy=-tf.reduce_max(y_actual*tf.log(y_predict))D)entropy=-tf.reduce_any(y_actual*tf.log(y_predict))答案:AB解析:[多選題]59.專家系統(tǒng)的結構包含哪些?A)人機界面和知識庫B)推理機C)動態(tài)數據庫D)知識庫答理系統(tǒng)和解釋模塊答案:ABCD解析:[多選題]60.CBOW模型的神經網絡包含了()A)輸入層B)隱藏層C)輸出層D)全連接層答案:ABC解析:[多選題]61.下列關于數據歸一化的描述,正確的選項有哪些?A)歸一化可以預防過擬合B)歸一化沒有實質作用C)歸一化將所有數據樣本值縮放到0-1之間D)歸一化是一種激活函數答案:AC解析:[多選題]62.使用了Transformer做特征提取的預訓練模型有哪些A)BERTB)ALBERTC)GPTD)ELMO答案:ABC解析:[多選題]63.文檔是怎么生成的?A)首先需要列出幾個主題B)然后以一定概率選擇主題C)以一定概率選擇主題中會包括的促會D)組成一篇文章答案:ABCD解析:[多選題]64.在工業(yè)中,NLP有哪些應用落地較好?A)語音識別B)自動翻譯C)控制裝置D)人臉識別答案:ABC解析:第3部分:判斷題,共24題,請判斷題目是否正確。[判斷題]65.BERT使用的單向的TransformerA)正確B)錯誤答案:對解析:[判斷題]66.深度學習可以同時應用在圖像和自然語言領域A)正確B)錯誤答案:對解析:[判斷題]67.一個字符的Unicode編碼是確定的A)正確B)錯誤答案:對解析:[判斷題]68.采用sigmoid等函數,算激活函數時(指數運算),計算量大A)正確B)錯誤答案:對解析:[判斷題]69.神經網絡的一般三要素:輸入層、隱藏層和輸出層A)正確B)錯誤答案:對解析:[判斷題]70.過多增加隱層和神經元節(jié)點會帶來更好的結果A)正確B)錯誤答案:錯解析:[判斷題]71.在分類問題中,表示基于特征對實例進行分類的過程,可以認為是if-then的集合,也可以認為是定義在特征空間與類空間上的條件概率分布。A)正確B)錯誤答案:對解析:[判斷題]72.KNN模型訓練所消耗的時間跟選擇的K有關A)正確B)錯誤答案:對解析:[判斷題]73.神經網絡的一般結構是由輸入層、隱藏層(神經元)、輸出層構成的A)正確B)錯誤答案:對解析:[判斷題]74.文本向量化按照向量化的粒度可以將其分為以字單位、以詞為單位和以句子為單位向量表達。對A)正確B)錯誤答案:對解析:[判斷題]75.GPT并不是預訓練模型A)正確B)錯誤答案:錯解析:[判斷題]76.CNN不能做文本特征提取,只適用于圖像A)正確B)錯誤答案:錯解析:[判斷題]77.深度學習的應用非常的廣泛,例如:文本分類等任務A)正確B)錯誤答案:對解析:[判斷題]78.基于機器學習的分類方法,指通過專家經驗,依靠人工提取規(guī)則進行的分類。錯A)正確B)錯誤答案:錯解析:[判斷題]79.最大概率法在擁有大量標注語料的前提下,可以在一定程度上避免切分歧義A)正確B)錯誤答案:對解析:[判斷題]80.正則表達式也可以稱為規(guī)則表達式。對A)正確B)錯誤答案:對解析:[判斷題]81.使用softmax會使得輸出單元從多個變成了一個A)正確B)錯誤答案:錯解析:[判斷題]82.中括號?[]?表示可以匹配多個字符,表示包含在中括號內部的字符都會被匹配。對A)正確B)錯誤答案:對解析:[判斷題]83.模型太過于復雜的話,會造成欠擬合A)正確B)錯誤答案:錯解析:[判斷題]84.TextRank算法的基本思想來自Google的PageRank算法。對A)正確B)錯誤答案:對解析:[判斷題]85.隨機森林中是由多棵樹構成的A)正確B)錯誤答案:對解析:[判斷題]86.PCA中文名稱主成分分析A)正確B)錯誤答案:對解析:[判斷題]87.HMM模型包括三個基本問題,分別為概率計算問題,學習問題,預測問題。A)正確B)錯誤答案:對解析:[判斷題]88.基于規(guī)則的標注方法是較早的一種詞性標注方法,這種方法需要獲取能表達一定的上下文關系及其相關語境的規(guī)則庫。對A)正確B)錯誤答案:對解析:第4部分:問答題,共10題,請在空白處填寫正確答案。[問答題]89.簡要敘述NLTK的主要功能。答案:獲取語料庫、獲取語料庫、字符串處理、詞性標注、分類、

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論