人工智能自然語言技術(shù)練習(習題卷22)_第1頁
人工智能自然語言技術(shù)練習(習題卷22)_第2頁
人工智能自然語言技術(shù)練習(習題卷22)_第3頁
人工智能自然語言技術(shù)練習(習題卷22)_第4頁
人工智能自然語言技術(shù)練習(習題卷22)_第5頁
已閱讀5頁,還剩16頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

試卷科目:人工智能自然語言技術(shù)練習人工智能自然語言技術(shù)練習(習題卷22)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能自然語言技術(shù)練習第1部分:單項選擇題,共43題,每題只有一個正確答案,多選或少選均不得分。[單選題]1.在使用tf時,其中有很多的接口,例如multiply,這個接口實現(xiàn)的功能是?A)相與B)相乘C)相除D)相加答案:B解析:[單選題]2.最基本的文本預處理手段是()A)提取主題B)情感分析C)分詞D)時序分析答案:C解析:[單選題]3.下列管Batch歸一化操作的作用描述正確的是?A)作用于輸出層B)僅作用于輸入層C)無法在隱藏層起作用D)用于輸入層,甚至深度隱藏層的歸一化過程答案:D解析:[單選題]4.機構(gòu)化數(shù)據(jù)類型有:A)數(shù)據(jù)庫中的數(shù)據(jù)B)HTML文檔C)文本D)圖片答案:A解析:[單選題]5.在優(yōu)化算法中,學習率會:A)保持不變B)持續(xù)減小C)持續(xù)增大D)不變答案:B解析:[單選題]6.每個算法都會有缺點,對于集成學習GBDT的缺點是什么A)預測階段的計算速度快,樹與樹之間可并行化計算。B)GBDT在高維稀疏的數(shù)據(jù)集上,表現(xiàn)不如支持向量機或者神經(jīng)網(wǎng)絡。C)在分布稠密的數(shù)據(jù)集上,泛化能力和表達能力都很好,這使得GBDT在Kaggle的眾多競賽中,經(jīng)常名列榜首。D)采用決策樹作為弱分類器使得GBDT模型具有較好的解釋性和魯棒性,能夠自動發(fā)現(xiàn)特征間的高階關(guān)系。答案:B解析:[單選題]7.池化核ksize=[1,2,2,1]將圖像A)縮小到1/4B)縮小到1/2C)擴大兩倍D)擴大四倍答案:A解析:[單選題]8.以下哪個激活函數(shù)指的是修正線性單元?A)ReluB)sigmoidC)tanhD)sin答案:A解析:[單選題]9.馬爾可夫模型的構(gòu)成要素包括A)狀態(tài)B)周期長度C)轉(zhuǎn)換概率D)其余選項結(jié)對答案:D解析:[單選題]10.1-NN,2-NN,3-NN所花費的時間之間是什么關(guān)系。A)1-NN>2-NN>3-NNB)1-NN<2-NN<3-NNC)1-NN~2-NN~3-NND)這些都不是答案:C解析:[單選題]11.用哪種數(shù)據(jù)挖掘方法可以分析出客戶對產(chǎn)品的情感傾向()A)關(guān)聯(lián)規(guī)則挖掘B)Web文本挖掘C)分類模式挖掘D)序列模式挖掘答案:B解析:[單選題]12.在下列幾關(guān)于mini-batch的說法當中,描述錯誤的是哪個?A)指的是批量梯度下降B)適用于樣本量小的數(shù)據(jù)集C)每一次只運算部分數(shù)據(jù),最后將全部數(shù)據(jù)進行運算D)適用于樣本量大的數(shù)據(jù)答案:B解析:[單選題]13.EM算法應用廣泛,它的求解原理是什么A)是通過尋找最優(yōu)的自變量和因變量之間的一次函數(shù)關(guān)系B)通過尋找最優(yōu)的超平面進行更好的分類C)是通過迭代,不斷求解下界的極大化,來逐步求解對數(shù)似然函數(shù)極大化D)不確定答案:C解析:[單選題]14.下列選項中,哪個不是關(guān)鍵詞提取常用的算法?A)TF-IDFB)TextRankC)SSAD)LDA答案:C解析:[單選題]15.如果說數(shù)據(jù)當中有缺失值,可以使用以下哪種方式去填充A)平均值B)不填充C)代價D)學習率答案:A解析:[單選題]16.零均值歸一化會將原始數(shù)據(jù)的標準差映射為多少?A)0B)1C)2D)3答案:B解析:[單選題]17.正則項有很大的作用呢,如果把正則項加到了邏輯回歸的目標函數(shù)中,會有什么效果?A)所有的參數(shù)w都變成0B)所有參數(shù)w都會趨近于0C)所有參數(shù)w都不會變化D)不確定答案:A解析:[單選題]18.關(guān)于選擇超參數(shù)的范圍,下列選項中描述正確的是?A)隨機取值可以提升搜索效率B)隨機取值就是隨機均勻取值C)范圍就是[0,1]D)隨機取值對搜索無影響答案:A解析:[單選題]19.面向?qū)ο蟮奶刭|(zhì)有:A)A:封裝B)B:繼承C)C:多態(tài)D)D:消息答案:D解析:[單選題]20.字頻和詞頻是最基本的()。A)統(tǒng)計數(shù)據(jù)B)格式說明C)概括描述D)信息處理答案:A解析:[單選題]21.learning_rate用于網(wǎng)絡的什么作用A)調(diào)整學習率B)批處理C)dropoutD)過擬合答案:A解析:[單選題]22.通過以下哪種方式可以得到加權(quán)平均值A(chǔ))局部平均值B)局部方差C)全局平均值D)全局方差答案:A解析:[單選題]23.在BERT模型當中有一個遮蔽任務的訓練,那么有多少的遮蔽掉的詞A)10%B)12%C)15%D)20%答案:C解析:[單選題]24.RNN是什么的簡稱A)全連接網(wǎng)絡B)卷積神經(jīng)網(wǎng)絡C)循環(huán)神經(jīng)網(wǎng)絡D)感知機網(wǎng)絡答案:C解析:[單選題]25.關(guān)于失活函數(shù)dropout運行的描述正確的是?A)隨機取消一些節(jié)點,只是用部分節(jié)點進行擬合運算,防止過擬合B)dropout能增加新樣本防止過擬合C)dropout進行歸一化操作,防止過擬合D)dropout通過給損失函數(shù)增加懲罰項,防止過擬合答案:A解析:[單選題]26.以下幾個關(guān)于EM算法的說法,正確的是A)傳統(tǒng)EM算法對初始值不敏感B)EM算法不能應用到HMM的求解中C)不確定D)傳統(tǒng)EM算法對初始值敏感答案:D解析:[單選題]27.聚類肘部法的作用是:A)就是從K值和代價函數(shù)J的二維圖中找出J下降變平滑的拐點對應的K值。B)最大K值C)最小K值D)隨機K值答案:A解析:[單選題]28.串行地訓練一系列前后依賴的同類模型,即后一個模型用來對前一個模型的輸出結(jié)果進行糾正屬于什么思想A)BaggingB)BoostingC)StackingD)以上都正確答案:B解析:[單選題]29.tf中的conv2d(a,b,c,d),參數(shù)b代表什么?A)被卷積數(shù)據(jù)B)步長C)卷積核D)填充答案:C解析:[單選題]30.多分類問題的最后一層一般用什么激活函數(shù)A)sigmoidB)tanhC)softmaxD)relu答案:C解析:[單選題]31.以下哪個與LSTM無關(guān)A)遺忘門B)輸入門C)輸出門D)更新門答案:D解析:[單選題]32.下列屬于結(jié)構(gòu)化數(shù)據(jù)的是:A)數(shù)據(jù)庫中的數(shù)據(jù)B)HTML文檔C)文本D)圖片答案:A解析:[單選題]33.EM最大期望算法的第一步是做什么A)求代價B)最大化C)計算期望D)不確定答案:C解析:[單選題]34.可以接受非語言形式的信息作為輸入,生成可讀的文字屬于什么任務類型A)文本分類B)文本生成C)文本翻譯D)信息抽取答案:B解析:[單選題]35.Batch歸一化,在神經(jīng)網(wǎng)絡中有很強的作用,系列描述中,哪個選項說的不是它的作用A)減少了隱藏值分布變化的數(shù)量B)減少了輸入值改變的問題C)有輕微的正則化效果D)增加了輸入值改變的問題答案:D解析:[單選題]36.圖靈測試是想實現(xiàn)以下哪種目標A)人類思考B)人工智能C)機器智能D)機器動作答案:C解析:[單選題]37.什么是Boosting思想,如何理解Boosting思想A)將基分類器層層疊加,每一層在訓練的時候,對前一層基分類器分錯的樣本,給予更高的權(quán)重B)從總體樣本當中隨機取一部分樣本進行訓練,通過多次這樣的結(jié)果,進行投票獲取平均值作為結(jié)果輸出C)不確定D)以上都正確答案:A解析:[單選題]38.關(guān)于指數(shù)加權(quán)平均數(shù)的好處,下列說法描述正確的是哪個?A)只需要少量參數(shù)B)占用極少內(nèi)存C)不適用學習率D)是非監(jiān)督式學習答案:B解析:[單選題]39.LDA的優(yōu)缺點說法正確的是哪個選項A)LDA適合對非高斯分布樣本進行降維;B)不可以使用類別的先驗知識;C)LDA不會過度擬合數(shù)據(jù)。D)LDA在樣本分類信息依賴方差而不是均值時,降維效果不好;答案:D解析:[單選題]40.前項算法中,除了需要有聯(lián)合權(quán)重w,還需要有一個什么函數(shù),才能正常的進行計算A)激活函數(shù)B)正弦函數(shù)C)余弦函數(shù)D)都可以答案:A解析:[單選題]41.詞義消歧可以看成是一種標注問題,但是要使用()A)詞性標記B)語性標記C)詞義標記D)語義標記答案:D解析:[單選題]42.在一個_概率_空間,進行多種劃分后,其其信息熵是()A)一定相等B)一定不等C)不確定無關(guān)聯(lián)D)互有關(guān)聯(lián)答案:C解析:[單選題]43.以下四個模型當中,哪個使用的是單向Transformer的預訓練模型A)GPT模型B)Word2Vec模型C)BERT模型D)ELMO模型答案:A解析:第2部分:多項選擇題,共23題,每題至少兩個正確答案,多選或少選均不得分。[多選題]44.下列四個選項中,描述sigmoid性質(zhì)正確的有哪些A)概率平均B)能解決非線性分類問題C)將負的權(quán)值映射到正值D)將正權(quán)值映射到負數(shù)答案:BC解析:[多選題]45.情感分析的主要內(nèi)容包括()A)主客觀分類B)情感分類C)情感極性判斷D)情感表達答案:ABC解析:[多選題]46.正則表達式的匹配方法有()A)matchB)compileC)searchD)findall答案:ACD解析:[多選題]47.激活函數(shù)是常用于做非線性的變換,常用的激活函數(shù)有哪些A)reluB)tanhC)Leaky-ReluD)softplus答案:ABCD解析:[多選題]48.LightGBM在哪些地方進行了優(yōu)化(區(qū)別XGBoost)?A)基于Histogram的決策樹算法B)帶深度限制的Leaf-wise的葉子生長策略C)直方圖做差加速直接D)支持類別特征(CategoricalFeature)答案:ABCD解析:[多選題]49.判別式Discriminativemodel模型有什么缺點A)學習過程比較復雜B)目標分類中易產(chǎn)生較大錯誤率C)不能反映訓練數(shù)據(jù)本身的特性D)沒辦法把整個場景描述出來答案:CD解析:[多選題]50.LSTM中有三個門去控制C,是哪三個門A)遺忘門B)輸入門C)輸出門D)以上都正確答案:ABCD解析:[多選題]51.在下列四個選項中,關(guān)于GBDT算法描述正確的選項有哪些?A)預測階段的計算速度快,樹與樹之間可并行化計算(注意預測時可并行)B)在分布稠密的數(shù)據(jù)集上,泛化能力和表達能力都很好;C)GBDT在高維稀疏的數(shù)據(jù)集上表現(xiàn)不佳;D)訓練過程需要串行訓練,只能在決策樹內(nèi)部采用一些局部并行的手段提高訓練速度。答案:ABCD解析:[多選題]52.邏輯回歸有什么優(yōu)點A)LR能以概率的形式作為輸出結(jié)果,而不是0,1B)LR的可解釋強,可控度高C)訓練快D)以上都正確答案:ABCD解析:[多選題]53.關(guān)于如下運算:a=tf.Variable([3,4,5])和b=tf.Variable(a),以下描述正確的是A)合法B)非法C)合法但a需要提前初始化D)合法但不夠安全答案:ACD解析:[多選題]54.什么是聚類算法,如何去理解聚類?A)聚類是一種機器學習技術(shù)B)它涉及到數(shù)據(jù)點的分組C)給定一組數(shù)據(jù)點,我們可以使用聚類算法將每個數(shù)據(jù)點劃分為一個特定的組D)聚類是一種無監(jiān)督學習的方法,是許多領(lǐng)域中常用的統(tǒng)計數(shù)據(jù)分析技術(shù)答案:ABCD解析:[多選題]55.寫出幾種主要的網(wǎng)絡結(jié)構(gòu)形式。A)星形結(jié)構(gòu):具有一個中心結(jié)點,所有通訊都通過它。B)環(huán)形結(jié)構(gòu):網(wǎng)絡結(jié)點連成一個封閉的環(huán)形。C)總線結(jié)構(gòu):具有一個共享總線,所有結(jié)點掛在上面,又稱樹形結(jié)構(gòu)D)以上都正確答案:ABCD解析:[多選題]56.以下關(guān)于KNN的四個選項中,說法正確的是()。A)無需參數(shù)估計,無需訓練B)適合用于稀有事件的分類問題C)對變量之間的共線性比較敏感D)可解釋性差答案:ABD解析:[多選題]57.CART相比較ID3和C4.5有什么獨特之處A)CART生成的樹必須是二叉樹B)CART既可以做分了也可以做回歸C)CART內(nèi)部節(jié)點只能根據(jù)屬性值進行二分D)以上都正確答案:ABCD解析:[多選題]58.交叉熵為-1/m∑[y(i)log(hθ(x(i)))+(1?y(i))log(1?hθ(x(i)))]A)m是訓練輸入元素個數(shù)B)∑的加和長度是輸入個數(shù)C)y(i)來自標簽的onehot表D)hθ(x(i))和標簽one-hot表維度一致答案:ABCD解析:[多選題]59.NLP中有哪幾大類任務A)序列標注B)分類C)句子關(guān)系判斷D)生成式任務答案:ABCD解析:[多選題]60.以下的幾個任務中,哪些任務屬于自然語言領(lǐng)域的A)人臉檢測B)機器翻譯C)圖像識別D)會話機器人答案:BD解析:[多選題]61.生成式模型的有點有:A)適用較多類別的識別B)能更充分利用先驗知識C)分類邊界更靈活D)研究單類問題靈活性強答案:BD解析:[多選題]62.谷歌開源出來的BERT,一般可以用于下列哪些任務A)情感分析B)垃圾郵件過濾C)命名實體識別D)問答系統(tǒng)答案:ABCD解析:[多選題]63.Stacking的操作可以分為哪些階段A)Aggregating階段,將上一個階段訓練得到的n個基模型組合起來,共同做決策。在分類任務中,可采用投票法,比如相對多數(shù)投票法,將結(jié)果預測為得票最多的類別。而在回歸任務中可采用平均法,即將每個基模型預測得到的結(jié)果進行簡單平均或加權(quán)平均來獲得最終的預測結(jié)果。B)Boostrap階段,即采用有放回的采樣方式,將訓練集分為n個子樣本集;并用基學習器對每組樣本分布進行訓練,得到n個基模型C)分別采用全部的訓練樣本來訓練n個組件模型,要求這些個體學習器必須異構(gòu)的,比如可以分別是線性學習器,SVM,決策樹模型和深度學習模型。D)訓練一個元模型(meta-model)來將各個組件模型的輸出結(jié)果進行結(jié)合,具體過程就是將各個學習器在訓練集上得到的預測結(jié)果作為訓練特征和訓練集的真實結(jié)果組成新的訓練集;然后用這個新組成的訓練集來訓練一個元模型。這個元模型可以是線性模型或者樹模型。答案:BC解析:[多選題]64.文本的One-hot表示的缺點有()A)維數(shù)過高B)矩陣稀疏C)不能保留語義D)以上都不對答案:ABC解析:第3部分:判斷題,共24題,請判斷題目是否正確。[判斷題]65.jieba是最常用的命名實體識別工具A)正確B)錯誤答案:錯解析:[判斷題]66.Keras是pytorch高級集成APiA)正確B)錯誤答案:錯解析:[判斷題]67.通過Attention可以給賦予一個不同大小的權(quán)重值A(chǔ))正確B)錯誤答案:對解析:[判斷題]68.SVM算法中,既可以做分類又可以做回歸A)正確B)錯誤答案:對解析:[判斷題]69.正則表達式的?[0-9a-zA-Z_]+?只用于匹配一個字母或者數(shù)字A)正確B)錯誤答案:錯解析:[判斷題]70.GPT中最大的缺點就是不能解決一詞多意問題A)正確B)錯誤答案:錯解析:[判斷題]71.基于規(guī)則的方法,基于統(tǒng)計的方法,基于語義的標注方法,基于統(tǒng)計的和基于規(guī)則的相結(jié)合的方法都是詞性標注方法A)正確B)錯誤答案:錯解析:[判斷題]72.不可撤回方式是利用問題給出的局部知識來決定如何選取規(guī)則,接著再根據(jù)新狀態(tài)繼續(xù)選取規(guī)則,搜索過程一直進行下去,不必考慮撒回用過的規(guī)則。A)正確B)錯誤答案:對解析:[判斷題]73.特征歸一化以后,可以通過梯度更快的找到最優(yōu)解A)正確B)錯誤答案:對解析:[判斷題]74.加入這個正則化項好處:控制參數(shù)幅度,限制參數(shù)搜索空間A)正確B)錯誤答案:對解析:[判斷題]75.設計一個漢字輸入系統(tǒng)需要對漢字進行編碼,這里指漢字的外碼,即輸出碼A)正確B)錯誤答案:錯解析:[判斷題]76.正則表達式可用于自動提取人名與電話號碼。對A)正確B)錯誤答案:對解析:[判斷題]77.CNN,RNN都叫特征提取器A)正確B)錯誤答案:對解析:[判斷題]78.關(guān)于網(wǎng)絡中的學習問題,在一次學習問題中,只能通過一個樣本進行學習,以能夠認出同一個人。A)正確B)錯誤答案:對解析:[判斷題]79.sigmoid接近飽和區(qū)時,變換太緩慢,導數(shù)趨于0,這種情況會造成信息丟失A)正確B)錯誤答案:對解析:[判斷題]80.relu比sigmoid更容易陷入梯度消失A)正確B)錯誤答案:錯解析:[判斷題]81.正向最大匹配算法和逆向最大匹配算法的本質(zhì)目的相同,都是對文本進行分詞A)正確B)錯誤答案:對解析:[判斷題]82.命名實體識別是StanfordNLP的應用A)正確B)錯誤答案:對解析:[判斷題]83.按語料庫的用途可劃分為通用語料庫和專用語料庫A)正確B)錯誤答案:對解析:[判斷題]84.SVM就是想找到一個距離最大的超平面,可以更好的去做分類A)正確B)錯誤答案:對解析:[判斷題]85.常用的減緩過擬合方法包括,用正則化或者dropout。A)正確B)錯誤答案:對解析:[判斷題]86.textblob可以完成中文文本分詞操作。錯A)正確B)錯誤答案:錯解析:[判斷題]87.詞性標注是指給詞語標上詞類標簽,比如名詞、動詞、形容詞等。A)正確B)錯誤答案:對解析:[判斷題]88.如果mini-batch大小是2的n次方,代碼會運行的更快A)正確B)錯誤答案:對解析:第4部分:問答題,共10題,請在空白處填寫正確答案。[問答題]89.需要對中文文本進行分詞時,需要首先導入()庫。答案:JIEBA解析:[問答題]90.NLTK中基本函數(shù)的使用方法concordance函數(shù)可搜索()。答案:指定內(nèi)容解析:[問答題]91.正則表達式的()函數(shù)用于用于在整個字符串內(nèi)查找對應的模式進行匹配。答案:SEARCH解析:[問答題]92.由下表的訓練數(shù)據(jù)集,學習一個樸素貝葉斯分類器并確定當實例為x=(2,S)T時的類標記y。表中,X1和X2為特征,其取值的集合分別為A1={1,2,3},X2A2={S,M,L},Y為類標記,Y∈{?1,1}。答案:解:根據(jù)樸素貝葉斯算法,計算以下概率:P(Y=1)=9/1

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論