版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
PAGEPAGE1第四屆大學(xué)生人工智能知識競賽考試題庫(含答案)一、單選題1.在下列人工神經(jīng)學(xué)習(xí)算法中,哪種是能夠根據(jù)期望的和實(shí)際的網(wǎng)絡(luò)輸出之間的差來調(diào)整神經(jīng)元之間連接的強(qiáng)度或權(quán)。()A、有師學(xué)習(xí)B.無師學(xué)習(xí)C.強(qiáng)化學(xué)習(xí)D.都不是B、2C、3D、4答案:A2.如果我們希望預(yù)測n個(gè)類(p1,p2...pk)的概率使得所有n的p的和等于1,那么下列哪個(gè)函數(shù)可以用作輸出層中的激活函數(shù)?A、ReLuB.SoftmaxC.SigmoidD.TanhB、2C、3D、4答案:B3.計(jì)算機(jī)系統(tǒng)包括硬件系統(tǒng)和軟件系統(tǒng).關(guān)于二者之間的關(guān)系正確的說法是A、兩個(gè)系統(tǒng)必須相互適合、配套B、硬件是首要的,軟件是次要的C、軟件是首要的,硬件是次要的D、只要有了硬件,軟件可有可無B、2C、3D、4答案:A4.下面對前饋神經(jīng)網(wǎng)絡(luò)這種深度學(xué)習(xí)方法描述不正確的是A、是一種端到端學(xué)習(xí)的方法B.是一種監(jiān)督學(xué)習(xí)的方法C.實(shí)現(xiàn)了非線性映射D.隱藏層數(shù)目大小對學(xué)習(xí)性能影響不大B、2C、3D、4答案:D5.回歸分析中定義的()A、解釋變量和被解釋變量都是隨機(jī)變量B.解釋變量為非隨機(jī)變量,被解釋變量為隨機(jī)變量C.解釋變量和被解釋變量都為非隨機(jī)變量D.解釋變量為隨機(jī)變量,被解釋變量為非隨機(jī)變量B、2C、3D、4答案:B6.一般來講,下列語言屬于人工智能語言的是()。A、VJB.C#C.FoxproD.LISPB、2C、3D、4答案:D7.狀態(tài)空間的三元組(S,F(xiàn),G)代表()A、算法符,初始狀態(tài)集,目標(biāo)狀態(tài)集B.目標(biāo)狀態(tài)集,初始狀態(tài)集,算法符C.初始狀態(tài)集,算法符,目標(biāo)狀態(tài)集D.初始狀態(tài)集,目標(biāo)狀態(tài)集,算法符B、2C、3D、4答案:C8.多義現(xiàn)象可以被定義為在文本對象中一個(gè)單詞或短語的多種含義共存。下列哪一種方法可能是解決此問題的最好選擇?A、隨機(jī)森林分類器B.卷積神經(jīng)網(wǎng)絡(luò)C.梯度爆炸D.上述所有方法B、2C、3D、4答案:B9.下列哪個(gè)不屬于常用的文本分類的特征選擇算法?()A、卡方檢驗(yàn)值B.互信息C.信息增益D.主成分分析B、2C、3D、4答案:D10.關(guān)于集成學(xué)習(xí),以下說法錯(cuò)誤的是A、集成學(xué)習(xí)一定能提升個(gè)體學(xué)習(xí)器的性能;B.Bagging方法中,個(gè)體學(xué)習(xí)器之間彼此獨(dú)立;C.Boosting是一種重視錯(cuò)誤樣本的學(xué)習(xí)方法;D,Boosting方法中,個(gè)體學(xué)習(xí)器存在強(qiáng)依賴B、2C、3D、4答案:A11.在感知機(jī)中(Perceptron)的任務(wù)順序是什么?1隨機(jī)初始化感知機(jī)的權(quán)重2去到數(shù)據(jù)集的下一批(batch)3如果預(yù)測值和輸出不一致,則調(diào)整權(quán)重4對一個(gè)輸入樣本,計(jì)算輸出值A(chǔ)、1,2,3,4A.4,3,2,1C.3,1,2,4D.1,4,3,2B、2C、3D、4答案:D12.對于神經(jīng)網(wǎng)絡(luò)的說法,下面正確的是:1.增加神經(jīng)網(wǎng)絡(luò)層數(shù),可能會(huì)增加測試數(shù)據(jù)集的分類錯(cuò)誤率2.減少神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小測試數(shù)據(jù)集的分類錯(cuò)誤率3.增加神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小訓(xùn)練數(shù)據(jù)集的分類錯(cuò)誤率A、1B.1和3C.1和2D.2B、2C、3D、4答案:A13.自然語言理解是人工智能的重要應(yīng)用領(lǐng)域,下面列舉中的()不是它要實(shí)現(xiàn)的目標(biāo)。A、理解別人講的話。B.對自然語言表示的信息進(jìn)行分析概括或編輯。C.欣賞音樂。D.機(jī)器翻譯。B、2C、3D、4答案:C14.經(jīng)典邏輯推理的方法不包括那個(gè)()A、自然演繹推理B歸結(jié)演繹推理C與或形演繹推理D假設(shè)推理B、2C、3D、4答案:D15.要想讓機(jī)器具有智能,必須讓機(jī)器具有知識。因此,在人工智能中有一個(gè)研究領(lǐng)域,主要研究計(jì)算機(jī)如何自動(dòng)獲取知識和技能,實(shí)現(xiàn)自我完善,這門研究分支學(xué)科叫A、專家系統(tǒng)B、機(jī)器學(xué)習(xí)C、神經(jīng)網(wǎng)絡(luò)D、模式識別B、2C、3D、4答案:A16.以下說法錯(cuò)誤的是()A、對知識庫進(jìn)行合適的管理,可以檢測并排除那些冗余及矛盾的知識,保持知識的一致性,提高規(guī)則庫的質(zhì)量B.好的規(guī)則庫能夠?qū)χR進(jìn)行合理的組織與管理。C.好的規(guī)則庫需要包含所有的規(guī)則D.好的規(guī)則庫應(yīng)該能有效的表達(dá)領(lǐng)域內(nèi)的過程性知識。B、2C、3D、4答案:C17.利用計(jì)算機(jī)來模擬人類的某些思維活動(dòng),如醫(yī)療診斷、定理證明等,這些應(yīng)用屬于A、數(shù)值計(jì)算B、自動(dòng)控制C、人工智能D、模擬仿真B、2C、3D、4答案:C18.建立一個(gè)5000個(gè)特征,100萬數(shù)據(jù)的機(jī)器學(xué)習(xí)模型.我們怎么有效地應(yīng)對這樣的大數(shù)據(jù)訓(xùn)練:()A、我們隨機(jī)抽取一些樣本,在這些少量樣本之上訓(xùn)練B、我們可以試用在線機(jī)器學(xué)習(xí)算法C、我們應(yīng)用PCA算法降維,減少特征數(shù)D、以上所有B、2C、3D、4答案:D19.強(qiáng)人工智能強(qiáng)調(diào)人工智能的完整性,下列()不屬于強(qiáng)人工智能A、(類人)機(jī)器的思考和推理就像人的思維一樣B(非人類)機(jī)器產(chǎn)生了和人完全不一樣的知覺和意識C看起來像智能的,其實(shí)并不真正擁有智能,也不會(huì)有自主意識D有可能制造出真正能推理和解決問題的智能機(jī)器B、2C、3D、4答案:C20.當(dāng)采用K-距離的方法選擇DBSCAN的Eps和MinPts參數(shù)時(shí),如果設(shè)置的K的值太大,則小簇(尺寸小于K的簇)可能會(huì)被標(biāo)記為A、噪聲B.核心簇C.邊界簇D.以上都不對B、2C、3D、4答案:A21.不適合用產(chǎn)生式表示法表示的知識是()A、由許多相對獨(dú)立的知識元組成的領(lǐng)域知識B.可以表示為一系列相對獨(dú)立的求解問題的操作C.具有結(jié)構(gòu)關(guān)系的知識.D.具有經(jīng)驗(yàn)性及不確定性的知識B、2C、3D、4答案:C22.對于謂詞公式P,如果至少存在一個(gè)解釋使得公式P在此解釋下的真值為T,則稱公式P是A、永真的B.永假的C.可滿足的D.不可滿足的B、2C、3D、4答案:C23.下列哪個(gè)應(yīng)用領(lǐng)域不屬于人工智能應(yīng)用?()A、人工神經(jīng)網(wǎng)絡(luò)B.自動(dòng)控制C.自然語言學(xué)習(xí)D.專家系統(tǒng)B、2C、3D、4答案:B24.以下不屬于盲目搜索方法的是A、寬度優(yōu)先搜索B.有界深度優(yōu)搜索C.等代價(jià)搜索D.有序搜索B、2C、3D、4答案:D25.關(guān)于“與/或”圖表示法的表達(dá)中,正確的是()。A、“與/或”圖就是用“AND”和“OR”連續(xù)各個(gè)部分的圖形,用來描述各部分的因果關(guān)系B.“與/或”圖就是用“AND”和“OR”連續(xù)各個(gè)部分的圖形,用來描述各部分之間的不確定關(guān)系C.“與/或”圖就是用“與”節(jié)點(diǎn)和“或”節(jié)點(diǎn)組合起來的樹形圖,用來描述某類問題的層次關(guān)系D.“與/或”圖就是用“與”節(jié)點(diǎn)和“或”節(jié)點(diǎn)組合起來的樹形圖,用來描述某類問題的求解過程B、2C、3D、4答案:D26.哪些技術(shù)是RCNN采用而FasterRCNN沒有用?A、SVM分類B.使用SelectiveSearch輸出候選框C.使用MLP進(jìn)行分類與回歸預(yù)測D.使用ROIpoolingB、2C、3D、4答案:B27.為了解決如何模擬人類的感性思維,例如視覺理解、直覺思維、悟性等,研究者找到一個(gè)重要的信息處理的機(jī)制是()A、專家系統(tǒng)B.人工神經(jīng)網(wǎng)絡(luò)C.模式識別D.智能代理B、2C、3D、4答案:B28.當(dāng)不知道數(shù)據(jù)所處類別時(shí),可以使用哪種技術(shù)促使同類數(shù)據(jù)與其他類數(shù)據(jù)分離?()A、分類B.聚類C.關(guān)聯(lián)分析D.隱馬爾可夫鏈B、2C、3D、4答案:B29.最早的聊天機(jī)器人之一、最早通過圖靈測試的程序A、DendralB.ELIZAC.XconD.DeepblueB、2C、3D、4答案:C30.謂詞公式G是不可滿足的,當(dāng)且僅當(dāng)對所有的解釋()A、G都為假B.G有時(shí)為假有時(shí)為真C.G可為真也可為假D.G都為真B、2C、3D、4答案:A31.PCA的步驟不包括()A、構(gòu)建協(xié)方差矩陣B.矩陣分解得到特征值和特征向量C.特征值排序D.特征值歸一化B、2C、3D、4答案:D32.下列模糊集的運(yùn)算正確的是()A、∩(B∩C)=(A∪B)∩CB、A∩?=AC、A∪(B∩C)=(A∪B)∩(A∪C)D、A∩A=?B、2C、3D、4答案:C33.人工智能研究的基本內(nèi)容不包括()A、機(jī)器行為B、機(jī)器動(dòng)作C、機(jī)器思維D、機(jī)器感知B、2C、3D、4答案:B34.以下不屬于寬度優(yōu)先搜索方法特點(diǎn)的是A、逐層進(jìn)行搜索B.高代價(jià)搜索C.若有解必能找到D.找到的解是最優(yōu)路徑的解B、2C、3D、4答案:D35.下面哪一項(xiàng)對梯度下降(GD)和隨機(jī)梯度下降(SGD)的描述是正確的?1在GD和SGD中,每一次迭代中都是更新一組參數(shù)以最小化損失函數(shù)。2在SGD中,每一次迭代都需要遍歷訓(xùn)練集中的所有樣本以更新一次參數(shù)。3在GD中,每一次迭代需要使用整個(gè)訓(xùn)練集或子訓(xùn)練集的數(shù)據(jù)更新一個(gè)參數(shù)。A、只有1B、只有2C、只有3D、都正確B、2C、3D、4答案:A36.對于信息增益,決策樹分裂節(jié)點(diǎn),下面說法正確的是:()1.純度高的節(jié)點(diǎn)需要更多的信息去區(qū)分2.信息增益可以用”1比特-熵”獲得3.如果選擇一個(gè)屬性具有許多歸類值,那么這個(gè)信息增益是有偏差的A、1B.2C.2和3D.所有以上B、2C、3D、4答案:C37.運(yùn)用消解推理規(guī)則的前提是A、被作用的兩個(gè)公式都是合取范式B.被作用的兩個(gè)子句中存在互補(bǔ)對C.任意兩個(gè)公式都可以運(yùn)用消解推理D.必須符合假言推理、合并、重言式、空子句(矛盾)或鏈?zhǔn)?三段論)之一B、2C、3D、4答案:B38.下面有關(guān)序列模式挖掘算法的描述,錯(cuò)誤的是?()A、prioriAll算法和GSP算法都屬于Apriori類算法,都要產(chǎn)生大量的候選序列B.FreeSpan算法和PrefixSpan算法不生成大量的候選序列以及不需要反復(fù)掃描原數(shù)據(jù)庫C.在時(shí)空的執(zhí)行效率上,F(xiàn)reeSpan比PrefixSpan更優(yōu)D.和AprioriAll相比,GSP的執(zhí)行效率比較高B、2C、3D、4答案:C39.人工智能是指()A、自然智能B.人的智能C.機(jī)器智能D.通用智能B、2C、3D、4答案:C40.前饋神經(jīng)網(wǎng)絡(luò)通過誤差后向傳播(BP算法)進(jìn)行參數(shù)學(xué)習(xí),這是一種()機(jī)器學(xué)習(xí)手段A、監(jiān)督學(xué)習(xí)B.無監(jiān)督學(xué)習(xí)C.半監(jiān)督學(xué)習(xí)D.無監(jiān)督學(xué)習(xí)和監(jiān)督學(xué)習(xí)的結(jié)合B、2C、3D、4答案:A41.弱人工智能是指僅僅模擬人類大腦的();強(qiáng)人工智能是指其本身就是一個(gè)A、。心智;智能B.運(yùn)作;大腦C.智能;程序D.智能;心智B、2C、3D、4答案:D42.深度學(xué)習(xí)中的“深度〞是指()A、計(jì)算機(jī)理解的深度B.中間神經(jīng)元網(wǎng)絡(luò)的層次很多C.計(jì)算機(jī)的求解更加精準(zhǔn)D.計(jì)算機(jī)對問題的處理更加靈活B、2C、3D、4答案:B43.考慮某個(gè)具體問題時(shí),你可能只有少量數(shù)據(jù)來解決這個(gè)問題。不過幸運(yùn)的是你有一個(gè)類似問題已經(jīng)預(yù)先訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)??梢杂孟旅婺姆N方法來利用這個(gè)預(yù)先訓(xùn)練好的網(wǎng)絡(luò)?A、把除了最后一層外所有的層都凍結(jié),重新訓(xùn)練最后一層B.對新數(shù)據(jù)重新訓(xùn)練整個(gè)模型C.只對最后幾層進(jìn)行調(diào)參(finetune)D.對每一層模型進(jìn)行評估,選擇其中的少數(shù)來用B、2C、3D、4答案:C44.啟發(fā)式搜索中,通常OPEN表上的節(jié)點(diǎn)按照它們f函數(shù)值的()順序排列A、最小B.平均值C.遞增D.遞減B、2C、3D、4答案:C45.從已知事實(shí)出發(fā),通過規(guī)則庫求得結(jié)論的產(chǎn)生式系統(tǒng)的推理方式是()A、正向推理B.反向推理C.雙向推理D.混合推理B、2C、3D、4答案:A46.CNN不具有以下那個(gè)特性。A、局部連接B.權(quán)值共享C.空間或時(shí)間上的下采樣D.不定長輸入B、2C、3D、4答案:D47.線性回歸中優(yōu)化目標(biāo)函數(shù)的求取過程與下面哪一種方法是相同的()A、最大后驗(yàn)概率B、最小化后驗(yàn)概率C、最小二乘法D、最大似然估計(jì)B、2C、3D、4答案:C48.基于狀態(tài)空間的搜索算法是()A、*算法B.與或樹搜索C.極大極小分析法D.α-β剪枝技術(shù)B、2C、3D、4答案:A49.ROIAlign在哪個(gè)模型被采用A、fastRCNNB、fasterRCNNC、maskRCNND、YOLOv3B、2C、3D、4答案:C50.下列不屬于模糊命題的是()A、張三是一個(gè)年輕人B、月球是地球的衛(wèi)星C、明天八成是個(gè)好天氣D、李四的身高是1.75m左右B、2C、3D、4答案:B51.如果一個(gè)訓(xùn)練好的模型在測試集上有100%的準(zhǔn)確率,這是不是意味著在一個(gè)新的數(shù)據(jù)集上,也會(huì)有同樣好的表現(xiàn)?()A、是的,這說明這個(gè)模型的范化能力已經(jīng)足以支持新的數(shù)據(jù)集合了B.不對,依然后其他因素模型沒有考慮到,比如噪音數(shù)據(jù)B、2C、3D、4答案:B52.梯度下降算法的正確步驟是什么?a.計(jì)算預(yù)測值和真實(shí)值之間的誤差b.重復(fù)迭代,直至得到網(wǎng)絡(luò)權(quán)重的最佳值c.把輸入傳入網(wǎng)絡(luò),得到輸出值d.用隨機(jī)值初始化權(quán)重和偏差e.對每一個(gè)產(chǎn)生誤差的神經(jīng)元,調(diào)整相應(yīng)的(權(quán)重)值以減小誤差()A、bcdeB.edcbaC.cbaedD.dcaebB、2C、3D、4答案:D53.下列哪個(gè)語句在Python中是不合法的A、x=y=z=1B、x=(y=z+1)C、x,y=y,xD、x+=yB、2C、3D、4答案:B54.我們可以將深度學(xué)習(xí)看成一種端到端的學(xué)習(xí)方法,這里的端到端指的是A、輸入端-輸出端B.輸入端-中間端C.輸出端-中間端D.中間端-中間端B、2C、3D、4答案:A55.在其他條件不變的前提下,以下哪種做法容易引起機(jī)器學(xué)習(xí)中的過擬合問題()A、增加訓(xùn)練集量B.減少神經(jīng)網(wǎng)絡(luò)隱藏層節(jié)點(diǎn)數(shù)C.刪除稀疏的特征D.SVM算法中使用高斯核/RBF核代替線性核B、2C、3D、4答案:D56.自然語言理解是人工智能的重要應(yīng)用領(lǐng)域,下面列舉中的()不是它要實(shí)現(xiàn)的目標(biāo)。A、理解別人講的話B.對自然語言表示的信息進(jìn)行分析概括或編輯C.自動(dòng)程序設(shè)計(jì)D.機(jī)器翻譯B、2C、3D、4答案:C57.置換是一個(gè)形如{t1/x1,t2/x2,…,tn/xn}的有限集合:xi可以是A、常量B.變元C.函數(shù)D.謂詞B、2C、3D、4答案:B58.下述()不是人工智能中常用的知識格式化表示方法。A、框架表示法B.產(chǎn)生式表示法C.語義網(wǎng)絡(luò)表示法D.形象描寫表示法B、2C、3D、4答案:D59.專家系統(tǒng)是一個(gè)復(fù)雜的智能軟件,它處理的對象是用符號表示的知識,處理的過程是()的過程A、思考B.回溯C.推理D.遞歸B、2C、3D、4答案:C60.在訓(xùn)練神經(jīng)網(wǎng)絡(luò)時(shí),損失函數(shù)(loss)在最初的幾個(gè)epochs時(shí)沒有下降,可能的原因是?()A、學(xué)習(xí)率(learningrate)太低B.正則參數(shù)太高C.陷入局部最小值D.以上都有可能B、2C、3D、4答案:A61.下列哪些項(xiàng)是決策樹常用的屬性選擇指標(biāo)A、Gini系數(shù)B、信息增益C、信息增益率D、距離平方和B、2C、3D、4答案:C62.關(guān)于支持向量機(jī)SVM,下列說法錯(cuò)誤的是()A、L2正則項(xiàng),作用是最大化分類間隔,使得分類器擁有更強(qiáng)的泛化能力B.Hinge損失函數(shù),作用是最小化經(jīng)驗(yàn)分類錯(cuò)誤C.分類間隔為,||w||代表向量的模D.當(dāng)參數(shù)C越小時(shí),分類間隔越大,分類錯(cuò)誤越多,趨于欠學(xué)習(xí)B、2C、3D、4答案:C63.以下哪一個(gè)不屬于分類算法A、XGBoostB.RandomForestC.SVMD.Fp-GrowthB、2C、3D、4答案:D64.關(guān)于基本數(shù)據(jù)的元數(shù)據(jù)是指A、基本元數(shù)據(jù)與數(shù)據(jù)源,數(shù)據(jù)倉庫,數(shù)據(jù)集市和應(yīng)用程序等結(jié)構(gòu)相關(guān)的信息B、基本元數(shù)據(jù)包括與企業(yè)相關(guān)的管理方面的數(shù)據(jù)和信息C、基本元數(shù)據(jù)包括日志文件和簡歷執(zhí)行處理的時(shí)序調(diào)度信息D、基本元數(shù)據(jù)包括關(guān)于裝載和更新處理,分析處理以及管理方面的信息B、2C、3D、4答案:D65.置換是一個(gè)形如{t1/x1,t2/x2,…,tn/xn}的有限集合:xi可以是()A、常量B.變元C.函數(shù)D.謂詞B、2C、3D、4答案:B66.以下說法錯(cuò)誤的是()A、不確定性僅由隨機(jī)性所引起B(yǎng)、模糊性描述事物的不確定性的一種度量C、隨機(jī)性是重要的一種不確定性D、模糊性就是指客觀事物在性態(tài)及類屬方面的不分明性,其根源是在類似事物間存在一系列過渡狀態(tài),它們相互滲透,相互貫通,使得彼此之間沒有明顯的分界線B、2C、3D、4答案:A67.是一門用計(jì)算機(jī)模擬或?qū)崿F(xiàn)人類視覺功能的新興學(xué)科,其主要研究目標(biāo)是使計(jì)算機(jī)具有通過二維圖像認(rèn)知三維環(huán)境信息的能力。A、機(jī)器視覺B.語音識別C.機(jī)器翻譯D.機(jī)器學(xué)習(xí)B、2C、3D、4答案:A68.以下不是產(chǎn)生式系統(tǒng)組成部分的是A、匹配B.總數(shù)據(jù)庫C.產(chǎn)生式規(guī)則D.控制策略B、2C、3D、4答案:A69.輸入圖片大小為200×200,依次經(jīng)過一層卷積(kernelsize5×5,padding1,stride2),pooling(kernelsize3×3,padding0,stride1),又一層卷積(kernelsize3×3,padding1,stride1)之后,輸出特征圖大小為:()A、96B.97C.98D.99B、2C、3D、4答案:B70.下面對經(jīng)驗(yàn)風(fēng)險(xiǎn)和期望風(fēng)險(xiǎn)的描述中,哪一個(gè)屬于過學(xué)習(xí)()A、經(jīng)驗(yàn)風(fēng)險(xiǎn)大、期望風(fēng)險(xiǎn)小B、經(jīng)驗(yàn)風(fēng)險(xiǎn)大、期望風(fēng)險(xiǎn)大C、經(jīng)驗(yàn)風(fēng)險(xiǎn)小、期望風(fēng)險(xiǎn)小D、經(jīng)驗(yàn)風(fēng)險(xiǎn)小、期望風(fēng)險(xiǎn)大B、2C、3D、4答案:D71.下列關(guān)于不確定性知識描述錯(cuò)誤的是()A、不確定性知識是不可以精確表示的B.專家知識通常屬于不確定性知識C.不確定性知識是經(jīng)過處理過的知識D.不確定性知識的事實(shí)與結(jié)論的關(guān)系不是簡單的“是”或“不是”B、2C、3D、4答案:C72.下列選擇中,哪個(gè)不是關(guān)鍵詞提取常用的算法?A、TE-IDFB、LDAC、TextRankD、SSAB、2C、3D、4答案:D73.寬度優(yōu)先搜索方法能夠保證在搜索樹中找到一條通向目標(biāo)節(jié)點(diǎn)的()途徑A、可行B.最短C.最長D.解答B(yǎng)、2C、3D、4答案:B74.在下面的選項(xiàng)中,哪些操作屬于預(yù)剪枝A、信息增益B、計(jì)算最好的特征切分點(diǎn)C、限制樹模型的深度D、可視化樹模型B、2C、3D、4答案:C75.人工智能應(yīng)用研究的兩個(gè)最重要最廣泛領(lǐng)域?yàn)椋ǎ〢、專家系統(tǒng)、自動(dòng)規(guī)劃B.專家系統(tǒng)、機(jī)器學(xué)習(xí)C.機(jī)器學(xué)習(xí)、智能控制D.機(jī)器學(xué)習(xí)、自然語言理解B、2C、3D、4答案:B76.一般來講,以下語言屬于人工智能語言的是()A、VJB.C#C.FoxproD.LISPB、2C、3D、4答案:D77.()是自然語言處理的重要應(yīng)用,也可以說是最基礎(chǔ)的應(yīng)用。A、文本識別B.機(jī)器翻譯C.文本分類D.問答系統(tǒng)B、2C、3D、4答案:C78.卷積神經(jīng)網(wǎng)中,如果特征圖是32×32矩陣,池化窗口是4×4的矩陣,那么池化后的特征圖是()的的矩陣A、2×2B.4×4C.8×8D.16×16B、2C、3D、4答案:C79.將結(jié)構(gòu)型的圖片(空間分辨率高,紋路細(xì)節(jié)清晰)與光譜分辨率高,色彩豐富的圖片處理成空間分辨率和光譜分辨率都高的過程稱為A、圖像融合B.圖像分類C.圖像識別D.圖像配準(zhǔn)B、2C、3D、4答案:A80.下列說法不正確的是A、空子句是永假的,不可滿足的。B.在謂詞邏輯中,不是任何一個(gè)謂詞公式都可通過應(yīng)用等價(jià)關(guān)系及推理規(guī)則化成相應(yīng)的子句集。C.任何文字的析取式稱為子句。D.歸結(jié)演繹定理證明的實(shí)質(zhì)是對前提P和結(jié)論Q證明P->Q的永真性。B、2C、3D、4答案:B81.以下四個(gè)人工智能的應(yīng)用領(lǐng)域中,與其他三個(gè)不同的是:A、語音識別B.醫(yī)學(xué)影像分析C.圖像識別與分類D.人臉識別與情感計(jì)算B、2C、3D、4答案:A82.在基于規(guī)則的正向演繹系統(tǒng)中,我們把事實(shí)表示為A、IF-THEN規(guī)則B.子句形C.非蘊(yùn)涵形式的與或形D.與或形B、2C、3D、4答案:C83.下面哪個(gè)技術(shù)跟中文分詞無關(guān)():A、詞語消歧B.詞性標(biāo)注C.未登錄詞識別D.槽位填充B、2C、3D、4答案:D84.人工智能是一門利用計(jì)算機(jī)模擬人類智能行為科學(xué)的統(tǒng)稱,它涵蓋了訓(xùn)練計(jì)算機(jī)使其能夠完成()等人類行為的范疇。A、自主學(xué)習(xí)、判斷、執(zhí)行B.決策、判斷、執(zhí)行C.自主學(xué)習(xí)、決策、執(zhí)行D.自主學(xué)習(xí)、判斷、決策B、2C、3D、4答案:D85.我們建立一個(gè)5000個(gè)特征,100萬數(shù)據(jù)的機(jī)器學(xué)習(xí)模型.我們怎么有效地應(yīng)對這樣的大數(shù)據(jù)訓(xùn)練:()A、我們隨機(jī)抽取一些樣本,在這些少量樣本之上訓(xùn)練B.我們可以試用在線機(jī)器學(xué)習(xí)算法C.我們應(yīng)用PCA算法降維,減少特征數(shù)D.B和CE.A和BF.以上所有B、2C、3D、4E、5F、6答案:F86.狀態(tài)空間可描述為一個(gè)有向圖,其結(jié)點(diǎn)指示(),結(jié)點(diǎn)間的有向弧表示狀態(tài)變遷。A、操作B、方向C、狀態(tài)D、狀態(tài)變遷B、2C、3D、4答案:C87.語義網(wǎng)絡(luò)的組成部分為()A、框架和弧線B.狀態(tài)和算符C.節(jié)點(diǎn)和鏈D.槽和值B、2C、3D、4答案:C88.在不確定推理中,對于初始證據(jù),其值由用戶給出,對于推理所得證據(jù),其值由()得到。A、不確定性的匹配算法計(jì)算得到B.不確定性的閾值選擇算法得到C.不確定性的傳遞算法計(jì)算得到D.不確定性的合成算法計(jì)算得到B、2C、3D、4答案:C89.對于線性回歸模型,包括附加變量在內(nèi),以下的可能正確的是:()1.R-Squared和AdjustedR-squared都是遞增的2.R-Squared是常量的,AdjustedR-squared是遞增的3.R-Squared是遞減的,AdjustedR-squared也是遞減的4.R-Squared是遞減的,AdjustedR-squared是遞增的A、1和2B.1和3C.2和4D.以上都不是B、2C、3D、4答案:D90.神經(jīng)網(wǎng)絡(luò)是()學(xué)派的成果A、符號學(xué)派B.聯(lián)接學(xué)派C.行為學(xué)派D.統(tǒng)計(jì)學(xué)派B、2C、3D、4答案:B91.在前饋神經(jīng)網(wǎng)絡(luò)中,誤差后向傳播(BP算法)將誤差從輸出端向輸入端進(jìn)行傳輸?shù)倪^程中,算法會(huì)調(diào)整前饋神經(jīng)網(wǎng)絡(luò)的什么參數(shù)A、輸入數(shù)據(jù)大小B.神經(jīng)元和神經(jīng)元之間連接有無C.相鄰層神經(jīng)元和神經(jīng)元之間的連接權(quán)重D.同一層神經(jīng)元之間的連接權(quán)重B、2C、3D、4答案:C92.智能制造的本質(zhì)是通過新一代信息技術(shù)和先進(jìn)制造技術(shù)的深度融合,實(shí)現(xiàn)跨企業(yè)價(jià)值網(wǎng)絡(luò)的橫向集成,來貫穿企業(yè)設(shè)備層、控制層、管理層的縱向集成,以及產(chǎn)品全生命周期的端到端集成,而()是實(shí)現(xiàn)全方位集成的關(guān)鍵途徑。A、標(biāo)準(zhǔn)化B.數(shù)據(jù)化C.流程化D.網(wǎng)絡(luò)化B、2C、3D、4答案:A93.數(shù)據(jù)科學(xué)家可能會(huì)同時(shí)使用多個(gè)算法(模型)進(jìn)行預(yù)測,并且最后把這些算法的結(jié)果集成起來進(jìn)行最后的預(yù)測(集成學(xué)習(xí)),以下對集成學(xué)習(xí)說法正確的是:()A、單個(gè)模型之間有高相關(guān)性B.單個(gè)模型之間有低相關(guān)性C.在集成學(xué)習(xí)中使用“平均權(quán)重”而不是“投票”會(huì)比較好D.單個(gè)模型都是用的一個(gè)算法B、2C、3D、4答案:B94.以下關(guān)于特征工程的說法不正確的是A、特征工程指的是把原始數(shù)據(jù)轉(zhuǎn)變?yōu)槟P偷挠?xùn)練數(shù)據(jù)的過程B.它的目的就是獲取更好的訓(xùn)練數(shù)據(jù)特征,使得機(jī)器學(xué)習(xí)模型逼近這個(gè)上限C.特征工程在機(jī)器學(xué)習(xí)中占有非常重要的作用,一般認(rèn)為括特征構(gòu)建、特征提取、特征選擇三個(gè)部分。D.特征提取是從特征集合中挑選一組具有明顯物理或統(tǒng)計(jì)意義的特征子集。B、2C、3D、4答案:D95.已知一組數(shù)據(jù)的協(xié)方差矩陣P,下面關(guān)于主分量說法錯(cuò)誤的是()A、主分量分析的最佳準(zhǔn)則是對一組數(shù)據(jù)進(jìn)行按一組正交基分解,在只取相同數(shù)量分量的條件下,以均方誤差計(jì)算截尾誤差最小B、在經(jīng)主分量分解后,協(xié)方差矩陣成為對角矩陣C、主分量分析就是K-L變換D、主分量是通過求協(xié)方差矩陣的特征值得到B、2C、3D、4答案:C96.如果自變量X和因變量Y之間存在高度的非線性和復(fù)雜關(guān)系,那么樹模型很可能優(yōu)于經(jīng)典回歸方法。這個(gè)說法正確嗎?A、正確B.錯(cuò)誤B、2C、3D、4答案:A97.機(jī)器學(xué)習(xí)中做特征選擇時(shí),可能用到的方法有?()A、卡方B.信息增益C.平均互信息D.期望交叉熵E.以上都有B、2C、3D、4E、5F、6答案:E98.下面對主成份分析的描述不正確的是()A、在主成份分析中,所得低維數(shù)據(jù)中每一維度之間具有極大相關(guān)度B、在主成份分析中,將數(shù)據(jù)向方差最大方向進(jìn)行投影,可使得數(shù)據(jù)所蘊(yùn)含信息沒有丟失,以便在后續(xù)處理過程中各個(gè)數(shù)據(jù)“彰顯個(gè)性”C、主成份分析是一種特征降維方法D、主成份分析可保證原始高維樣本數(shù)據(jù)被投影映射后,其方差保持最大B、2C、3D、4答案:A99.在下面哪種情況下,一階梯度下降不一定正確工作(可能會(huì)卡?。??()A、B、2C、3D、4答案:B100.對于線性不可分的數(shù)據(jù),支持向量機(jī)的解決方式是A、軟間隔B、硬間隔C、核函數(shù)D、以上選項(xiàng)均不正確B、2C、3D、4答案:C101.支持向量機(jī)(SVM)中的代價(jià)參數(shù)C表示什么?()A、交叉驗(yàn)證的次數(shù)B.用到的核函數(shù)C.在分類準(zhǔn)確性和模型復(fù)雜度之間的權(quán)衡D.以上都不對B、2C、3D、4答案:C102.在圖搜索中,選擇最有希望的節(jié)點(diǎn)作為下一個(gè)要擴(kuò)展的節(jié)點(diǎn),這種搜索方法叫做(A、寬度搜索B.深度搜索C.有序搜索D.廣義搜索B、2C、3D、4答案:C103.回歸模型中存在多重共線性,你如何解決這個(gè)問題?1.去除這兩個(gè)共線性變量2.我們可以先去除一個(gè)共線性變量3.計(jì)算VIF(方差膨脹因子),采取相應(yīng)措施4.為了避免損失信息,我們可以使用一些正則化方法,比如,嶺回歸和lasso回歸.以下哪些是對的:()A、1B.2C.2和3D.2,3和4B、2C、3D、4答案:D104.在有序搜索中,如果節(jié)點(diǎn)x在希望樹中,若x是(),則其所有子節(jié)點(diǎn)都在希望樹中。A、終葉節(jié)點(diǎn)B.端節(jié)點(diǎn)C.與節(jié)點(diǎn)D.或節(jié)點(diǎn)B、2C、3D、4答案:C105.反演歸結(jié)(消解)證明定理時(shí),若當(dāng)前歸結(jié)式是()時(shí),則定理得證。A、永真式B.包孕式C.空子句D.永假式B、2C、3D、4答案:C106.當(dāng)P為F,Q為F,R為T時(shí),(P∨Q)?R的真值是A、TB.FC.不確定B、2C、3D、4答案:B107.K-means算法采用了哪些策略?()A、自底向上B.貪心策略C.自頂向下D.以上都是B、2C、3D、4答案:B108.由于K均值聚類是一個(gè)迭代過程,我們需要設(shè)置其迭代終止條件。下面哪句話正確描述了K均值聚類的迭代終止條件()A、已經(jīng)形成了K個(gè)聚類集合,或者每個(gè)待聚類樣本分別歸屬唯一一個(gè)聚類集合B、已經(jīng)達(dá)到了迭代次數(shù)上限,或者每個(gè)待聚類樣本分別歸屬唯一一個(gè)聚類集合C、已經(jīng)達(dá)到了迭代次數(shù)上限,或者前后兩次迭代中聚類質(zhì)心基本保持不變D、已經(jīng)形成了K個(gè)聚類集合,或者已經(jīng)達(dá)到了迭代次數(shù)上限B、2C、3D、4答案:C109.下面的交叉驗(yàn)證方法:()i.有放回的Bootstrap方法ii.留一個(gè)測試樣本的交叉驗(yàn)證iii.5折交叉驗(yàn)證iv.重復(fù)兩次的5折交叉驗(yàn)證當(dāng)樣本是1000時(shí),下面執(zhí)行時(shí)間的順序,正確的是:A、i>ii>iii>ivB.ii>iv>iii>iC.iv>i>ii>iiiD.ii>iii>iv>iB、2C、3D、4答案:B110.基于統(tǒng)計(jì)的異常點(diǎn)檢測算法不包括A、基于正態(tài)分布的異常點(diǎn)檢測算法B.基于距離的異常點(diǎn)檢測算法C.3δ原則D.簡單統(tǒng)計(jì)分析B、2C、3D、4答案:A111.盲目搜索策略不包括下列那個(gè)()A、廣度優(yōu)先搜索B深度優(yōu)先搜索C有界深度優(yōu)先搜索D全局擇優(yōu)搜索B、2C、3D、4答案:D112.在有監(jiān)督學(xué)習(xí)中,我們?nèi)绾问褂镁垲惙椒??(?.我們可以先創(chuàng)建聚類類別,然后在每個(gè)類別上用監(jiān)督學(xué)習(xí)分別進(jìn)行學(xué)習(xí)2.我們可以使用聚類“類別id”作為一個(gè)新的特征項(xiàng),然后再用監(jiān)督學(xué)習(xí)分別進(jìn)行學(xué)習(xí)3.在進(jìn)行監(jiān)督學(xué)習(xí)之前,我們不能新建聚類類別4.我們不可以使用聚類“類別id”作為一個(gè)新的特征項(xiàng),然后再用監(jiān)督學(xué)習(xí)分別進(jìn)行學(xué)習(xí)A、2和4B.1和2C.3和4D.1和3B、2C、3D、4答案:B113.以下關(guān)于熵、信息增益、基尼指數(shù)的相關(guān)描述中錯(cuò)誤的是A、熵越大,不確定性越大,信息量也就越大B.信息增益越大,表示某個(gè)條件熵對信息熵減少程序越大,也就是說,這個(gè)屬性對于信息的判斷起到的作用越大C.Gini指數(shù)越大,不純度越小,越容易區(qū)分,越不容易分錯(cuò)D.熵權(quán)法是一種客觀賦權(quán)法,因?yàn)樗鼉H依賴于數(shù)據(jù)本身的離散性B、2C、3D、4答案:C114.下面不屬于人工智能研究基本內(nèi)容的是A、機(jī)器感知B.機(jī)器學(xué)習(xí)C.自動(dòng)化D.機(jī)器思維B、2C、3D、4答案:C115.下面哪項(xiàng)操作能實(shí)現(xiàn)跟神經(jīng)網(wǎng)絡(luò)中Dropout的類似效果?()A、BoostingB.BaggingC.StackingD.MappingB、2C、3D、4答案:B116.假設(shè)你需要調(diào)整超參數(shù)來最小化代價(jià)函數(shù)(costfunction),會(huì)使用下列哪項(xiàng)技術(shù)?A、窮舉搜索B、隨機(jī)搜索C、Bayesian優(yōu)化D、都可以B、2C、3D、4答案:D117.下面哪個(gè)敘述是對的?Dropout對一個(gè)神經(jīng)元隨機(jī)屏蔽輸入權(quán)重Dropconnect對一個(gè)神經(jīng)元隨機(jī)屏蔽輸入和輸出權(quán)重A、1是對的,2是錯(cuò)的B.都是對的C.1是錯(cuò)的,2是對的D.都是錯(cuò)的B、2C、3D、4答案:D118.假設(shè)你需要調(diào)整參數(shù)來最小化代價(jià)函數(shù)(costfunction),可以使用下列哪項(xiàng)技術(shù)?()A、窮舉搜索B.隨機(jī)搜索C.Bayesian優(yōu)化D.以上任意一種B、2C、3D、4答案:D119.以下哪種方法不屬于特征選擇的標(biāo)準(zhǔn)方法:A、嵌入B、過濾C、包裝D、抽樣B、2C、3D、4答案:D120.fasterRCNN用于生成候選框proposal的模塊名稱A、RPNB、CNNC、ResNetD、RoIpoolingB、2C、3D、4答案:A121.對數(shù)幾率回歸(logisticsregression)和一般回歸分析有什么區(qū)別?()A、對數(shù)幾率回歸是設(shè)計(jì)用來預(yù)測事件可能性的B.對數(shù)幾率回歸可以用來度量模型擬合程度C.對數(shù)幾率回歸可以用來估計(jì)回歸系數(shù)D.以上所有B、2C、3D、4答案:D122.下列哪個(gè)函數(shù)不可以做非線性激活函數(shù)?()A、y=tanh(x)B.y=sin(x)C.y=max(x,0)D.y=2xB、2C、3D、4答案:D123.以下說法正確的是:()1.一個(gè)機(jī)器學(xué)習(xí)模型,如果有較高準(zhǔn)確率,總是說明這個(gè)分類器是好的2.如果增加模型復(fù)雜度,那么模型的測試錯(cuò)誤率總是會(huì)降低3.如果增加模型復(fù)雜度,那么模型的訓(xùn)練錯(cuò)誤率總是會(huì)降低4.我們不可以使用聚類“類別id”作為一個(gè)新的特征項(xiàng),然后再用監(jiān)督學(xué)習(xí)分別進(jìn)行學(xué)習(xí)A、1B.2C.3D.1and3B、2C、3D、4答案:C124.HMM中,如果已知觀察序列和產(chǎn)生觀察序列的狀態(tài)序列,那么可用以下哪種方法直接進(jìn)行參數(shù)估計(jì)()A、EM算法B.維特比算法C.前向后向算法D.極大似然估計(jì)B、2C、3D、4答案:D125.下列哪項(xiàng)關(guān)于模型能力(modelcapacity)的描述是正確的?(指神經(jīng)網(wǎng)絡(luò)模型能擬合復(fù)雜函數(shù)的能力)A、隱藏層層數(shù)增加,模型能力增加B.Dropout的比例增加,模型能力增加C.學(xué)習(xí)率增加,模型能力增加D.都不正確B、2C、3D、4答案:A126.在強(qiáng)化學(xué)習(xí)中,哪個(gè)機(jī)制的引入使得強(qiáng)化學(xué)習(xí)具備了在利用與探索中尋求平衡的能力A、貪心策略B.蒙特卡洛采樣C.動(dòng)態(tài)規(guī)劃D.Bellman方程B、2C、3D、4答案:A127.自動(dòng)識別系統(tǒng)屬于人工智能哪個(gè)應(yīng)用領(lǐng)域?()A、自然語言系統(tǒng)B.機(jī)器學(xué)習(xí)C.專家系統(tǒng)D.人類感官模擬B、2C、3D、4答案:D128.設(shè)有代換:q={f(y)/x,z/y},l={a/x,b/y,y/z}則qol=()A、{f(b)/x,y/z}B.{f(b)/x,z/y}C.{f(y)/x,y/z}D.{f(b)/x,z/b}B、2C、3D、4答案:A129.模型的高bias是什么意思,我們?nèi)绾谓档退?()A、在特征空間中減少特征B.在特征空間中增加特征C.增加數(shù)據(jù)點(diǎn)D.B和CB、2C、3D、4答案:B130.對于模糊集的操作,下列寫法錯(cuò)誤的是A、結(jié)合性AU(bUC)=(AUB)UCB.冪等性AUA=A,A∩A=AC.恒等性AUX=X,A∩X=AD.德摩根定律﹁(AUB)=﹁AU﹁BB、2C、3D、4答案:D131.人工智能研究的一項(xiàng)基本內(nèi)容是機(jī)器感知。以下列()不屬于機(jī)器感知的領(lǐng)域。A、使機(jī)器具有視覺、聽覺、觸覺、味覺、嗅覺等感知能力。B、讓機(jī)器具有理解文字的能力。C、使機(jī)器具有能夠獲取新知識、學(xué)習(xí)新技巧的能力。D、使機(jī)器具有聽懂人類語言的能力B、2C、3D、4答案:C132.下面對前饋神經(jīng)網(wǎng)絡(luò)描述不正確的是A、各個(gè)神經(jīng)元接受前一級神經(jīng)元的輸入,并輸出到下一級B.層與層之間通過“全連接”進(jìn)行連接,即兩個(gè)相鄰層之間神經(jīng)元完全成對連接C.同一層內(nèi)的神經(jīng)元相互不連接D.同一層內(nèi)神經(jīng)元之間存在全連接B、2C、3D、4答案:D133.以下關(guān)于PMF(概率質(zhì)量函數(shù)),PDF(概率密度函數(shù)),CDF(累積分布函數(shù))描述錯(cuò)誤的是?()A、PDF描述的是連續(xù)型隨機(jī)變量在特定取值區(qū)間的概率B.CDF是PDF在特定區(qū)間上的積分C.PMF描述的是離散型隨機(jī)變量在特定取值點(diǎn)的概率D.有一個(gè)分布的CDF函數(shù)H(x),則H(a)等于P(X<=a)B、2C、3D、4答案:A134.專家系統(tǒng)是一個(gè)復(fù)雜的智能軟件,它處理的對象是用符號表示的知識,處理的過程是()的過程。A、思考B.回溯C.推理D.遞歸B、2C、3D、4答案:C135.神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程中,一般會(huì)遇到停滯期,即神經(jīng)網(wǎng)絡(luò)在進(jìn)入全局最小值之前陷入局部最小值。以下哪個(gè)策略可以避免上述情況?A、增加參數(shù)數(shù)量B.減少參數(shù)數(shù)量C.在開始時(shí)將學(xué)習(xí)率降低10倍D.改變幾個(gè)時(shí)期的學(xué)習(xí)率B、2C、3D、4答案:D136.給線性回歸模型添加一個(gè)不重要的特征可能會(huì)造成?()A、增加R-squareB.減少R-squareB、2C、3D、4答案:A137.一監(jiān)獄人臉識別準(zhǔn)入系統(tǒng)用來識別待進(jìn)入人員的身份,此系統(tǒng)一共包括識別4種不同的人員:獄警,小偷,送餐員,其他。下面哪種學(xué)習(xí)方法最適合此種應(yīng)用需求:()A、二分類問題B.多分類問題C.層次聚類問題D.k-中心點(diǎn)聚類問題B、2C、3D、4答案:B138.在模型中全連接層可采用A、paddle.nn.LinearB.paddle.nn.Conv2DC.paddle.nn.MaxPool2DD.paddle.nn.ReLUB、2C、3D、4答案:A139.按照機(jī)器介入程度,無人駕駛系統(tǒng)可分為()階段。A、無自動(dòng)駕駛、部分自動(dòng)駕駛和完全自動(dòng)B.無自動(dòng)駕駛、部分自動(dòng)駕駛、有條件自動(dòng)和完全自動(dòng)C.無自動(dòng)駕駛、駕駛輔助、部分自動(dòng)駕駛、有條件自動(dòng)和完全自動(dòng)D.有條件自動(dòng)和完全自動(dòng)B、2C、3D、4答案:C140.下列關(guān)于人工智能的敘述不正確的有()A、人工智能技術(shù)它與其他科學(xué)技術(shù)相結(jié)合極提高了應(yīng)用技術(shù)的智能化水平。B.人工智能是科學(xué)技術(shù)發(fā)展的趨勢。C.因?yàn)槿斯ぶ悄艿南到y(tǒng)研究是從上世紀(jì)五十年代才開始的,非常新,所以十分重要。D.人工智能有力地促進(jìn)了社會(huì)的發(fā)展。B、2C、3D、4答案:C141.關(guān)于語義網(wǎng)絡(luò)表示,以下繼承中()是不存在的A、指繼承B.左右繼承C.默認(rèn)繼承D.如果需要繼承B、2C、3D、4答案:B142.下列哪個(gè)不是不確定性推理的方法()A、主觀Bayes方法B.可信度方法C.理論推理法D.模糊推理法B、2C、3D、4答案:C143.對于k折交叉驗(yàn)證,以下對k的說法正確的是:()A、k越大,不一定越好,選擇大的k會(huì)加大評估時(shí)間B.選擇更大的k,就會(huì)有更小的bias(因?yàn)橛?xùn)練集更加接近總數(shù)據(jù)集)C.在選擇k時(shí),要最小化數(shù)據(jù)集之間的方差D.以上所有B、2C、3D、4答案:D144.Boosting和Bagging都是組合多個(gè)分類器投票的方法,二者都是根據(jù)單個(gè)分類器的正確率決定其權(quán)重A、正確B.錯(cuò)誤B、2C、3D、4答案:B145.二分搜索算法是利用()實(shí)現(xiàn)的算法。A、分治策略B.動(dòng)態(tài)規(guī)劃法C.貪心法D.回溯法B、2C、3D、4答案:A146.在圖靈測試中,如果有超過()的測試者不能分清屏幕后的對話者是人還是機(jī)器,就可以說這臺(tái)計(jì)算機(jī)通過了測試并具備人工智能。A、30%B.40%C.50%D.60%B、2C、3D、4答案:A147.下列哪些包是圖像處理時(shí)常用的?A、numpyB、opencvC、gensimD、matplotlibB、2C、3D、4答案:D148.假定你在神經(jīng)網(wǎng)絡(luò)中的隱藏層中使用激活函數(shù)X。在特定神經(jīng)元給定任意輸入,你會(huì)得到輸出「-0.0001」。X可能是以下哪一個(gè)激活函數(shù)?()A、ReLUB.tanhC.SIGMOIDD.以上都不是B、2C、3D、4答案:B149.根據(jù)不同的業(yè)務(wù)需求來建立數(shù)據(jù)模型,抽取最有意義的向量,決定選取哪種方法的數(shù)據(jù)分析角色人員是()A、數(shù)據(jù)管理人員B、數(shù)據(jù)分析員C、研究科學(xué)家D、軟件開發(fā)工程師B、2C、3D、4答案:C150.搜索分為盲目搜索和A、啟發(fā)式搜索B模糊搜索C精確搜索D大數(shù)據(jù)搜索B、2C、3D、4答案:A151.下列哪一項(xiàng)在神經(jīng)網(wǎng)絡(luò)中引入了非線性?()A、隨機(jī)梯度下降B.修正線性單元(ReLU)C.卷積函數(shù)D.以上都不正確B、2C、3D、4答案:B152.能通過對過去和現(xiàn)在已知狀況的分析,推斷未來可能發(fā)生的情況的專家系統(tǒng)是()A、.修理專家系統(tǒng)B.預(yù)測專家系統(tǒng)C.調(diào)試專家系統(tǒng)D.規(guī)劃專家系統(tǒng)B、2C、3D、4答案:B153.NaveBayes是一種特殊的Bayes分類器,特征變量是X,類別標(biāo)簽是C,它的一個(gè)假定是:()A、各類別的先驗(yàn)概率P(C)是相等的B.以0為均值,sqr(2)/2為標(biāo)準(zhǔn)差的正態(tài)分布C.特征變量X的各個(gè)維度是類別條件獨(dú)立隨機(jī)變量D.P(X|C)是高斯分布B、2C、3D、4答案:C154.下面不屬于有監(jiān)督學(xué)習(xí)的算法的是A、決策樹B、隨機(jī)森林C、線性回歸D、K-MeansB、2C、3D、4答案:D155.下列屬于人工智能發(fā)展預(yù)測的是()A、短期內(nèi)構(gòu)建大型的數(shù)據(jù)集將會(huì)是各企業(yè)與研究機(jī)構(gòu)發(fā)展的重要方向。B.長期來看,通用型人工智能的發(fā)展將依賴于對人腦認(rèn)知機(jī)制的科學(xué)研究。C.人工智能技術(shù)將能在邊際成本不遞增的情況下將個(gè)性化服務(wù)普及到更多的消費(fèi)者與企業(yè)。D.以上都是B、2C、3D、4答案:D156.下列哪個(gè)符合著名的Bayes公式()A、P(Ai/B)=P(Ai)×P(B/Ai)/∑(P(Aj)×P(B/Aj))B、P(Ai/B)=P(Ai)×P(Ai/B)/∑(P(Aj)×P(B/Aj))C、P(Ai/B)=P(B)×P(B/Ai)/∑(P(Aj)×P(B/Aj))D、P(Ai/B)=P(Ai)×P(B/Ai)/∑(P(Bj)×P(A/Bj))B、2C、3D、4答案:A157.我們想在大數(shù)據(jù)集上訓(xùn)練決策樹,為了減少訓(xùn)練時(shí)間,我們可以A、增加樹的深度.B增大學(xué)習(xí)率(LearninRate)C.對決策樹模型進(jìn)行預(yù)剪枝D.減少樹的數(shù)量B、2C、3D、4答案:C158.下列屬于特征降維的方法有A、主成分分析PCAB、數(shù)據(jù)采樣C、正則化D、最小二乘法B、2C、3D、4答案:A159.關(guān)于Logit回歸和SVM不正確的是()A、Logit回歸本質(zhì)上是一種根據(jù)樣本對權(quán)值進(jìn)行極大似然估計(jì)的方法,而后驗(yàn)概率正比于先驗(yàn)概率和似然函數(shù)的乘積。logit僅僅是最大化似然函數(shù),并沒有最大化后驗(yàn)概率,更談不上最小化后驗(yàn)概率。A錯(cuò)誤B.Logit回歸的輸出就是樣本屬于正類別的幾率,可以計(jì)算出概率,正確C.SVM的目標(biāo)是找到使得訓(xùn)練數(shù)據(jù)盡可能分開且分類間隔最大的超平面,應(yīng)該屬于結(jié)構(gòu)風(fēng)險(xiǎn)最小化。D.SVM可以通過正則化系數(shù)控制模型的復(fù)雜度,避免過擬合。B、2C、3D、4答案:A160.認(rèn)知語言學(xué)關(guān)心的是我們在使用某個(gè)概念時(shí),心中浮現(xiàn)出的A、。句法規(guī)則B.字典上的定義C。認(rèn)知圖式D。具體語境B、2C、3D、4答案:C161.對于神經(jīng)網(wǎng)絡(luò)的說法,下面正確的是()A、增加神經(jīng)網(wǎng)絡(luò)層數(shù),可能會(huì)增加測試數(shù)據(jù)集的分類錯(cuò)誤率B.減少神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小測試數(shù)據(jù)集的分類錯(cuò)誤率C.增加神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小訓(xùn)練數(shù)據(jù)集的分類錯(cuò)誤率D.1、2都對B、2C、3D、4答案:A162.人工智能可分成運(yùn)算資源基礎(chǔ)、核心技術(shù)發(fā)展與應(yīng)用領(lǐng)域等層次,智能機(jī)器人是屬于()A、運(yùn)算資源基礎(chǔ)B核心技術(shù)發(fā)展C應(yīng)用領(lǐng)域D以上ABC都有B、2C、3D、4答案:C163.循環(huán)神經(jīng)網(wǎng)絡(luò)按時(shí)間展開后就可以通過反向傳播算法訓(xùn)練了A、正確B.錯(cuò)誤B、2C、3D、4答案:A164.對于規(guī)則的專家系統(tǒng)的缺點(diǎn),下列說法錯(cuò)誤的是A、規(guī)則之間的關(guān)系不明確B.低效的搜索策略C.沒有學(xué)習(xí)能力D.沒有統(tǒng)一的結(jié)構(gòu)B、2C、3D、4答案:D165.在神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)中,每個(gè)神經(jīng)元會(huì)完成若干功能,下面哪個(gè)功能不是神經(jīng)元所能夠完成的功能A、對前序相鄰神經(jīng)元所傳遞信息進(jìn)行加權(quán)累加B.對加權(quán)累加信息進(jìn)行非線性變化(通過激活函數(shù))C.向前序相鄰神經(jīng)元反饋加權(quán)累加信息D.將加權(quán)累加信息向后續(xù)相鄰神經(jīng)元傳遞B、2C、3D、4答案:C166.下面關(guān)于SVM中核函數(shù)的說法正確的是?()A、核函數(shù)將低維空間中的數(shù)據(jù)映射到高維空間B.它是一個(gè)相似度函數(shù)C.A、B都對D.A、B都不對B、2C、3D、4答案:C167.批規(guī)范化(BatchNormalization)的好處都有啥?A、讓每一層的輸入的范圍都大致固定B.它將權(quán)重的歸一化平均值和標(biāo)準(zhǔn)差C.它是一種非常有效的反向傳播(BP)方法D.這些均不是B、2C、3D、4答案:A168.進(jìn)行順序查找的條件是()A、數(shù)據(jù)有序且采用順序存儲(chǔ)方式B、數(shù)據(jù)不需要有序,但需要順序存儲(chǔ)C、數(shù)據(jù)有序且采用鏈?zhǔn)酱鎯?chǔ)方式D、數(shù)據(jù)不需要有序,也不限制存儲(chǔ)方式B、2C、3D、4答案:D169.如果我們希望預(yù)測n個(gè)類(p1,p2...pk)的概率使得所有n的p的和等于1,那么下列哪個(gè)函數(shù)可以用作輸出層中的激活函數(shù)?A、SoftmaxB.ReLuC.SigmoidD.TanhB、2C、3D、4答案:A170.對于一個(gè)圖像識別問題,下面哪種神經(jīng)網(wǎng)絡(luò)可以更好地解決這個(gè)問題?()A、循環(huán)神經(jīng)網(wǎng)絡(luò)B.自動(dòng)編碼機(jī)C.多層感知機(jī)D.卷積神經(jīng)網(wǎng)絡(luò)B、2C、3D、4答案:D171.專家系統(tǒng)中不確定性知識的來源一般分為4種:弱暗示、()、未知數(shù)據(jù),以及合并不同專家觀點(diǎn)時(shí)的困難A、不完整的信息B.不一致的信息C.不確定的信息D.不精確的語言B、2C、3D、4答案:D172.一個(gè)運(yùn)用二分查找算法的程序的時(shí)間復(fù)雜度是____A、指數(shù)級別B.常數(shù)級別C.線性級別D.對數(shù)級別B、2C、3D、4答案:D173.本原問題所對應(yīng)的節(jié)點(diǎn)稱為()A、端節(jié)點(diǎn)B.終葉節(jié)點(diǎn)C.子節(jié)點(diǎn)D.父節(jié)點(diǎn)B、2C、3D、4答案:B174.消去存在量詞時(shí),當(dāng)()時(shí),用skolem函數(shù)A、存在量詞未出現(xiàn)在全稱量詞的轄域內(nèi)時(shí)B.存在量詞出現(xiàn)在全稱量詞的轄域內(nèi)時(shí)C.以上情況都需要D.以上情況都不需要B、2C、3D、4答案:B175.比較成熟的分類預(yù)測模型算法包括Logistic回歸模型、廣義線性模型、()、神經(jīng)網(wǎng)絡(luò)A、決策樹;B.arima模型;C.holt-winter模型;D.k-means模型B、2C、3D、4答案:A176.利用自己的認(rèn)知本能來進(jìn)行判斷的思維算法是A、科學(xué)法B.邏輯法C。捷思法D.大數(shù)據(jù)B、2C、3D、4答案:C177.閱讀以下文字:假設(shè)我們擁有一個(gè)已完成訓(xùn)練的、用來解決車輛檢測問題的深度神經(jīng)網(wǎng)絡(luò)模型,訓(xùn)練所用的數(shù)據(jù)集由汽車和卡車的照片構(gòu)成,而訓(xùn)練目標(biāo)是檢測出每種車輛的名稱(車輛共有10種類型)。現(xiàn)在想要使用這個(gè)模型來解決另外一個(gè)問題,問題數(shù)據(jù)集中僅包含一種車(福特野馬)而目標(biāo)變?yōu)槎ㄎ卉囕v在照片中的位置。()A、除去神經(jīng)網(wǎng)絡(luò)中的最后一層,凍結(jié)所有層然后重新訓(xùn)練B.對神經(jīng)網(wǎng)絡(luò)中的最后幾層進(jìn)行微調(diào),同時(shí)將最后一層(分類層)更改為回歸層C.使用新的數(shù)據(jù)集重新訓(xùn)練模型D.所有答案均不對B、2C、3D、4答案:B178.確定性知識是指()知識。A、可以精確表示的B.正確的C.在大學(xué)中學(xué)到的知識D.能夠解決問題的B、2C、3D、4答案:A179.現(xiàn)有的主流人工智能對自然語言的處理是基于()視角的。A、。第二人稱B。第三人稱C。第一人稱D.對象B、2C、3D、4答案:B180.產(chǎn)生式系統(tǒng)的組成不包括()。A、推理機(jī)B.規(guī)則庫C.數(shù)據(jù)庫D.計(jì)算機(jī)網(wǎng)絡(luò)B、2C、3D、4答案:D181.關(guān)于主成分分析PCA說法不正確的是A、我們必須在使用PCA前規(guī)范化數(shù)據(jù)B、我們應(yīng)該選擇使得模型有最大variance的主成分C、我們應(yīng)該選擇使得模型有最小variance的主成分D、我們可以使用PCA在低緯度上做數(shù)據(jù)可視化B、2C、3D、4答案:C182.下列哪個(gè)系統(tǒng)屬于新型專家系統(tǒng)()A、多媒體專家系統(tǒng)B.實(shí)時(shí)專家系統(tǒng)C.軍事專家系統(tǒng)D.分布式專家系統(tǒng)B、2C、3D、4答案:D183.自然語言理解是人工智能的重要應(yīng)用領(lǐng)域,下面列舉中的()不是它要實(shí)現(xiàn)的目標(biāo)。A、理解別人講的話B.對自然語言表示的信息進(jìn)行分析概括或編輯C.自動(dòng)程序設(shè)計(jì)D.機(jī)器翻譯B、2C、3D、4答案:C184.卷積神經(jīng)網(wǎng)中,如果輸入圖像是32×32矩陣,卷積核心是5×5的矩陣,步長為1,那么卷積操作后的特征圖是()的矩陣A、34×34B.32×32C.30×30D.28×28B、2C、3D、4答案:D185.以下是目標(biāo)變量在訓(xùn)練集上的8個(gè)實(shí)際值[0,0,0,1,1,1,1,1],目標(biāo)變量的熵是所少?A、-(5/8log(5/8)+3/8log(3/8))B、5/8log(5/8)+3/8log(3/8)C、3/8log(5/8)+5/8log(3/8)D、5/8log(3/8)–3/8log(5/8)B、2C、3D、4答案:A186.下列說法錯(cuò)誤的是A、模糊規(guī)則用來獲取人類的知識B.建立模糊系統(tǒng)是一個(gè)迭代的過程C.調(diào)試是在建立模糊系統(tǒng)中最單調(diào)和費(fèi)力的過程D.和二值的布爾邏輯一樣,模糊邏輯是二值的B、2C、3D、4答案:D187.下列不是知識表示法的是()A、狀態(tài)空間表示法B.計(jì)算機(jī)表示法C.產(chǎn)生式表示法D.謂詞表示法B、2C、3D、4答案:B188.假設(shè)我們有一個(gè)數(shù)據(jù)集,在一個(gè)深度為6的決策樹的幫助下,它可以使用100%的精確度被訓(xùn)練?,F(xiàn)在考慮一下兩點(diǎn),并基于這兩點(diǎn)選擇正確的選項(xiàng)。()注意:所有其他超參數(shù)是相同的,所有其他因子不受影響。1.深度為4時(shí)將有高偏差和低方差2.深度為4時(shí)將有低偏差和低方差A(yù)、只有1B.只有2C.1和2D.沒有一個(gè)B、2C、3D、4答案:A189.設(shè)二方博弈已生成一棵博弈搜索樹,一方尋找最優(yōu)行動(dòng)方案,需進(jìn)行()等A、設(shè)計(jì)一個(gè)估價(jià)函數(shù)B、推算父節(jié)點(diǎn)的得分C、估算當(dāng)前節(jié)點(diǎn)的得分D、所有選項(xiàng)都包括B、2C、3D、4答案:D190.僅個(gè)體變元被量化的謂詞稱為()A、一階謂詞B.原子公式C.二階謂詞D.全稱量詞B、2C、3D、4答案:A191.以下幾種模型方法屬于判別式模型(DiscriminativeModel)的有()1)混合高斯模型2)條件隨機(jī)場模型3)區(qū)分度訓(xùn)練4)隱馬爾科夫模型A、2,3B.3,4C.1,4D.1,2B、2C、3D、4答案:A192.連接詞的優(yōu)先級A、﹁∧∨→?B.∧∨→?﹁C.→?﹁∧∨D.﹁∨∧→?B、2C、3D、4答案:A193.對于隨機(jī)森林和GradientBoostingTrees,下面說法正確的是:1在隨機(jī)森林的單個(gè)樹中,樹和樹之間是有依賴的,而GradientBoostingTrees中的單個(gè)樹之間是沒有依賴的2這兩個(gè)模型都使用隨機(jī)特征子集,來生成許多單個(gè)的樹3我們可以并行地生成GradientBoostingTrees單個(gè)樹,因?yàn)樗鼈冎g是沒有依賴的4GradientBoostingTrees訓(xùn)練模型的表現(xiàn)總是比隨機(jī)森林好A、2B、1and2C、1,3and4D、2and4B、2C、3D、4答案:A194.下列關(guān)于深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的描述,正確的是()A、不同的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),層數(shù)與神經(jīng)元數(shù)量正相關(guān),層數(shù)越多,神經(jīng)元數(shù)量越多.B.網(wǎng)絡(luò)結(jié)構(gòu)的層次越深,其學(xué)習(xí)特征越多,10層的結(jié)構(gòu)要優(yōu)于5層結(jié)構(gòu)C.深層網(wǎng)絡(luò)結(jié)構(gòu)中,學(xué)習(xí)到的特征一般與神經(jīng)元的參數(shù)量有關(guān),也與樣本的特征多少有關(guān)D.網(wǎng)絡(luò)的層次越深,其訓(xùn)練時(shí)間越久,5層的網(wǎng)絡(luò)比4層的訓(xùn)練時(shí)間長B、2C、3D、4答案:C195.輸入圖像已被轉(zhuǎn)換為大小為28×28的矩陣和大小為7×7的步幅為1的核心/濾波器。卷積矩陣的大小是多少?A、22X22B、21X21C、28X28D、7X7B、2C、3D、4答案:A196.對于DBSCAN,參數(shù)Eps固定,當(dāng)MinPts取值較大時(shí),會(huì)導(dǎo)致A、能很好的區(qū)分各類簇B.只有高密度的點(diǎn)的聚集區(qū)劃為簇,其余劃為噪聲C.低密度的點(diǎn)的聚集區(qū)劃為簇,其余的劃為噪聲D.無影響B(tài)、2C、3D、4答案:B197.下列哪些項(xiàng)目是在圖像識別任務(wù)中使用的數(shù)據(jù)擴(kuò)增技術(shù)(dataaugmentationtechnique)?1水平翻轉(zhuǎn)(Horizontalflipping)2隨機(jī)裁剪(Randomcropping)3隨機(jī)放縮(Randomscaling)4顏色抖動(dòng)(Colorjittering)5隨機(jī)平移(Randomtranslation)6隨機(jī)剪切(Randomshearing)A、1,3,5,6B.1,2,4C.2,3,4,5,6D.所有項(xiàng)目B、2C、3D、4答案:D198.對于謂詞公式,?x(P(x,y)→Q(x,y))∨R(x,y),以下說法錯(cuò)誤的是()A、上述公式中的所有y是自由變元B.P(x,y)中的x是約束變元C.R(x,y)中的x是約束變元D.Q(x,y)中的x是約束變元B、2C、3D、4答案:C199.下列哪個(gè)不屬于CRF模型對于HMM和MEMM模型的優(yōu)勢()A、特征靈活B.速度快C.可容納較多上下文信息D.全局最優(yōu)B、2C、3D、4答案:B200.張鵬對電腦說“查看地區(qū)負(fù)荷”,電腦馬上執(zhí)行調(diào)取負(fù)荷曲線圖,這其中主要應(yīng)用了人工智能中的()A、圖像識別技術(shù)B、指紋識別技術(shù)C、語音識別技術(shù)D、字符識別技術(shù)B、2C、3D、4答案:C201.以下描述錯(cuò)誤的是()A、SVM是這樣一個(gè)分類器,它尋找具有最小邊緣的超平面,因此它也經(jīng)常被稱為最小邊緣分類器B.在聚類分析當(dāng)中,簇內(nèi)的相似性越大,簇間的差別越大,聚類的效果就越差C.在決策樹中,隨著樹中結(jié)點(diǎn)輸變得太大,即使模型的訓(xùn)練誤差還在繼續(xù)降低,但是檢驗(yàn)誤差開始增大,這是出現(xiàn)了模型擬合不足的原因D.聚類分析可以看作是一種非監(jiān)督的分類B、2C、3D、4答案:C202.K-Means算法無法聚以下哪種形狀的樣本A、圓形分布B.螺旋分布C.帶狀分布D.凸多邊形分布B、2C、3D、4答案:B203.ResNet-50有多少個(gè)卷積層?()A、48B.49C.50D.51B、2C、3D、4答案:B204.在人工智能當(dāng)中,圖像、語音、手勢等識別被認(rèn)為是_____的層次;而問題求解、創(chuàng)作、推理預(yù)測被認(rèn)為是____的層次。A、感知智能;感知智能B.認(rèn)知智能;認(rèn)知智能C.感知智能;認(rèn)知智能D.認(rèn)知智能;感知智能B、2C、3D、4答案:C205.關(guān)于正態(tài)分布,下列說法錯(cuò)誤的是()A、正態(tài)分布具有集中性和對稱性B.正態(tài)分布的均值和方差能夠決定正態(tài)分布的位置和形態(tài)C.正態(tài)分布的偏度為0,峰度為1D.標(biāo)準(zhǔn)正態(tài)分布的均值為0,方差為1B、2C、3D、4答案:C206.關(guān)于神經(jīng)網(wǎng)絡(luò)中經(jīng)典使用的優(yōu)化器,以下說法正確的是?A、dam的收斂速度比RMSprop慢B.相比于SGD或RMSprop等優(yōu)化器,Adam的收斂效果是最好的C.對于輕量級神經(jīng)網(wǎng)絡(luò),使用Adam比使用RMSprop更合適D.相比于Adam或RMSprop等優(yōu)化器,SGD的收斂效果是最好的B、2C、3D、4答案:D207.從全稱判斷推導(dǎo)出特稱判斷或單稱判斷的過程,即由一般性知識推出適合于某一具體情況的結(jié)論的推理是A、歸結(jié)推理B.演繹推理C.默認(rèn)推理D.單調(diào)推理B、2C、3D、4答案:B208.二階謂詞的個(gè)體是()A、常量B.變量C.函數(shù)D.謂詞B、2C、3D、4答案:D209.bootstrap數(shù)據(jù)是什么意思?(提示:考“bootstrap”和“boosting”區(qū)別)()A、有放回地從總共M個(gè)特征中抽樣m個(gè)特征B.無放回地從總共M個(gè)特征中抽樣m個(gè)特征C.有放回地從總共N個(gè)樣本中抽樣n個(gè)樣本D.無放回地從總共N個(gè)樣本中抽樣n個(gè)樣本B、2C、3D、4答案:C210.最小二乘法就是試圖找到一條直線,使所有樣本到直線上的()之和最小。A、曼哈頓距離;B.歐氏距離;C.馬氏距離;D.切比雪夫距離B、2C、3D、4答案:B211.哪種聚類方法采用概率模型來表達(dá)聚類()A、K-meansB.LVQC.DBSCAND.高斯混合聚類B、2C、3D、4答案:D212.反向傳播算法中需要先計(jì)算靠近輸入層參數(shù)的梯度,再計(jì)算靠近輸出層參數(shù)的梯度。A、正確B.錯(cuò)誤B、2C、3D、4答案:B213.在與或圖中,只要解決某個(gè)子問題就可解決其父輩問題的節(jié)點(diǎn)集合是指A、或節(jié)點(diǎn)B.與節(jié)點(diǎn)C.終葉節(jié)點(diǎn)D.后繼節(jié)點(diǎn)B、2C、3D、4答案:A214.專家系統(tǒng)的推理機(jī)的最基本的方式是()A、直接推理和間接推理B.正向推理和反向推理C.邏輯推理和非邏輯推理D.準(zhǔn)確推理和模糊推理B、2C、3D、4答案:B215.語義網(wǎng)絡(luò)表達(dá)知識時(shí),有向弧AKO鏈、ISA鏈表達(dá)節(jié)點(diǎn)知識的()A、無悖性B.可擴(kuò)充性C.繼承性D.完整性B、2C、3D、4答案:C216.NaveBayes(樸素貝葉斯)是一種特殊的Bayes分類器,特征變量是X,類別標(biāo)簽是C,它的一個(gè)假定是()A、各類別的先驗(yàn)概率P(C)是相等的B.以0為均值,sqr(2)/2為標(biāo)準(zhǔn)差的正態(tài)分布C.特征變量X的各個(gè)維度是類別條件獨(dú)立隨機(jī)變量D.P(X|C)是高斯分布B、2C、3D、4答案:C217.變量選擇是用來選擇最好的判別器子集,如果要考慮模型效率,我們應(yīng)該做哪些變量選擇的考慮?()1.多個(gè)變量其實(shí)有相同的用處2.變量對于模型的解釋有多大作用3.特征攜帶的信息4.交叉驗(yàn)證A、1和4B.1,2和3C.1,3和4D.以上所有B、2C、3D、4答案:C218.能夠提取出圖片邊緣特征的網(wǎng)絡(luò)是A、池化層B.卷積層C.全連接層D.輸出層B、2C、3D、4答案:B219.語音識別產(chǎn)品體系有四部分,下列哪項(xiàng)不是體系之一?A、語音合成B、語音播放C、語音識別D、語義理解B、2C、3D、4答案:B220.模糊判決可以采用不同的方法,其中包括重心法、最大隸屬度方法、加權(quán)平均法。若得到的模糊輸出為F=0.1/2+0.9/3+0.3/7+0.4/9,當(dāng)采用最大隸屬度方法時(shí),應(yīng)該取結(jié)論為()。A、3B、7C、9D、2B、2C、3D、4答案:A221.以下對于標(biāo)稱屬性說法不正確的是A、標(biāo)稱屬性的值是一些符號或事物的名稱,每種值代表某種類別、編碼或狀態(tài)。B.標(biāo)稱值并不具有有意義的順序,且不是定量的C.對于給定對象集,找出這些屬性的均值、中值沒有意義。D.標(biāo)稱屬性通過將數(shù)值量的值域劃分有限個(gè)有序類別,把數(shù)值屬性離散化得來。B、2C、3D、4答案:D222.下列哪項(xiàng)關(guān)于模型能力(modelcapacity)的描述是正確的?(指神經(jīng)網(wǎng)絡(luò)模型能擬合復(fù)雜函數(shù)的能力)A、隱藏層層數(shù)增加,模型能力增加B、Dropout的比例增加,模型能力增加C、學(xué)習(xí)率增加,模型能力增加D、都不正確B、2C、3D、4答案:A223.人工智能將加大減少支付流程中的()環(huán)節(jié),大大提升交易速度。A、信息傳遞B.人工處理C.到賬確認(rèn)D.轉(zhuǎn)出授權(quán)B、2C、3D、4答案:B224.()是指在各個(gè)領(lǐng)域都比人類要強(qiáng)的人工智能。A、超人工智能B.強(qiáng)人工智能C.弱人工智能D.人工智能B、2C、3D、4答案:A225.最出名的降維算法是PCA和t-SNE。將這兩個(gè)算法分別應(yīng)用到數(shù)據(jù)「X」上,并得到數(shù)據(jù)集「X_projected_PCA」,「X_projected_tSNE」。下面哪一項(xiàng)對「X_projected_PCA」和「X_projected_tSNE」的描述是正確的?()A、X_projected_PCA在最近鄰空間能得到解釋B、X_projected_tSNE在最近鄰空間能得到解釋C、兩個(gè)都在最近鄰空間能得到解釋D、兩個(gè)都不能在最近鄰空間得到解釋B、2C、3D、4答案:B226.梯度下降算法的正確步驟是什么?()1.計(jì)算預(yù)測值和真實(shí)值之間的誤差2.重復(fù)迭代,直至得到網(wǎng)絡(luò)權(quán)重的最佳值3.把輸入傳入網(wǎng)絡(luò),得到輸出值4.用隨機(jī)值初始化權(quán)重和偏差5.對每一個(gè)產(chǎn)生誤差的神經(jīng)元,調(diào)整相應(yīng)的(權(quán)重)值以減小誤差A(yù)、1,2,3,4,5B.5,4,3,2,1C.3,2,1,5,4D.4,3,1,5,2B、2C、3D、4答案:D227.以下關(guān)于降維,表述錯(cuò)誤的是:()A、降維過程中可以保留原始數(shù)據(jù)的所有信息。B.多維縮放的目標(biāo)是要保證降維后樣本之間的距離不變。C.線性降維方法目標(biāo)是要保證降維到的超平面能更好的表示原始數(shù)據(jù)。D.核線性降維方法目標(biāo)是通過核函數(shù)和核方法來避免采樣空間投影到高維空間再降維之后的低維結(jié)構(gòu)丟失。B、2C、3D、4答案:A228.類域界面方程法中,不能求線性不可分情況下分類問題近似或精確解的方法是?()A、偽逆法-徑向基(RBF)神經(jīng)網(wǎng)絡(luò)的訓(xùn)練算法,就是解決線性不可分的情況B.基于二次準(zhǔn)則的H-K算法:最小均方差準(zhǔn)則下求得權(quán)矢量,二次準(zhǔn)則解決非線性問題C.勢函數(shù)法-非線性D.感知器算法-線性分類算法B、2C、3D、4答案:D229."維數(shù)災(zāi)難"指的是:()A、因在低維情形下出現(xiàn)的數(shù)據(jù)樣本稀疏、距離計(jì)算困難等問題,給機(jī)器學(xué)習(xí)方法造成的障礙。B.因在高維情形下出現(xiàn)的數(shù)據(jù)樣本稀疏、距離計(jì)算困難等問題,給機(jī)器學(xué)習(xí)方法造成的障礙。C.因在低維情形下出現(xiàn)的數(shù)據(jù)樣本密集、距離計(jì)算困難等問題,給機(jī)器學(xué)習(xí)方法造成的障礙。D.因在高維情形下出現(xiàn)的數(shù)據(jù)樣本密集、距離計(jì)算困難等問題,給機(jī)器學(xué)習(xí)方法造成的障礙。B、2C、3D、4答案:B230.人工智能是知識與智力的綜合,其中下列不是智能的特征的是()A、具有自我推理能力B.具有感知能力C.具有記憶與思維的能力D.具有學(xué)習(xí)能力以及自適應(yīng)能力B、2C、3D、4答案:A231.討論某一概念的外延時(shí)總離不開一定的范圍。這個(gè)討論的范圍稱為論域,范圍中的每個(gè)對象稱為()A、個(gè)體B、值域C、論域D、元素B、2C、3D、4答案:D232.下列哪個(gè)不是框架表示法的特點(diǎn)()A、結(jié)構(gòu)化深層知識表示B、易附加過程信息C、層次間相互獨(dú)立D、組織結(jié)構(gòu)化B、2C、3D、4答案:C233.如果命題p為真、命題q為假,則下述哪個(gè)復(fù)合命題為真命題()A、p且qB.非pC.如果q則pD.如果p則qB、2C、3D、4答案:C234.在梵塔問題歸約圖中,某子問題屬于本原問題,那么此子問題的解應(yīng)該包含()步移動(dòng)A、1B.2C.3D.不確定B、2C、3D、4答案:A235.關(guān)于“與/或”圖表示知識的表達(dá),錯(cuò)誤的有()A、用“與/或”圖表示知識方便使用程序設(shè)計(jì)語言表達(dá),也便于計(jì)算機(jī)存儲(chǔ)處理。B.“與/或”圖表示知識時(shí)一定同時(shí)有“與節(jié)點(diǎn)”和“或節(jié)點(diǎn)”。C.“與/或”圖能方便地表示述性知識和過程性知識。D.能用“與/或”圖表示的知識不適宜用其他方法表示。B、2C、3D、4答案:D236.下述()不是人工智能中常用的知識格式化表示方法。A、框架表示法B.產(chǎn)生式表示法C.語義網(wǎng)絡(luò)表示法D.形象描寫表示法B、2C、3D、4答案:D237.一般,K-NN最近鄰方法在()的情況下效果較好。A、.樣本較多但典型性不好B.樣本呈團(tuán)狀分布C.樣本較少但典型性好D.樣本呈鏈狀分布B、2C、3D、4答案:A238.以下哪個(gè)是常見的時(shí)間序列算法模型()A、RSIB.MACDC.ARMAD.KDJB、2C、3D、4答案:C239.一般來講,下列語言屬于人工智能語言的是()A、VJB.C#C.FoxproD.LISPB、2C、3D、4答案:D240.對于規(guī)則的專家系統(tǒng)的優(yōu)點(diǎn),下列說法正確的是A、規(guī)則之間的關(guān)系透明B.高效的搜索策略C.處理不完整、不確定的知識D.具備學(xué)習(xí)能力B、2C、3D、4答案:C241.關(guān)于k-means算法的優(yōu)點(diǎn),不正確的是A、是解決聚類問題的一種經(jīng)典算法,簡單、快速。B.對處理大數(shù)據(jù)集,該算法是相對可伸縮和高效率的。C.它對于“躁聲”和孤立點(diǎn)數(shù)據(jù)并不敏感D.它的復(fù)雜度是0(nkt),其中,n是所有對象的數(shù)目,k是簇的數(shù)目,t是迭代的次數(shù)B、2C、3D、4答案:C242.機(jī)器學(xué)習(xí)的各種算法都是基于()理論的A、貝葉斯B、回歸C、決策樹D、聚類B、2C、3D、4答案:A243.馬爾可夫預(yù)測模型是將時(shí)間序列看作一個(gè)過程,通過對事物不同狀態(tài)的()與狀態(tài)之間轉(zhuǎn)移概率的研究,確定狀態(tài)變化趨勢,預(yù)測事物的未來。A、初始概率;B.結(jié)果概率;C.形成概率B、2C、3D、4答案:A244.博弈樹的搜索方法采用的是()。A、極大極小分析法B、極小分析法C、深度搜索算法D、極大分析法B、2C、3D、4答案:A245.語義網(wǎng)絡(luò)表達(dá)知識時(shí),有向弧AKO鏈、ISA鏈?zhǔn)怯脕肀磉_(dá)節(jié)點(diǎn)知識的(C)A、)無悖性B)可擴(kuò)充性C)繼承性B、2C、3D、4答案:C246.以下關(guān)于L1正則化和L2正則化的說法正確的是?A、防止模型欠擬合而加在損失函數(shù)后面的一項(xiàng)B.L1范數(shù)符合拉普拉斯分布,是完全可微的C.L1正則化項(xiàng)是模型各個(gè)參數(shù)的平方和的開方值.DL1正則化可以產(chǎn)生稀疏權(quán)值矩陣,即產(chǎn)生一個(gè)稀疏模型,可以用于特征選擇B、2C、3D、4答案:D247.如果問題存在最優(yōu)解,則下面幾種搜索算法中,廣度優(yōu)先搜索必然可以得到該最優(yōu)解,()可以認(rèn)為是“智能程度相對比較高”的算法。A、無界深度優(yōu)先搜索B.深度優(yōu)先搜索C.有界深度優(yōu)先搜索D.啟發(fā)式搜索B、2C、3D、4答案:D248.消去存在量詞時(shí),當(dāng)()時(shí),用skolem函數(shù)A、存在量詞未出現(xiàn)在全稱量詞的轄域內(nèi)時(shí)B.存在量詞出現(xiàn)在全稱量詞的轄域內(nèi)時(shí)C.以上情況都需要D.以上情況都不需要B、2C、3D、4答案:B249.下列關(guān)于人工智能對實(shí)體經(jīng)濟(jì)的影響說法不正確的是()。A、人工智能能夠提升實(shí)體經(jīng)濟(jì)能級B.人工智能能夠加快經(jīng)濟(jì)轉(zhuǎn)型C.人工智能能夠加快創(chuàng)新驅(qū)動(dòng)發(fā)展D.人工智能能夠促進(jìn)數(shù)字經(jīng)濟(jì)繁榮B、2C、3D、4答案:B250.狀態(tài)空間通常用四元組(S,O,S0,G)表示,這里的G是_____。A、目標(biāo)狀態(tài)B.狀態(tài)操作C.狀態(tài)集合D.初始狀態(tài)B、2C、3D、4答案:A251.關(guān)于模型參數(shù)(權(quán)重值)的描述,錯(cuò)誤的說法是A、在訓(xùn)練神經(jīng)網(wǎng)絡(luò)過程中,參數(shù)不斷調(diào)整,其調(diào)整的依據(jù)是基于損失函數(shù)不斷減少;B.每一次Epoch都會(huì)對之前的參數(shù)進(jìn)行調(diào)整,迭代次數(shù)越多,損失函數(shù)一般越小;C.模型參數(shù)量越多越好,沒有固定的對應(yīng)規(guī)則;D.訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型存儲(chǔ)于一定結(jié)構(gòu)的神經(jīng)元之間的權(quán)重和神經(jīng)元的偏置中B、2C、3D、4答案:C252.假定你在神經(jīng)網(wǎng)絡(luò)中的隱藏層中使用激活函數(shù)X。在特定神經(jīng)元給定任意輸入,你會(huì)得到輸出-0.01。X可能是以下哪一個(gè)激活函數(shù)?()A、ReLUB.tanhC.SigmoidD.以上都有可能B、2C、3D、4答案:B253.子句~PQ和P經(jīng)過消解以后,得到()A、PB.QC.~PD:PQB、2C、3D、4答案:B254.下列哪一項(xiàng)屬于特征學(xué)習(xí)算法(representationlearningalgorithm)?()A、K近鄰算法B.隨機(jī)森林C.神經(jīng)網(wǎng)絡(luò)D.都不屬于B、2C、3D、4答案:C255.下列哪一種操作實(shí)現(xiàn)了和神經(jīng)網(wǎng)絡(luò)中Dropout類似的效果?()A、BaggingB.BoostingC.堆疊(Stacking)D.以上都不正確B、2C、3D、4答案:A256.下面對梯度下降方法描述不正確的是A、梯度下降算法是一種使得損失函數(shù)最小化的方法B.梯度反方向是函數(shù)值下降最快方向C.梯度方向是函數(shù)值下降最快方向D.梯度下降算法用來優(yōu)化深度學(xué)習(xí)模型的參數(shù)B、2C、3D、4答案:C257.以下不屬于盲目搜索特點(diǎn)的是A、搜索過程中不使用與問題有關(guān)的經(jīng)驗(yàn)信息B.搜索效率低C.需要重排open表D.一般只適用于求解比較簡單的問題B、2C、3D、4答案:C258.專家系統(tǒng)是()學(xué)派的成果A、符號學(xué)派B.聯(lián)接學(xué)派C.行為學(xué)派D.統(tǒng)計(jì)學(xué)派B、2C、3D、4答案:A259.支持向量機(jī)(SVM)算法的性能取決于()A、核函數(shù)的選擇B.核函數(shù)的參數(shù)C.軟間隔參數(shù)CD.以上都有B、2C、3D、4答案:D260.框架的構(gòu)成不包括()A、長方形外圍框B.槽值C.約束D.槽名B、2C、3D、4答案:A261.語義網(wǎng)絡(luò)的組成部分()A、框架與弧線B.狀態(tài)和算符C.結(jié)點(diǎn)和鏈D.槽和值B、2C、3D、4答案:C262.給定三個(gè)變量X,Y,Z。(X,Y)、(Y,Z)和(X,Z)的Pearson相關(guān)性系數(shù)分別為C1、C2和C3?,F(xiàn)在X的所有值加2(即X+2),Y的全部值減2(即Y-2),Z保持不變。那么運(yùn)算之后的(X,Y)、(Y,Z)和(X,Z)相關(guān)性系數(shù)分別為D1、D2和D3。現(xiàn)在試問D1、D2、D3和C1、C2、C3之間的關(guān)系是什么?()A、D1=C1,D2<C2,D3>C3B.D1=C1,D2>C2,D3>C3C.D1=C1,D2>C2,D3<C3D.D1=C1,D2<C2,D3<C3E.D1=C1,D2=C2,D3=C3B、2C、3D、4E、5F、6答案:E263.影響基本K-均值算法的主要因素不包括下列哪一個(gè)選項(xiàng)?A、樣本輸入順序B.模式相似性測度C.聚類準(zhǔn)則D.初始類中心的選取B、2C、3D、4答案:C264.在信息匱乏的情況下能夠提供有效的問題解決路徑的重要思想把手是()A、推理思想B。知性思維C.歸納思維D.類比思維B、2C、3D、4答案:D265.有兩個(gè)樣本點(diǎn),第一個(gè)點(diǎn)為正樣本,它的特征向量是(0,-1);第二個(gè)點(diǎn)為負(fù)樣本,它的特征向量是(2,3),從這兩個(gè)樣本點(diǎn)組成的訓(xùn)練集構(gòu)建一個(gè)線性SVM分類器的分類面方程是()A、2x+y=4B.x+2y=5C.x+2y=3D.2x-y=0B、2C、3D、4答案:C266.模式匹配分為和。()A、模糊匹配精確匹配B、復(fù)雜匹配進(jìn)件匹配C、相似匹配精確匹配D、確定匹配不確定性匹配B、2C、3D、4答案:D267.下面表達(dá)式對中()是能夠合一的。A、P(q(f(v)),g(u))和P(x,x)B.P(x,f(x)
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2025年度智慧校園運(yùn)營管理承包經(jīng)營合同書范文4篇
- 二零二五年度抗裂抹灰材料勞務(wù)分包協(xié)議3篇
- 2025年度水利工程打樁施工合同范本(二零二五版)4篇
- 2025版汽車銷售場地租賃與客戶滿意度提升合同4篇
- 2024版施工小修簡易合同
- 2025年環(huán)保型變壓器研發(fā)與銷售合作協(xié)議范本2篇
- 2025年度智慧社區(qū)建設(shè)項(xiàng)目承包清工勞務(wù)合同模板4篇
- 二零二五版航空航天精密模具研發(fā)生產(chǎn)協(xié)議3篇
- 2025年度房地產(chǎn)項(xiàng)目合作開發(fā)合同示范文本4篇
- 2025年度美容美發(fā)行業(yè)線上線下融合發(fā)展合同4篇
- 2024年上海核工程研究設(shè)計(jì)院股份有限公司招聘筆試沖刺題(帶答案解析)
- 眼的解剖結(jié)構(gòu)與生理功能課件
- 2024年銀行考試-興業(yè)銀行筆試參考題庫含答案
- 泵站運(yùn)行管理現(xiàn)狀改善措施
- 2024屆武漢市部分學(xué)校中考一模數(shù)學(xué)試題含解析
- SYT 0447-2014《 埋地鋼制管道環(huán)氧煤瀝青防腐層技術(shù)標(biāo)準(zhǔn)》
- 浙教版七年級下冊科學(xué)全冊課件
- 弧度制及弧度制與角度制的換算
- 瓦楞紙箱計(jì)算公式測量方法
- DB32-T 4004-2021水質(zhì) 17種全氟化合物的測定 高效液相色譜串聯(lián)質(zhì)譜法-(高清現(xiàn)行)
- DB15T 2724-2022 羊糞污收集處理技術(shù)規(guī)范
評論
0/150
提交評論