人工智能基礎(chǔ)(習(xí)題卷45)_第1頁
人工智能基礎(chǔ)(習(xí)題卷45)_第2頁
人工智能基礎(chǔ)(習(xí)題卷45)_第3頁
人工智能基礎(chǔ)(習(xí)題卷45)_第4頁
人工智能基礎(chǔ)(習(xí)題卷45)_第5頁
已閱讀5頁,還剩19頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

試卷科目:人工智能基礎(chǔ)人工智能基礎(chǔ)(習(xí)題卷45)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能基礎(chǔ)第1部分:?jiǎn)雾?xiàng)選擇題,共50題,每題只有一個(gè)正確答案,多選或少選均不得分。[單選題]1.通過圖片方式點(diǎn)擊鼠標(biāo),以下哪種說法是錯(cuò)誤的。()A)可以通過窗口激活的方式使窗口顯示在屏幕最前端B)即使需要點(diǎn)擊的按鈕被其他窗口蓋住依然可以點(diǎn)擊成功C)只要按鈕不被其它窗口蓋住,就可以點(diǎn)擊到答案:B解析:[單選題]2.人工智能AI是()的英文縮寫。A)AutomaticIntelligenceB)ArtificalIntelligenceC)AutomaticeInformationD)ArtificalInformation答案:B解析:[單選題]3.長(zhǎng)短期記憶LSTM具有與循環(huán)神經(jīng)網(wǎng)絡(luò)相似的控制流,兩者的區(qū)別在于LSTM中增加了()導(dǎo)致單元內(nèi)的處理過程不同。A)輸入門B)記憶門C)忘記門D)輸出門答案:C解析:長(zhǎng)短期記憶LSTM具有與循環(huán)神經(jīng)網(wǎng)絡(luò)相似的控制流,兩者的區(qū)別在于LSTM中增加了忘記門導(dǎo)致單元內(nèi)的處理過程不同。[單選題]4.使用機(jī)器學(xué)習(xí)-深度學(xué)習(xí)-的目的:尋找一個(gè)合適的()。A)參數(shù)B)數(shù)據(jù)C)算法D)函數(shù)答案:D解析:[單選題]5.關(guān)于競(jìng)爭(zhēng)型學(xué)習(xí)算法描述錯(cuò)誤的是A)是一種監(jiān)督學(xué)習(xí)策略B)每個(gè)時(shí)刻只有一個(gè)競(jìng)爭(zhēng)獲勝的神經(jīng)元被激活C)其他神經(jīng)元的狀態(tài)被抑制D)ART網(wǎng)絡(luò)通過競(jìng)爭(zhēng)型學(xué)習(xí)算法尋優(yōu)答案:A解析:競(jìng)爭(zhēng)學(xué)習(xí)為無監(jiān)督學(xué)習(xí)策略[單選題]6.評(píng)估完模型之后,發(fā)現(xiàn)模型存在高偏差(highbias),應(yīng)采取的解決方法是()。A)減少模型的特征數(shù)量B)增加模型的特征數(shù)量C)增加樣本數(shù)量D)以上答案都正確答案:B解析:如果模型存在高偏差,意味著模型過于簡(jiǎn)單,為了使模型更加健壯,可以在特征空間中添加更多的特征。而增加樣本數(shù)量將減少方差。[單選題]7.通過數(shù)字技術(shù)與實(shí)體經(jīng)濟(jì)深度融合,不斷提高經(jīng)濟(jì)社會(huì)的數(shù)字化.().智能化水平A)多元化B)統(tǒng)一化C)共享化D)網(wǎng)絡(luò)化答案:D解析:[單選題]8.色彩的三原色模型是()。A)紅、綠、藍(lán)B)紅、黃、藍(lán)C)黃、綠、藍(lán)D)紅、綠、黃答案:B解析:[單選題]9.研究高效處理大規(guī)模數(shù)據(jù)的(),能推動(dòng)社交網(wǎng)絡(luò)分析、語義web分析、生物信息網(wǎng)絡(luò)分析、自然語言處理等新興應(yīng)用領(lǐng)域的發(fā)展。A)分布式計(jì)算B)云計(jì)算C)圖計(jì)算D)互相關(guān)系數(shù)答案:B解析:研究高效處理大規(guī)模數(shù)據(jù)的云計(jì)算,能推動(dòng)社交網(wǎng)絡(luò)分析、語義web分析、生物信息網(wǎng)絡(luò)分析、自然語言處理等新興應(yīng)用領(lǐng)域的發(fā)展。[單選題]10.假定你在神經(jīng)網(wǎng)絡(luò)中的隱藏層中使用激活函數(shù)X。在特定神經(jīng)元給定任意輸入,你會(huì)得到輸出「-0.0001」。X可能是以下哪一個(gè)激活函數(shù)?A)ReLUB)tanhC)SIGMOIDD)以上都不是答案:B解析:[單選題]11.概率模型的訓(xùn)練過程就是()過程。A)參數(shù)估計(jì)B)概率估計(jì)C)極大似然估計(jì)D)分布估計(jì)答案:A解析:[單選題]12.點(diǎn)云預(yù)處理主要是減少(),降低后續(xù)3D邊緣匹配所用的時(shí)間。A)無用點(diǎn)云B)邊緣點(diǎn)云C)核心點(diǎn)云D)高層點(diǎn)云答案:A解析:[單選題]13.句法分析中的喬姆斯基的形式文法中,無約束短語結(jié)構(gòu)文法屬于()A)0B)1C)2D)3答案:A解析:[單選題]14.FOIL是(___)的學(xué)習(xí)算法A)命題規(guī)則B)剪枝優(yōu)化C)一階規(guī)則D)序貫覆蓋答案:C解析:[單選題]15.點(diǎn)擊率問題是這樣一個(gè)預(yù)測(cè)問題,99%的人是不會(huì)點(diǎn)擊的,而1%的人是會(huì)點(diǎn)擊進(jìn)去的,所以這是一個(gè)非常不平衡的數(shù)據(jù)集。假設(shè),現(xiàn)在我們已經(jīng)建了一個(gè)模型來分類,而且有了99%的預(yù)測(cè)準(zhǔn)確率,我們可以下的結(jié)論是()。A)模型預(yù)測(cè)準(zhǔn)確率已經(jīng)很高了,我們不需要做什么了B)模型預(yù)測(cè)準(zhǔn)確率不高,我們需要做點(diǎn)什么改進(jìn)模型C)無法下結(jié)論D)以上答案都不正確答案:C解析:類別不均衡的情況下,不能用準(zhǔn)確率做分類評(píng)估指標(biāo),因?yàn)槿袛酁椴粫?huì)點(diǎn),準(zhǔn)確率也是99%,此時(shí)分類器一點(diǎn)用都沒有。[單選題]16.CRF(條件隨機(jī)場(chǎng))和HMM(隱馬爾可夫模型)之間的主要區(qū)別是什么?A)CRF是生成式的,而HMM是判別式模型B)CRF是判別式模型,HMM是生成式模型。C)CRF和HMM都是生成式模型D)CRF和HMM都是判別式模型。答案:B解析:[單選題]17.隨著集成中個(gè)體分類器(相互獨(dú)立)數(shù)目T的增大,集成的錯(cuò)誤率將呈()下降,最終趨向于零。A)指數(shù)級(jí)B)對(duì)數(shù)級(jí)C)線性級(jí)D)平方級(jí)答案:A解析:[單選題]18.下列對(duì)人工智能芯片的表述,不正確的是()。A)一種專門用于處理人工智能應(yīng)用中大量計(jì)算任務(wù)的芯片B)能夠更好地適應(yīng)人工智能中大量矩陣運(yùn)算C)目前處于成熟高速發(fā)展階段D)相對(duì)于傳統(tǒng)的CPU處理器,智能芯片具有很好的并行計(jì)算性能答案:C解析:[單選題]19.由于文件讀寫時(shí)可能產(chǎn)生IOError,一旦出錯(cuò),后面的f.close()就不會(huì)調(diào)用。所以,為了保證無論是否出錯(cuò)都能正確地關(guān)閉文件,使用________來實(shí)現(xiàn)?A)try...finallyB)try...catchC)try...elseD)try…with答案:A解析:[單選題]20.機(jī)器學(xué)習(xí)的一個(gè)最新研究領(lǐng)域是()A)數(shù)據(jù)挖掘B)神經(jīng)網(wǎng)絡(luò)C)類比學(xué)習(xí)D)自學(xué)習(xí)答案:A解析:[單選題]21.Boosting的本質(zhì)實(shí)際上是一個(gè)加法模型,通過改變訓(xùn)練樣本()學(xué)習(xí)多個(gè)分類器并進(jìn)行一些線性組合A)權(quán)重B)分布C)概率D)數(shù)量答案:A解析:Boosting的本質(zhì)實(shí)際上是一個(gè)加法模型,通過改變訓(xùn)練樣本權(quán)重學(xué)習(xí)多個(gè)分類器并進(jìn)行一些線性組合[單選題]22.()是以數(shù)字圖像處理與識(shí)別為基礎(chǔ)并結(jié)合人工智能、系統(tǒng)學(xué)等學(xué)科的研究,其研究成果被廣泛應(yīng)用在各種工業(yè)及探測(cè)機(jī)器人上。A)文字識(shí)別B)物體識(shí)別C)模式識(shí)別D)數(shù)字圖像處理與識(shí)別答案:B解析:[單選題]23.屬于常見損失函數(shù):A)計(jì)算預(yù)測(cè)值函數(shù)B)求偏導(dǎo)數(shù)函數(shù)C)均方誤差損失函數(shù)D)更新參數(shù)函數(shù)答案:C解析:均方誤差損失函數(shù)屬于常見損失函數(shù)。[單選題]24.卷積神經(jīng)網(wǎng)絡(luò)中的局部連接是指:在進(jìn)行圖像識(shí)別的時(shí)候,不需要對(duì)整個(gè)圖像進(jìn)行處理,只需要關(guān)注圖像中某些()的區(qū)域。A)一般B)特殊C)連續(xù)D)重點(diǎn)答案:B解析:[單選題]25.當(dāng)在內(nèi)存網(wǎng)絡(luò)中獲得某個(gè)內(nèi)存空間時(shí),通常選擇讀取矢量形式數(shù)據(jù)而不是標(biāo)量,這里需要的哪種類型的尋址來完成?A)基于內(nèi)容的尋址B)基于位置的尋址C)都不行D)都可以答案:A解析:[單選題]26.被譽(yù)為?計(jì)算機(jī)科學(xué)之父?的科學(xué)家是A)明斯基B)圖靈C)麥卡錫D)馮諾依曼答案:B解析:艾倫·麥席森·圖靈,英國(guó)數(shù)學(xué)家、邏輯學(xué)家,被稱為計(jì)算機(jī)科學(xué)之父,人工智能之父。[單選題]27.后剪枝是先從訓(xùn)練集生成一顆完整的決策樹,然后(___)對(duì)非葉結(jié)點(diǎn)進(jìn)行考察。A)自上而下B)在劃分前C)禁止分支展開D)自底向上答案:D解析:[單選題]28.如何選取合適的卷積核大小?A)分布范圍廣>較小的卷積核,大的感受野B)分布范圍小>較小的卷積核,小的感受野C)分布范圍小>較大的卷積核,小的感受野D)分布范圍大>較小的卷積核,小的感受野答案:B解析:分布范圍小>較小的卷積核,小的感受野[單選題]29.運(yùn)行X=input(?請(qǐng)輸入你的名字:?)語句后,結(jié)果是:A)請(qǐng)輸入你的名字:光標(biāo)閃爍,等待用于輸入B)X=,光標(biāo)閃爍,等待用于輸入C)輸出X的值D)輸出你的名字答案:A解析:[單選題]30.下列關(guān)于特征選擇的說法錯(cuò)誤的是(___)A)可以提高特征關(guān)聯(lián)性B)可以減輕維數(shù)災(zāi)難問題C)可以降低學(xué)習(xí)任務(wù)的難度D)特征選擇和降維具有相似的動(dòng)機(jī)答案:A解析:[單選題]31.DBSCAN算法的MinPts參數(shù)的意義是()。A)數(shù)據(jù)點(diǎn)的鄰域半徑B)密度閾值C)高密度點(diǎn)距離閾值D)低密度點(diǎn)距離閾值答案:B解析:[單選題]32.()是人的本能,是人類智慧最重要的方面。A)學(xué)習(xí)B)活動(dòng)C)思維D)感知答案:A解析:[單選題]33.關(guān)于SMO神經(jīng)網(wǎng)絡(luò)描述錯(cuò)誤的是(___)A)一種競(jìng)爭(zhēng)學(xué)習(xí)型的無監(jiān)督神經(jīng)網(wǎng)絡(luò);B)將高維輸入數(shù)據(jù)映射到低維空間,保持輸入數(shù)據(jù)在高維空間的拓?fù)浣Y(jié)構(gòu);C)SMO尋優(yōu)目標(biāo)為每個(gè)輸出神經(jīng)元找到合適的權(quán)重;D)輸出層神經(jīng)元以矩陣方式排列在二維空間;答案:C解析:[單選題]34.下列哪些屬于循環(huán)神經(jīng)網(wǎng)絡(luò)A)LeNetB)GoogleNetC)Bi-LSTMD)BERT答案:C解析:[單選題]35.假設(shè)我們使用原始的非線性可分版本的S。ft-SVM優(yōu)化目標(biāo)函數(shù)。我們可通過()來保證得到的模型是線性可分離的。A)C=0B)C=1C)C正無窮大D)C負(fù)無窮大答案:C解析:C為分類錯(cuò)誤項(xiàng)的參數(shù),即正則化中的懲罰因子,C越大,邊界越窄,盡可能把更多點(diǎn)正確分類,分類錯(cuò)誤越少。C越小,邊界越寬,分類錯(cuò)誤點(diǎn)的個(gè)數(shù)增加。因此,C正無窮大時(shí),可以實(shí)現(xiàn)沒有分類錯(cuò)誤的點(diǎn),模型線性可分。[單選題]36.初始化采用隨機(jī)分配的K均值算法,下面哪個(gè)順序是正確的()。①指定簇的數(shù)目;②隨機(jī)分配簇的質(zhì)心;③將每個(gè)數(shù)據(jù)點(diǎn)分配給最近的簇質(zhì)心;④將每個(gè)點(diǎn)重新分配給最近的簇質(zhì)心;⑤重新計(jì)算簇的質(zhì)心;A)①②③⑤④B)①③②④⑤C)②①③④⑤D)以上均不是答案:A解析:[單選題]37.服務(wù)機(jī)器人在全局地圖中的準(zhǔn)確定位主要依賴于()。A)激光雷達(dá)B)激光雷達(dá)+慣性測(cè)量單元C)慣性測(cè)量單元D)超聲波雷達(dá)答案:B解析:[單選題]38.HDFS默認(rèn)BlockSize的大小是()。A)32MBB)64MBC)128MBD)256M答案:B解析:[單選題]39.下面哪一項(xiàng)不屬于工業(yè)機(jī)器人子系統(tǒng)()。A)驅(qū)動(dòng)系統(tǒng)B)機(jī)械系統(tǒng)C)人機(jī)交互系統(tǒng)D)導(dǎo)航系統(tǒng)答案:D解析:[單選題]40.在scikit-learn中,DBSCAN算法對(duì)于()參數(shù)值的選擇非常敏感A)pB)epsC)n_jobsD)algorithm答案:B解析:[單選題]41.衡量計(jì)算機(jī)程序代碼的質(zhì)量,下列哪一個(gè)最重要?A)代碼工整B)邏輯正確C)結(jié)構(gòu)清晰D)代碼簡(jiǎn)潔答案:B解析:[單選題]42.關(guān)于集成學(xué)習(xí),下列說法錯(cuò)誤的是A)集成學(xué)習(xí)一定能提升個(gè)體學(xué)習(xí)器的性能B)Bagging方法中,個(gè)體學(xué)習(xí)器之間彼此獨(dú)立C)Boosting是一種重視錯(cuò)誤樣本的學(xué)習(xí)方法D)Boosting方法中,個(gè)體學(xué)習(xí)器存在強(qiáng)依賴答案:A解析:[單選題]43.下列關(guān)于RNN的說法,正確的是()。A)RNN可以應(yīng)用在NLP領(lǐng)域B)LSTM是RNN的一個(gè)變種C)在RNN中一個(gè)序列當(dāng)前的輸出與前面的輸出也有關(guān)D)以上答案都正確答案:D解析:RNN是一種人造神經(jīng)網(wǎng)絡(luò),它通過賦予網(wǎng)絡(luò)圖附加權(quán)重來創(chuàng)建循環(huán)機(jī)制,以維持內(nèi)部的狀態(tài)。在擁有狀態(tài)以后,便能在序列預(yù)測(cè)中明確地學(xué)習(xí)并利用上下文信息,如順序或時(shí)間成分,因此RNN適用于自然語言處理。RNN中一個(gè)序列當(dāng)前的輸出與前面的輸出有關(guān)。LSTM在RNN基礎(chǔ)上進(jìn)行了改進(jìn),能夠?qū)W習(xí)到長(zhǎng)期依賴關(guān)系,是RNN的一個(gè)變種。[單選題]44.傅里葉變換得到的頻譜中,低頻系數(shù)對(duì)應(yīng)于()。A)物體邊緣B)噪聲C)變化平緩部分D)變化劇烈部分答案:C解析:圖像的主要成分是低頻信息,它形成了圖像的基本灰度等級(jí),對(duì)圖像結(jié)構(gòu)的決定作用較小;中頻信息決定了圖像的基本結(jié)構(gòu),形成了圖像的主要邊緣結(jié)構(gòu);高頻信息形成了圖像的邊緣和細(xì)節(jié),是在中頻信息上對(duì)圖像內(nèi)容的進(jìn)一步強(qiáng)化。[單選題]45.以下不屬于機(jī)身系統(tǒng)得是()。A)飛控B)機(jī)身C)機(jī)翼D)起落架答案:A解析:[單選題]46.Python運(yùn)算符中用來計(jì)算集合并集的是_______。A)|B)&C)||D)+答案:A解析:[單選題]47.已知:-大腦是有很多個(gè)叫做神經(jīng)元的東西構(gòu)成,神經(jīng)網(wǎng)絡(luò)是對(duì)大腦的簡(jiǎn)單的數(shù)學(xué)表達(dá)。-每一個(gè)神經(jīng)元都有輸入、處理函數(shù)和輸出。-神經(jīng)元組合起來形成了網(wǎng)絡(luò),可以擬合任何函數(shù)。-為了得到最佳的神經(jīng)網(wǎng)絡(luò),我們用梯度下降方法不斷更新模型給定上述關(guān)于神經(jīng)網(wǎng)絡(luò)的描述,什么情況下神經(jīng)網(wǎng)絡(luò)模型被稱為深度學(xué)習(xí)模型?A)加入更多層,使神經(jīng)網(wǎng)絡(luò)的深度增加B)有維度更高的數(shù)據(jù)C)當(dāng)這是一個(gè)圖形識(shí)別的問題時(shí)D)以上都不正確答案:A解析:[單選題]48.關(guān)于SVM,以下描述錯(cuò)誤的是()A)如果原始空間是有限維,即屬性數(shù)有限,那么一定存在一個(gè)高維特征空間使樣本可分B)某個(gè)核函數(shù)使訓(xùn)練集在特征空間中線性可分,可能原因是欠擬合C)?軟間隔?允許某些樣本不滿足約束D)正則化可理解為一種?罰函數(shù)法答案:B解析:[單選題]49.人工智能應(yīng)用研究的兩個(gè)最重要最廣泛領(lǐng)域?yàn)椋ǎ〢)專家系統(tǒng)、自動(dòng)規(guī)劃B)專家系統(tǒng)、機(jī)器學(xué)習(xí)C)機(jī)器學(xué)習(xí)、智能控制D)機(jī)器學(xué)習(xí)、自然語言理解答案:D解析:[單選題]50.不屬于人工智能的學(xué)派是()。A)符號(hào)主義B)機(jī)會(huì)主義C)行為主義D)連接主義答案:B解析:第2部分:多項(xiàng)選擇題,共21題,每題至少兩個(gè)正確答案,多選或少選均不得分。[多選題]51.推進(jìn)電網(wǎng)GIS圖模融合,應(yīng)制定統(tǒng)一的電網(wǎng)圖形標(biāo)準(zhǔn)及服務(wù)規(guī)范,打通電網(wǎng)GIS平臺(tái)與業(yè)務(wù)中臺(tái)數(shù)據(jù)通道,實(shí)現(xiàn)設(shè)備資源.()同源維護(hù)。A)資產(chǎn)B)人才C)圖形D)業(yè)務(wù)數(shù)據(jù)答案:ACD解析:[多選題]52.關(guān)于人工智能的概念,下列表述正確的有()。A)根據(jù)對(duì)環(huán)境的感知做出合理的行動(dòng),并獲得最大收益的計(jì)算機(jī)程序B)任何計(jì)算機(jī)程序都具有人工智能C)針對(duì)特定的任務(wù),人工智能程序都具有自主學(xué)習(xí)的能力D)人工智能程序和人類具有相同的思考方式答案:AC解析:[多選題]53.下列有關(guān)人工智能發(fā)展歷史的說法中,正確的包括()A)1956年提出了人工智能的概念B)1936年提出了圖靈計(jì)算機(jī)概念的模型C)2006年是神經(jīng)計(jì)算機(jī)元年D)2016年是神經(jīng)計(jì)算機(jī)元年答案:ABD解析:基礎(chǔ)概念[多選題]54.完整的CNN架構(gòu)除了輸入及輸出外還包含哪些層()A)全連接層B)隱藏層C)卷積層D)池化層答案:ACD解析:[多選題]55.在內(nèi)置的chrome中,捕獲catch(name,*,mode)一個(gè)已經(jīng)打開的網(wǎng)頁的方式有?A)name=標(biāo)題,mode=?title?B)name=url,mode=?title?C)name=標(biāo)題,mode=?utl?D)name=url,mode=?url?答案:AD解析:[多選題]56.使用KNN(K-NearestNeighbor)算法解決分類問題的步驟包括A)對(duì)未知數(shù)據(jù)進(jìn)行正則化B)計(jì)算未知數(shù)據(jù)與已知標(biāo)簽數(shù)據(jù)之間的距離C)得到距離未知數(shù)據(jù)最近的k個(gè)已知標(biāo)簽數(shù)據(jù)D)通過已知標(biāo)簽數(shù)據(jù)的數(shù)量進(jìn)行多數(shù)表決,作為未知數(shù)據(jù)的分類結(jié)果答案:BCD解析:[多選題]57.Hadoop組件ZooKeeper的設(shè)計(jì)目標(biāo)和主要特點(diǎn)包括()。A)簡(jiǎn)單性B)自我復(fù)制C)順序訪問D)高速讀取答案:ABCD解析:ZooKeeper的設(shè)計(jì)目標(biāo)和特點(diǎn)包括簡(jiǎn)單性、自我復(fù)制、順序訪問和高速讀取。[多選題]58.下列選項(xiàng)中基于核的機(jī)器學(xué)習(xí)算法有()。A)最大期望算法B)徑向基核函數(shù)C)線性判別分析法D)支持向量機(jī)答案:BCD解析:[多選題]59.ApacheFlume主要解決的是日志數(shù)據(jù)的收集和處理問題,F(xiàn)lume的主要設(shè)計(jì)目的和特征是()。A)高可靠性B)可擴(kuò)展性C)管理復(fù)雜D)不支持用戶自定義答案:AB解析:Flume的主要設(shè)計(jì)目的和特征包括高可靠性、可擴(kuò)展性、支持方便管理、支持用戶自定義。[多選題]60.以下技術(shù),BERT使用的包括哪些?()A)TransformerB)Sel-Attention模塊C)RNN循環(huán)連接D)文本卷積答案:AB解析:[多選題]61.深度神經(jīng)網(wǎng)絡(luò)的訓(xùn)練通常采用()等具有隱式正則化效果的策略。A)SVMB)隨機(jī)梯度下降C)隨機(jī)失活D)批標(biāo)準(zhǔn)化答案:BCD解析:主要應(yīng)用[多選題]62.常用的大數(shù)據(jù)存儲(chǔ)方式有()A)關(guān)系數(shù)據(jù)庫(kù)B)分布式系統(tǒng)C)NoSQL數(shù)據(jù)庫(kù)D)云數(shù)據(jù)庫(kù)答案:BCD解析:[多選題]63.以下對(duì)基因遺傳算法描述正確的是()。A)基因遺傳算法反映了自然選擇的過程B)基因遺傳算法一定能得到最優(yōu)解C)是一種啟發(fā)式的搜索算法D)能夠窮盡所有可能性答案:AC解析:[多選題]64.通常所用的集合,可以描述為()。A)一個(gè)集合B)一個(gè)映射C)一個(gè)概率空間D)一個(gè)線性空間答案:AB解析:[多選題]65.下列在人工智能系統(tǒng)的知識(shí)包含的4個(gè)要術(shù)中的是()A)事實(shí)B)規(guī)則C)控制和元知識(shí)D)關(guān)系答案:ABC解析:[多選題]66.知識(shí)表示必須兼顧()。A)表達(dá)能力強(qiáng)B)易于推理C)易于擴(kuò)展D)容易修改知識(shí)庫(kù)答案:ABCD解析:[多選題]67.影響k-means算法效果的主要因素包括以下哪一項(xiàng)?()A)初始點(diǎn)的選取B)聚類的準(zhǔn)則C)k值的選取D)距離的度量方式答案:ACD解析:[多選題]68.下列屬于不同的有序數(shù)據(jù)的有:()A)時(shí)序數(shù)據(jù)B)序列數(shù)據(jù)C)時(shí)間序列數(shù)據(jù)D)事務(wù)數(shù)據(jù)E)空間數(shù)據(jù)答案:ABCD解析:第3部分:判斷題,共26題,請(qǐng)判斷題目是否正確。[判斷題]69.在python編程中,語句dic3={[1,2,3]:'uestc'}不能創(chuàng)建一個(gè)字典A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]70.通用人工智能的發(fā)展已經(jīng)處于高級(jí)階段。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]71.基于圖像特征的人臉識(shí)別技術(shù)和基于聲紋的語音識(shí)別技術(shù)均屬于典型的生物特征識(shí)別技術(shù)。A)正確B)錯(cuò)誤答案:對(duì)解析:正確[判斷題]72.1997年5月,著名的?人機(jī)大戰(zhàn)?,最終計(jì)算機(jī)以3.5比2.5的總比分將世界國(guó)際象棋棋王卡斯帕羅夫擊敗,這臺(tái)計(jì)算機(jī)被稱為IBM。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]73.SVM是這樣一個(gè)分類器,他尋找具有最小邊緣的超平面,因此它也經(jīng)常被稱為最小邊緣分類器(minimalmarginclassifier)。A)正確B)錯(cuò)誤答案:錯(cuò)解析:0[判斷題]74.損失函數(shù)有兩個(gè)表達(dá)方式,均方差表達(dá)和信息熵表達(dá)。A)正確B)錯(cuò)誤答案:對(duì)解析:0[判斷題]75.從編程思想來看,傳統(tǒng)程序是數(shù)據(jù)結(jié)構(gòu)+算法。()A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]76.RPA通用組件服務(wù)接口為第三方RPA執(zhí)行器提供集成接口,可支持WebSocket、HTTP兩種協(xié)議。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]77.云計(jì)算的特點(diǎn)服務(wù)可計(jì)算A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]78.卷積神經(jīng)網(wǎng)絡(luò)(ConvolutionalNeuralNetwork,CNN)是一種前饋神經(jīng)網(wǎng)絡(luò)A)正確B)錯(cuò)誤答案:對(duì)解析:0[判斷題]79.計(jì)算機(jī)總是按照語句或者語句塊位置的先后關(guān)系順序執(zhí)行A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]80.數(shù)據(jù)校驗(yàn)只有一種方式,即機(jī)器校驗(yàn)A)正確B)錯(cuò)誤答案:錯(cuò)解析:不止一種[判斷題]81.漢語在塞爾的論證中所扮演的角色是非常?功能性?的,即塞爾只是借用?漢語?指涉任何他不懂的語言()A)正確B)錯(cuò)誤答案:對(duì)解析:正確[判斷題]82.視頻樣本無標(biāo)注要求。截取的圖像樣本應(yīng)標(biāo)注并滿足圖像標(biāo)注要求。A)正確B)錯(cuò)誤答案:對(duì)解析:正確[判斷題]83.依據(jù)函數(shù)的曲線分布而命名的S型激活函數(shù)中,就是指Sigmoid函數(shù)A)正確B)錯(cuò)誤答案:對(duì)解析:0[判斷題]84.在未來的社會(huì)里,利用大數(shù)據(jù)、利用機(jī)器智能來為人類服務(wù)的人在操控世界。A)正確B)錯(cuò)誤答案:對(duì)解析:大數(shù)據(jù)和機(jī)器智能是未來社會(huì)的發(fā)展趨勢(shì)[判斷題]85.()霍恩子句是最多只有一個(gè)負(fù)文字的文字合取式。A)正確B)錯(cuò)誤答案:錯(cuò)解析:0[判斷題]86.自然語言理解主要是幫助機(jī)器更好理解人的語言A)正確B)錯(cuò)誤答案:對(duì)解析:正確[判斷題]87.當(dāng)有一條以上的規(guī)則的條件部分和當(dāng)前數(shù)據(jù)庫(kù)相匹配時(shí),就需要決定首先使用哪一條規(guī)則,這稱為沖突解決。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]88.KNN(K-NearestNeighbor)算法由于需要同時(shí)存儲(chǔ)大量的已知標(biāo)簽數(shù)據(jù),故其一般不適合處理大規(guī)模的訓(xùn)練數(shù)據(jù)A)正確B)錯(cuò)誤答案:對(duì)解析:0[判斷題]89.深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的分支之一。A)正確B)錯(cuò)誤答案:對(duì)解析:793/846、提取用戶偏好的物品特征是基于內(nèi)容推薦算法的關(guān)鍵。A)正確B)錯(cuò)誤正確答案A[判斷題]90.美國(guó)計(jì)算機(jī)科學(xué)家艾倫圖靈對(duì)于人工智能的發(fā)展起到了至關(guān)重要的推動(dòng)作用A)正確B)錯(cuò)誤答案:錯(cuò)解析:英國(guó)[判斷題]91.創(chuàng)建一個(gè)大小為10的隨機(jī)向量,并把它排序:Z=np.random.random(10)Z.sort()A)正確B)錯(cuò)誤答案:對(duì)解析:A)專家系統(tǒng)B)機(jī)器學(xué)習(xí)C)神經(jīng)網(wǎng)絡(luò)D)模式識(shí)別正確答案B[判斷題]92.數(shù)學(xué)建模工作,首先要對(duì)目標(biāo)事物進(jìn)行度量化,然后再進(jìn)行下一步工作。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]93.在現(xiàn)階段,MR指的是混合現(xiàn)實(shí)(MixedReality)。()A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]94

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論