![人工智能單選復(fù)習(xí)測試題_第1頁](http://file4.renrendoc.com/view11/M00/30/23/wKhkGWWLjhaABa14AAFIIzR7mMg543.jpg)
![人工智能單選復(fù)習(xí)測試題_第2頁](http://file4.renrendoc.com/view11/M00/30/23/wKhkGWWLjhaABa14AAFIIzR7mMg5432.jpg)
![人工智能單選復(fù)習(xí)測試題_第3頁](http://file4.renrendoc.com/view11/M00/30/23/wKhkGWWLjhaABa14AAFIIzR7mMg5433.jpg)
![人工智能單選復(fù)習(xí)測試題_第4頁](http://file4.renrendoc.com/view11/M00/30/23/wKhkGWWLjhaABa14AAFIIzR7mMg5434.jpg)
![人工智能單選復(fù)習(xí)測試題_第5頁](http://file4.renrendoc.com/view11/M00/30/23/wKhkGWWLjhaABa14AAFIIzR7mMg5435.jpg)
版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)
文檔簡介
第頁人工智能單選復(fù)習(xí)測試題1.關(guān)于級聯(lián)相關(guān)網(wǎng)絡(luò)描述錯誤的是(___)A、屬于結(jié)構(gòu)自適應(yīng)網(wǎng)絡(luò),網(wǎng)絡(luò)結(jié)構(gòu)也是其優(yōu)化目標(biāo);B、主要成分為級聯(lián)、相關(guān)、歸約;C、無需設(shè)置網(wǎng)絡(luò)層數(shù)、隱層神經(jīng)元數(shù)目;D、訓(xùn)練速度快,但數(shù)據(jù)較小時容易陷入過擬合;【正確答案】:B解析:
見算法解析2.()曲線以precision、recall為橫縱坐標(biāo)AP曲線B、PR曲線C、mAP曲線D、RoI曲線【正確答案】:B解析:
見算法解析3.主成分分析是一種數(shù)據(jù)降維和去除相關(guān)性的方法,它通過()將向量投影到低維空間。A、線性變換B、非線性變換C、拉布拉斯變換D、z變換【正確答案】:A解析:
梯度爆炸一般出現(xiàn)在深層網(wǎng)絡(luò)和權(quán)值初始化值太大的情況下4.測試集應(yīng)盡可能與訓(xùn)練集(___)。A、相容B、相等C、互斥D、包含【正確答案】:C解析:
見算法解析5.下列哪個應(yīng)用領(lǐng)域不屬于人工智能應(yīng)用?()A、人工神經(jīng)網(wǎng)絡(luò)B、自動控制C、自然語言學(xué)習(xí)D、專家系統(tǒng)【正確答案】:B6.國際組織、行業(yè)協(xié)會提出應(yīng)將監(jiān)管之手?jǐn)U展到人工智能方面,手段不包括()。A、加大資本投資B、加強(qiáng)安全方面管控C、構(gòu)建人工智能標(biāo)準(zhǔn)和規(guī)則D、鼓勵公眾參與人工智能治理【正確答案】:A7.自然語言處理機(jī)制涉及兩個流程,分別是()。A、自然語言理解和自然語言轉(zhuǎn)化B、自然語言理解和自然語言生成C、自然語言理解和自然語言翻譯D、自然語言生成和自然語言翻譯【正確答案】:B解析:
NLP問題經(jīng)歷了從基于規(guī)則到基于統(tǒng)計的過程,語法規(guī)則,詞性,構(gòu)詞法等,這些都是基于規(guī)則的自然語言處理過程,其忽略了上下文相關(guān)性,從而使建立在數(shù)學(xué)模型上的基于統(tǒng)計的自然語言方法成為主流。8.預(yù)測分析方法分為兩大類,分別是定性分析法和()。A、回歸分析法B、指數(shù)平滑法C、定量分析法D、平均法【正確答案】:C解析:
主要應(yīng)用9.以下對于標(biāo)稱屬性說法不正確的是A、標(biāo)稱屬性的值是一些符號或事物的名稱,每種值代表某種類別、編碼或狀態(tài)。B、標(biāo)稱值并不具有有意義的順序,且不是定量的C、對于給定對象集,找出這些屬性的均值、中值沒有意義。D、標(biāo)稱屬性通過將數(shù)值量的值域劃分有限個有序類別,把數(shù)值屬性離散化得來。【正確答案】:D10.人工神經(jīng)元內(nèi)部運(yùn)算包含哪兩個部分:A、非線性變換和激活變換B、線性變換和非線性變換C、向量變換和標(biāo)量變換D、化學(xué)變換和電變換【正確答案】:B解析:
不應(yīng)不實用深度學(xué)習(xí)技術(shù)11.中國《中共中央關(guān)于制定國民經(jīng)濟(jì)和社會發(fā)展第十四個五年規(guī)劃和2035遠(yuǎn)景目標(biāo)綱要的建議》指出,要瞄準(zhǔn)人工智能等前沿領(lǐng)域,實施一批具有前瞻性、戰(zhàn)略性重大科技項目,推動()健康發(fā)展。A、人工智能產(chǎn)業(yè)B、數(shù)字經(jīng)濟(jì)C、實業(yè)經(jīng)濟(jì)D、社會主義【正確答案】:B解析:
習(xí)近平總書記多次作出重要指示,強(qiáng)調(diào)“要深入把握新一代人工智能發(fā)展的特點,加強(qiáng)人工智能和產(chǎn)業(yè)發(fā)展融合,為高質(zhì)量發(fā)展提供新動能”。12.以下關(guān)于L1正則化和L2正則化的說法正確的是?A、防止模型欠擬合而加在損失函數(shù)后面的一項B、L1范數(shù)符合拉普拉斯分布,是完全可微的C、L1正則化項是模型各個參數(shù)的平方和的開方值D、L1正則化可以產(chǎn)生稀疏權(quán)值矩陣,即產(chǎn)生一個稀疏模型,可以用于特征選擇【正確答案】:D解析:
應(yīng)使用線性層paddle.nn.linear作為全連接層13.獨(dú)熱編碼的英文是:A、onehotB、twohotC、onecoldD、twocold【正確答案】:A解析:
通常池化操作的效果是使圖片變小14.以下四個人工智能的應(yīng)用領(lǐng)域中,與其他三個不同的是()。A、圖像識別與分類B、醫(yī)學(xué)影像分析C、語音識別D、人臉識別與情感計算【正確答案】:C解析:
利用計算機(jī)來模擬人類屬于人工智能15.人臉識別系統(tǒng)是容易受到外部攻擊的,因而需要增加類似活體檢測的技術(shù),但還是不能解決A、照片攻擊B、視頻回放攻擊C、照片面具攻擊D、黑客網(wǎng)絡(luò)攻擊【正確答案】:D解析:
我們可以為每個聚類構(gòu)建不同的模型,提高預(yù)測準(zhǔn)確率。“類別id”作為一個特征項去訓(xùn)練,可以有效地總結(jié)了數(shù)據(jù)特征。所以B是正確的16.在RNN中,目前使用最廣泛的模型便是()模型,該模型能夠更好地建模長序列。A、SLTMB、SLMTC、LSMTD、LSTM【正確答案】:D解析:
SIFT特征是基于物體上的一些局部外觀的興趣點而與影像的大小和旋轉(zhuǎn)無關(guān)。17.以下哪個不是語音識別技術(shù)的應(yīng)用場景()A、入侵檢測B、語音合成C、語音翻譯D、智能客服【正確答案】:A18.規(guī)則生成本質(zhì)上是一個貪心搜索的過程,須有一定的機(jī)制來緩解過擬合的風(fēng)險,最常見的做法是(___)A、序列化B、剪枝C、去重D、重組【正確答案】:B解析:
見算法解析19.CART樹在分類過程中使用的()A、條件熵B、基尼指數(shù)GiniC、交叉熵D、聯(lián)合熵【正確答案】:B解析:
RNN引入了循環(huán)的概念,但是在實際過程中卻出現(xiàn)了初始信息隨時間消失的題,即長期依賴(Long-TermDependencies)問題,所以引入LSTM。20.在分類學(xué)習(xí)中,提升方法通過反復(fù)修改訓(xùn)練數(shù)據(jù)的(),構(gòu)建一系列基本分類器并將它們線性組合,形成一個強(qiáng)分類器。A、偏差B、方差C、采樣樣本D、權(quán)值分布【正確答案】:D解析:
讀取一行的python方法是.readline()21.C4.5在分類過程中使用的()A、條件熵B、信息增益率C、交叉熵D、聯(lián)合熵【正確答案】:B解析:
ID3在分類過程中使用的信息增益22.以下卷積神經(jīng)網(wǎng)絡(luò)模型中,最早用于手寫數(shù)字識別的是A、LeNet-5B、AlexNetC、ResNet50D、ResNet152【正確答案】:A23.“文檔”是待處理的數(shù)據(jù)對象,它由一組詞組成,這些詞在文檔中不計順序的額,例如一篇論文、一個網(wǎng)頁都可以看做一個文檔;這樣的表示方式稱為(___)?A、語句B、詞袋C、詞海D、詞塘【正確答案】:B解析:
見算法解析24.Softmax算法中溫度趨近于0時Softmax將趨于(___)A、僅探索B、僅利用C、全探索D、全利用【正確答案】:B解析:
見算法解析25.下列屬于無監(jiān)督學(xué)習(xí)的是()A、KNNB、LogistiRegressionC、k-meansD、SVM【正確答案】:C26.通常使用的處理圖像數(shù)據(jù)的網(wǎng)絡(luò)模型是A、卷積神經(jīng)網(wǎng)絡(luò)B、循環(huán)神經(jīng)網(wǎng)絡(luò)C、word2vecD、bert【正確答案】:A27.()通過將文檔看成其中單詞的袋裝形式,被用于在NLP和文本挖掘中生成文本表征A、詞袋模型B、one-hot編碼C、獨(dú)熱編碼D、languagemodel【正確答案】:A解析:
主要應(yīng)用28.下述()不是人工智能中常用的知識格式化表示方法。A、框架表示法B、產(chǎn)生式表示法C、語義網(wǎng)絡(luò)表示法D、形象描寫表示法【正確答案】:D29.在處理序列數(shù)據(jù)時,較容易出現(xiàn)梯度消失現(xiàn)象的模型是()A、CNNB、RNNC、GRUD、LSTM【正確答案】:B解析:
線性回歸是傳統(tǒng)統(tǒng)計學(xué)系呢絨30.通過數(shù)字化建模和建設(shè)虛擬設(shè)施,將電力信息納入到元宇宙電力系統(tǒng)體系中,通過智能感知和數(shù)據(jù)采集補(bǔ)充完善()。A、數(shù)據(jù)中心B、設(shè)備中心C、制造中心D、智能中心【正確答案】:A31.2016年,由谷歌旗下的公司開發(fā)的AlphaGo擊敗人類職業(yè)圍棋選手,是第一個戰(zhàn)勝圍棋世界冠軍的人工智能機(jī)器人,這體現(xiàn)了計算機(jī)在()方向上的發(fā)展趨勢。A、巨型化B、機(jī)器化C、智能化D、多媒體化【正確答案】:C32.模擬、新數(shù)據(jù)源、互操作性、可視化、儀器、平臺等多個方面的共同推動實現(xiàn)了數(shù)字孿生技術(shù)的快速發(fā)展,隨著新一代信息技術(shù)、()、新材料技術(shù)等新興技術(shù)的發(fā)展,數(shù)字孿生技術(shù)將更加完善。A、先進(jìn)制造技術(shù)B、新型制造技術(shù)C、人工智能技術(shù)&D、&元宇宙技術(shù)【正確答案】:A33.從一個初始策略出發(fā),不斷迭代進(jìn)行策略評估和改進(jìn),直到策略收斂、不再改變?yōu)橹?,這樣的作法稱為(___)A、策略迭代B、值迭代C、策略改進(jìn)D、最優(yōu)值函數(shù)【正確答案】:A解析:
見算法解析34.從未來看,人們對人工智能的定位是真正像人類一樣,能同時解決不同領(lǐng)域、不同類型的問題,進(jìn)行判斷和決策,也就是所謂的()A、決策型人工智能B、判斷型人工智能C、通用型人工智能D、創(chuàng)造型人工智能【正確答案】:C解析:
隨著大數(shù)據(jù)、人工智能、量子計算等新技術(shù)的快速發(fā)展,人類社會已經(jīng)步入了第四次工業(yè)革命時代35.在圖像智能處理中,圖像分類的目標(biāo)主要是要確定什么內(nèi)容?A、對象位置B、對象邊框C、對象類別D、對象背景【正確答案】:C36.關(guān)于競爭型學(xué)習(xí)算法描述錯誤的是(___)A、是一種監(jiān)督學(xué)習(xí)策略;B、每個時刻只有一個競爭獲勝的神經(jīng)元被激活;C、其他神經(jīng)元的狀態(tài)被抑制;D、ART網(wǎng)絡(luò)通過競爭型學(xué)習(xí)算法尋優(yōu);【正確答案】:A解析:
見算法解析37.聚類是一種典型的無監(jiān)督學(xué)習(xí)任務(wù),然而在現(xiàn)實聚類任務(wù)中我們往往能獲得一些額外的監(jiān)督信息,于是可通過(___)來利用監(jiān)督信息以獲得更好的聚類效果。A、監(jiān)督聚類B、半監(jiān)督聚類C、聚類D、直推聚類【正確答案】:B解析:
見算法解析38.回歸算法預(yù)測的標(biāo)簽是?A、自變型B、離散型C、應(yīng)變型D、連續(xù)型【正確答案】:D39.下列不屬于人工智能發(fā)展預(yù)測的是()。A、長期來看專用型人工智能的發(fā)展將依賴于對人腦認(rèn)知機(jī)制的科學(xué)研究。B、短期內(nèi)構(gòu)建大型的數(shù)據(jù)集將會是各企業(yè)與研究機(jī)構(gòu)發(fā)展的重要方向。C、在商業(yè)應(yīng)用方面,短期內(nèi),專用型人工智能將會在數(shù)據(jù)豐富的行業(yè)、應(yīng)用場景成熟的業(yè)務(wù)前端(如營銷、服務(wù)等)取得廣泛的應(yīng)用。D、人工智能技術(shù)將能在邊際成本不遞增的情況下將個性化服務(wù)普及到更多的消費(fèi)者與企業(yè)。【正確答案】:A40.當(dāng)前人工智能算力持續(xù)突破,面向訓(xùn)練用和推斷用的芯片仍在快速推進(jìn),基于()的訓(xùn)練芯片持續(xù)增多。A、CPUB、GPUC、FPGAD、5G通訊【正確答案】:B41.欠擬合通常是由于(___)而造成的。A、權(quán)值學(xué)習(xí)迭代次數(shù)足夠多B、學(xué)習(xí)能力低下C、訓(xùn)練集過多模型復(fù)雜D、數(shù)據(jù)有噪聲【正確答案】:B解析:
見算法解析42.知識圖譜中的節(jié)點稱為?A、頂點B、關(guān)系點C、連接點D、實體【正確答案】:D43.多義現(xiàn)象可以被定義為在文本對象中一個單詞或短語的多種含義共存。下列哪一種方法可能是解決此問題的最好選擇?A、隨機(jī)森林分類器B、卷積神經(jīng)網(wǎng)絡(luò)C、梯度爆炸D、上述所有方法【正確答案】:B44.下列哪個神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)會發(fā)生權(quán)重共享A、卷積神經(jīng)網(wǎng)絡(luò)&B、&循環(huán)神經(jīng)網(wǎng)絡(luò)&C、&全連接神經(jīng)網(wǎng)絡(luò)&D、&卷積和循環(huán)神經(jīng)網(wǎng)絡(luò)【正確答案】:D解析:
見算法解析45.在經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)模型中,Softmax函數(shù)是跟在什么隱藏層后面的?A、卷積層B、池化層C、全連接層D、以上都可以【正確答案】:C46.下列對LVW算法的說法錯誤的是(___)A、算法中特征子集搜索采用了隨機(jī)策略B、每次特征子集評價都需要訓(xùn)練學(xué)習(xí)器,開銷很大C、算法設(shè)置了停止條件控制參數(shù)D、算法可能求不出解【正確答案】:D解析:
見算法解析47.在K-搖臂賭博機(jī)中,若嘗試次數(shù)非常大,在一段時間后,搖臂的獎賞能很好的近似出來,不再需要探索,則可讓ε隨著嘗試次數(shù)增加而(___)A、增大B、置為無窮C、置為0D、減少【正確答案】:D解析:
見算法解析48.一個特征的權(quán)重越高,說明該特征比其他特征()。A、更重要B、不重要C、有影響D、無法判斷【正確答案】:A解析:
全連接層常做為CNN網(wǎng)絡(luò)的最后一層。49.下面算法中哪個不是分類算法A、決策樹B、高斯混合模型GMMC、隨機(jī)森林D、Xgboost【正確答案】:B50.關(guān)于反向傳播,以下說法錯誤的是?A、反向傳播只能在前饋神經(jīng)網(wǎng)絡(luò)中運(yùn)用B、反向傳播可以結(jié)合梯度下降算法更新網(wǎng)絡(luò)權(quán)重C、反向傳播會經(jīng)過激活函數(shù)D、反向傳播指的是誤差通過網(wǎng)絡(luò)反向傳播【正確答案】:A51.語音識別產(chǎn)品體系有四部分,下列哪項不是體系之一?A、語音合成B、語音播放C、語音識別D、語義理解【正確答案】:B52.scikit-learn用于訓(xùn)練模型的函數(shù)接口為()A、Fit()B、fit()C、Train()D、train()【正確答案】:B解析:
gensim主要用來以無監(jiān)督的方式從原始的非結(jié)構(gòu)化文本當(dāng)中來學(xué)習(xí)到文本隱藏層的主題向量表達(dá)。53.從研究角度看,()是基于多層神經(jīng)網(wǎng)絡(luò)的,以海量數(shù)據(jù)為輸入,發(fā)現(xiàn)規(guī)則自學(xué)習(xí)的方法。A、深度學(xué)習(xí)B、特征學(xué)習(xí)C、模式識別D、自動翻譯【正確答案】:A54.使用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行圖像識別采用Dropout算法的目的是A、防止過擬合B、防止欠擬合C、增加訓(xùn)練樣本數(shù)D、以上答案均不正確【正確答案】:A解析:
預(yù)測分析方法分為兩大類,分別是定性分析法和定量分析法55.深度學(xué)習(xí)中的不同最優(yōu)化方式,如SGD,ADAM下列說法中正確的是A、在實際場景下,應(yīng)盡量使用ADAM,避免使用SGDB、同樣的初始學(xué)習(xí)率情況下,ADAM的收斂速度總是快于SGD方法C、相同超參數(shù)數(shù)量情況下,比起自適應(yīng)的學(xué)習(xí)率調(diào)整方式,SGD加手動調(diào)節(jié)通常會取得更好效果D、同樣的初始學(xué)習(xí)率情況下,ADAM比SGD容易過擬合【正確答案】:C解析:
圖像處理中無損壓縮的目的是濾除圖像中的冗余信號56.以下不屬于聚類算法的是()。A、K均值B、SANC、AprioriD、Jarvis-Patrik(JP)【正確答案】:C57.faster-rcnn回歸分支采用()lossA、L1B、L2C、SmoothL1D、nan【正確答案】:C解析:
見算法解析58.以下關(guān)于機(jī)器學(xué)習(xí)描述正確的是?A、深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個分支B、深度學(xué)習(xí)與機(jī)器學(xué)習(xí)是互相包含的關(guān)系C、深度學(xué)習(xí)與機(jī)器學(xué)習(xí)同屬于人工智能但相互之間沒有關(guān)系D、以上都不對【正確答案】:A59.傳統(tǒng)GBDT以()作為基分類器A、線性分類器B、CARTC、gblinearD、svm【正確答案】:B解析:
OCR是指對文本書面資料(印刷字體、手寫字體)的圖像文件進(jìn)行分析識別處理,獲取文字及版面信息的過程,其中文全程是光學(xué)字符識別。60.深度學(xué)習(xí)系統(tǒng)中,如果參數(shù)數(shù)量非常龐大不會出現(xiàn):A、運(yùn)算精度必然高B、運(yùn)算速度慢C、內(nèi)存使用多D、訓(xùn)練困難【正確答案】:A解析:
卷積神經(jīng)網(wǎng)絡(luò)的英文縮寫是CNN61.數(shù)據(jù)在完成特征工程的操作后,在構(gòu)建模型的過程中,以下哪個選項不屬于決策樹構(gòu)建過程當(dāng)中的步驟?A、剪枝B、特征選取C、數(shù)據(jù)清理D、決策樹生成【正確答案】:C62.以下哪一項在神經(jīng)網(wǎng)絡(luò)中引入了非線性操作?A、隨機(jī)梯度下降B、ReLU函數(shù)C、卷積函數(shù)D、損失函數(shù)【正確答案】:B63.混淆矩陣中TP=16,FP=12,FN=8,TN=4,召回率是()。A、1212122022年1月4日B、1212122022年1月2日C、1212122022年4月7日D、1212122022年2月3日【正確答案】:D解析:
根據(jù)精確率計算公式可得。64.在pytorch中,如果主機(jī)有1塊TitanX顯卡,以下哪個選項中的代碼都可以將變量名為var的tensor放在GPU上運(yùn)行A、var=var.to("cuda:0")、var=var.to("cuda:1")B、var=var.to("cuda:1")C、var=var.cuda()、var=var.to("cuda:0")D、var=var.cuda()、var=var.to("cuda:1")【正確答案】:C解析:
TensorFlow讀入圖片統(tǒng)一為三通道65.新一代AI是一種通過對新一代信息技術(shù)的發(fā)展和人類智能活動規(guī)律的研究,用于模擬、延伸和擴(kuò)展人類智能,實現(xiàn)從用()模擬人類智能演進(jìn)到協(xié)助引導(dǎo)提升人類智能的交叉技術(shù)科學(xué)。A、數(shù)據(jù)B、設(shè)備C、計算機(jī)D、技術(shù)【正確答案】:C66.下面哪項操作能實現(xiàn)跟神經(jīng)網(wǎng)絡(luò)中Dropout的類似效果?A、BoostingBaggingC、StackingD、Mapping【正確答案】:B67.搜索可以分為盲從搜索與A、啟發(fā)式搜索B、模糊搜索C、精確搜索D、關(guān)鍵詞搜索【正確答案】:A解析:
池化算法比如取最大值/取平均值等,都是輸入數(shù)據(jù)旋轉(zhuǎn)后結(jié)果不變,所以多層疊加后也有這種不變性。68.下列哪一項在神經(jīng)網(wǎng)絡(luò)中引入了非線性?A、隨機(jī)梯度下降B、修正線性單元(ReLU)C、卷積函數(shù)D、以上都不正確【正確答案】:B69.根據(jù)邊的性質(zhì)不同,概率圖模型可大致分為兩類:第一類是使用有向無環(huán)圖表示變量間的依賴關(guān)系,稱為(___);第二類是使用無向圖表示變量間的相關(guān)關(guān)系,稱為無向圖模型或馬爾可夫網(wǎng)(Markovnetwork)。A、貝葉斯網(wǎng)B、拉普拉斯網(wǎng)C、帕斯卡網(wǎng)D、塞繆爾網(wǎng)【正確答案】:A解析:
見算法解析70.當(dāng)數(shù)據(jù)太大而不能同時在RAM中處理時,哪種梯度技術(shù)更有優(yōu)勢A、全批量梯度下降B、隨機(jī)梯度下降【正確答案】:B71.
深度學(xué)習(xí)可以用在下列哪些NLP任務(wù)中?A、情感分析B、問答系統(tǒng)C、機(jī)器翻譯D、所有選項【正確答案】:D72.下面哪個不是人工智能的主要研究流派?A、符號主義B、連接主義C、行為主義D、模擬主義【正確答案】:D解析:
人工智能機(jī)器人體現(xiàn)了計算機(jī)在智能化方向上的發(fā)展趨勢。73.以下哪種神經(jīng)網(wǎng)絡(luò)引入了殘差網(wǎng)絡(luò)結(jié)構(gòu)?A、LeNetB、AlexNetC、VGGD、ResNet【正確答案】:D74.構(gòu)建一個神經(jīng)網(wǎng)絡(luò),將前一層的輸出和它自身作為輸入。
下列哪一種架構(gòu)有反饋連接?A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、卷積神經(jīng)網(wǎng)絡(luò)C、限制玻爾茲曼機(jī)D、都不是【正確答案】:A75.()的數(shù)目通常也被稱作卷積核的個數(shù)A、通道B、輸入通道C、輸入維度D、輸出通道【正確答案】:D解析:
學(xué)習(xí)率是根據(jù)不同場景,人為設(shè)定的76.ROIPooling存在幾次取整過程?A、1B、2C、3D、nan【正確答案】:B解析:
見算法解析77.關(guān)于遞歸函數(shù)基例的說明,以下選項中錯誤的是A、遞歸函數(shù)必須有基例B、遞歸函數(shù)的基例不再進(jìn)行遞歸C、每個遞歸函數(shù)都只能有一個基例D、遞歸函數(shù)的基例決定遞歸的深度【正確答案】:C78.下列哪個模型屬于監(jiān)督學(xué)習(xí)的方法()A、K-meansB、SVRC、DBSCAND、以上都是【正確答案】:B解析:
線性回歸的基本假設(shè)是隨機(jī)干擾項是均值為0的同方差正態(tài)分布79.
下列哪項關(guān)于模型能力(modelcapacity)的描述是正確的?(指神經(jīng)網(wǎng)絡(luò)模型能擬合復(fù)雜函數(shù)的能力)A、隱藏層層數(shù)增加,模型能力增加B、Dropout的比例增加,模型能力增加C、學(xué)習(xí)率增加,模型能力增加D、都不正確【正確答案】:A80.關(guān)于Boosting,Bagging和隨機(jī)森林,以下說法錯誤的是(___)A、從偏差-方差分解的角度看,Boosting主要關(guān)注降低偏差B、從偏差-方差分解的角度看,Bagging主要關(guān)注降低方差C、隨機(jī)森林簡單、容易實現(xiàn)、計算開銷小D、Boosting不能基于泛化性能相當(dāng)弱的學(xué)習(xí)器構(gòu)建出很強(qiáng)的集成【正確答案】:D解析:
見算法解析81.循環(huán)神經(jīng)網(wǎng)絡(luò)的英語簡寫是:A、CNNB、RNNC、DNND、CTC【正確答案】:B解析:
語言模型的作用是查看一句話成為一句“人話”的概率82.規(guī)則學(xué)習(xí)中ILP的全稱是(___)A、歸納邏輯程序設(shè)計B、內(nèi)部邏輯程序設(shè)計C、信息泄露防護(hù)D、引入層次程序設(shè)計【正確答案】:A解析:
見算法解析83.全局梯度下降算法、隨機(jī)梯度下降算法和批量梯度下降算法均屬于梯度下降算法,以下關(guān)于其有優(yōu)缺點說法錯誤的是:A、全局梯度算法可以找到損失函數(shù)的最小值B、批量梯度算法可以解決局部最小值問題C、隨機(jī)梯度算法可以找到損失函數(shù)的最小值D、全局梯度算法收斂過程比較耗時【正確答案】:C84.要想讓機(jī)器具有智能,必須讓機(jī)器具有知識。因此,在人工智能中有一個研究領(lǐng)域,主要研究計算機(jī)如何自動獲取知識和技能,實現(xiàn)自我完善,這門研究分支學(xué)科是A、專家系統(tǒng)B、機(jī)器學(xué)習(xí)C、神經(jīng)網(wǎng)絡(luò)D、模式識別【正確答案】:B85.()函數(shù)一般用在多分類問題中,它是對邏輯斯蒂回歸logistic的一種推廣,也被稱為多項式邏輯斯蒂回歸模型。A、ReluB、softmaxC、TanhD、sigmoid【正確答案】:B解析:
GooLeNet中使用較多小tricks,其中全局平局池化GAP就是一個,使用GAP的優(yōu)點是減少參數(shù)量,實現(xiàn)任意大小的輸入86.圖像處理中無損壓縮的目的是()A、濾除圖像中的不相干信號B、濾除圖像中的高頻信號C、濾除圖形中的低頻信號D、濾除圖像中的冗余信號【正確答案】:D解析:
每一棵決策樹擬合的是之前迭代得到的模型的殘差87.自動識別系統(tǒng)屬于人工智能哪個應(yīng)用領(lǐng)域?A、自然語言系統(tǒng)B、機(jī)器學(xué)習(xí)C、專家系統(tǒng)D、人類感官模擬【正確答案】:D解析:
自然語言系統(tǒng)是對自然語言進(jìn)行處理和理解的系統(tǒng)。自然語言信息系統(tǒng)的主要功能是機(jī)器對人們輸入的自然語言進(jìn)行處理和理解,并返回響應(yīng)的結(jié)果。機(jī)器翻譯屬于自然語言系統(tǒng),答案選A88.對訓(xùn)練平臺,AI芯片計算資源單卡內(nèi)存不應(yīng)低于()GB,宜達(dá)到32GB或以上,單卡內(nèi)存帶寬不應(yīng)低于700GB/秒。A、8B、10C、12D、$16【正確答案】:A解析:
主要應(yīng)用89.下列神經(jīng)網(wǎng)絡(luò)的組織特性描述錯誤的是(___)A、可以模擬生物神經(jīng)系統(tǒng)B、面向真實世界物體C、面向仿真環(huán)境物體D、作出交互反應(yīng)【正確答案】:C解析:
見算法解析90.根據(jù)numpy數(shù)組中ndim屬性的含義確定程序的輸出()。array=np.array([[1,2,3],[4,5,6],[7,8,9],[10,11,12]]);print(array.ndim)A、(3,4)B、2C、(4,3)D、$4【正確答案】:B解析:
見算法解析91.在K-mean或Knn中,是采用哪種距離計算方法?A、曼哈頓距離B、切比雪夫距離C、歐式距離D、閔氏距離【正確答案】:C解析:
L1正則化可通過假設(shè)權(quán)重w的先驗分布為拉普拉斯分布,由最大后驗概率估計導(dǎo)出。L2正則化可通過假設(shè)權(quán)重w的先驗分布為高斯分布,由最大后驗概率估計導(dǎo)出。92.DSSM模型的結(jié)構(gòu)是什么?A、線性B、雙塔C、三塔D、非線性【正確答案】:B解析:
DSSM經(jīng)典模型的缺點:1.Wordhashing可能造成詞語沖突;2.采用詞袋模型,損失了上下文語序信息;3.搜索引擎的排序由多種因素決定,用戶點擊時doc排名越靠前越容易被點擊,僅用點擊來判斷正負(fù)樣本,產(chǎn)生的噪聲較大,模型難以收斂;4.效果不可控。93.在神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)中,每個神經(jīng)元會完成若干功能,下面哪個功能不是神經(jīng)元所能夠完成的功能A、對前序相鄰神經(jīng)元所傳遞信息進(jìn)行加權(quán)累加B、對加權(quán)累加信息進(jìn)行非線性變化(通過激活函數(shù))C、向前序相鄰神經(jīng)元反饋加權(quán)累加信息D、將加權(quán)累加信息向后續(xù)相鄰神經(jīng)元傳遞【正確答案】:C94.從時空性來看,元宇宙是一個空間維度上()而時間維度上()的數(shù)字世界。A、虛擬,虛擬B、虛擬,真實C、真實,虛擬D、真實,真實【正確答案】:B解析:
早在2002年,“數(shù)字孿生(DigitalTwin)”這一概念被美國MichaelGrieves教授提出。95.在自動駕駛中,AI需要不斷地通過路面信息來調(diào)整開車的決策,這種處理模式適合用()來訓(xùn)練出合理的策略。A、監(jiān)督學(xué)習(xí)B、非監(jiān)督學(xué)習(xí)C、強(qiáng)化學(xué)習(xí)D、弱化學(xué)習(xí)【正確答案】:C96.下列關(guān)于聚類算法的說法,正確的是()A、聚類算法通常用于在知道類別的情況下,把樣本按照樣本之間的相似性等分成不同的類別B、聚類算法是一種監(jiān)督學(xué)習(xí)算法C、聚類算法可以用于回歸問題D、聚類算法通常用于在不知道類別的情況下,把樣本按照樣本之間的相似性等分成不同的類別【正確答案】:D97.在ε-greedy策略當(dāng)中,ε的值越大,表示采用隨機(jī)的一個動作的概率越(),采用當(dāng)前Q函數(shù)值最大的動作的概率越()。A、大B、小C、大D、大E、小F、小【正確答案】:A98.下列哪些項目是在圖像識別任務(wù)中使用的數(shù)據(jù)擴(kuò)增技術(shù)(dataaugmentationtechnique)?1水平翻轉(zhuǎn)(Horizontalflipping)2隨機(jī)裁剪(Randomcropping)3隨機(jī)放縮(Randomscaling)4顏色抖動(Colorjittering)5隨機(jī)平移(Randomtranslation)6隨機(jī)剪切(Randomshearing)A、1,3,5,6B、1,2,4C、2,3,4,5,6D、所有項目【正確答案】:D99.以下哪些算法是分類算法()A、DBSCANB、C4.5
C.K-MeanD、EM【正確答案】:B100.以下不是元宇宙的主要技術(shù)有()。A、可視化B、AR/VRC、數(shù)字孿生D、區(qū)塊鏈【正確答案】:A解析:
從時空性來看,元宇宙是一個空間維度上虛擬而時間維度上真實的數(shù)字世界(百科)101.模型庫功能要求為:模型管理包括模型()、模型刪除、版本管理、模型標(biāo)簽、模型收藏和模型共享。A、評估B、導(dǎo)出C、輸出D、導(dǎo)入【正確答案】:D解析:
主要應(yīng)用102.下面哪句話正確描述了馬爾科夫鏈中定義的馬爾可夫性A、t+1時刻狀態(tài)取決于t時刻狀態(tài)B、t-1時刻狀態(tài)取決于t+1時刻狀態(tài)C、t+2時刻狀態(tài)取決于t時刻狀態(tài)D、t+1時刻狀態(tài)和t時刻狀態(tài)相互獨(dú)立【正確答案】:A103.下列哪個選項中的模型屬于集成學(xué)習(xí)A、C4.5B、kNN分類C、AdaboostD、k-means【正確答案】:C104.關(guān)于貝葉斯網(wǎng)的學(xué)習(xí)描述錯誤的為(___)A、貝葉斯的學(xué)習(xí)過程為對訓(xùn)練樣本計數(shù);B、估計出每個結(jié)點的條件概率;C、網(wǎng)絡(luò)結(jié)構(gòu)為已知;D、評分搜索為求解的常用辦法;【正確答案】:C解析:
見算法解析105.人工智能芯片將向()芯片發(fā)展,智能傳感器將朝集成化方向推進(jìn)。A、全能B、通用領(lǐng)域C、專業(yè)人工智能D、通用人工智能【正確答案】:D解析:
我國人工智能三步走戰(zhàn)略,第三步到2030年人工智能理論、技術(shù)與應(yīng)用總體達(dá)到世界領(lǐng)先水平,成為世界主要人工智能創(chuàng)新中心。106.代碼arr3=np.array([[1,2,3],[4,5,6]]).transpose();print(arr3[1,1])的輸出結(jié)果是()?A、5B、4C、3D、$2【正確答案】:A解析:
見算法解析107.對于一個圖像識別問題(在一張照片里找出一只貓),下面哪種神經(jīng)網(wǎng)絡(luò)可以更好地解決這個問題?A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、感知機(jī)C、多層感知機(jī)D、卷積神經(jīng)網(wǎng)絡(luò)【正確答案】:D108.下列算法,哪項能處理非線性問題()A、標(biāo)準(zhǔn)SVMB、多項式回歸C、線性回歸D、神經(jīng)元模型【正確答案】:B解析:
卷積在BERT中沒有使用109.
梯度下降算法的正確步驟是什么?1.計算預(yù)測值和真實值之間的誤差2.重復(fù)迭代,直至得到網(wǎng)絡(luò)權(quán)重的最佳值3.把輸入傳入網(wǎng)絡(luò),得到輸出值4.用隨機(jī)值初始化權(quán)重和偏差5.對每一個產(chǎn)生誤差的神經(jīng)元,調(diào)整相應(yīng)的(權(quán)重)值以減小誤差A(yù)、1,2,3,4,5B、5,4,3,2,1C、3,2,1,5,4D、4,3,1,5,2【正確答案】:D110.無監(jiān)督學(xué)習(xí)常常被用于(),用于在大量無標(biāo)簽數(shù)據(jù)中發(fā)現(xiàn)些什么。A、數(shù)據(jù)挖掘B、數(shù)據(jù)分析C、數(shù)據(jù)讀取D、數(shù)據(jù)整理【正確答案】:A解析:
隨機(jī)森林是一種集成學(xué)習(xí)算法,是Bagging算法的具體實現(xiàn)。111.下列哪項不是SVM的優(yōu)勢A、可以和核函數(shù)結(jié)合B、通過調(diào)參可以往往可以得到很好的分類效果C、訓(xùn)練速度快D、泛化能力好【正確答案】:C解析:
高斯核函數(shù)將特征映射到無窮維112.根據(jù)邊的性質(zhì)不同,概率圖模型可大致分為兩類:第一類是使用有向無環(huán)圖表示變量間的依賴關(guān)系,稱為有向圖模型或貝葉斯網(wǎng)(Bayesiannetwork);第二類是使用無向圖表示變量間的相關(guān)關(guān)系,稱為(___)。A、赫布網(wǎng)B、拉普拉斯網(wǎng)C、馬爾科夫網(wǎng)D、塞繆爾網(wǎng)【正確答案】:C解析:
見算法解析113.馬爾可夫性質(zhì)強(qiáng)調(diào)在每一個動作狀態(tài)序列中,下一個狀態(tài)與()有關(guān)。A、外部影響B(tài)、主體內(nèi)因C、歷史狀態(tài)D、當(dāng)前狀態(tài)【正確答案】:D114.近年來,隨著人工智能技術(shù)的快速發(fā)展和演變,()在多種控制領(lǐng)域表現(xiàn)優(yōu)異,這類控制問題可以歸結(jié)為馬爾可夫決策過程,其典型成功應(yīng)用案例有AlphaGo、自動駕駛狗等,這些成功案例為有效解決電網(wǎng)規(guī)劃和調(diào)控難題提供了借鑒。A、深度強(qiáng)化學(xué)習(xí)技術(shù)B、多智能體技術(shù)C、深度Q-Learning技術(shù)D、深度學(xué)習(xí)技術(shù)【正確答案】:A115.將輸出標(biāo)記的對數(shù)作為線性模型逼近的目標(biāo)是(___)。A、對數(shù)幾率回歸B、對數(shù)線性回歸C、極大似然法D、正則化【正確答案】:B解析:
見算法解析116.網(wǎng)絡(luò)訓(xùn)練時,常會遇到很多問題,對于梯度消失問題,我們可以通過選擇使用以下哪種函數(shù)減輕該問題?A、Relu函數(shù)B、Sigmoid函數(shù)C、tanh函數(shù)D、Softsign函數(shù)【正確答案】:A117.樣本庫功能要求為:數(shù)據(jù)接入包括()文件導(dǎo)入、HDFS數(shù)據(jù)導(dǎo)入、FTP文件導(dǎo)入、NFS數(shù)據(jù)導(dǎo)入和數(shù)據(jù)庫數(shù)據(jù)導(dǎo)入。A、遠(yuǎn)程&B、&本地&C、&云端&D、&SAMBA【正確答案】:B解析:
主要應(yīng)用118.卷積神經(jīng)網(wǎng)絡(luò)的英文縮寫是:A、DNNB、CNNC、RNND、Tanh【正確答案】:B解析:
學(xué)習(xí)率的大小是根據(jù)不同場景程序員自己設(shè)定的,不宜太大或者太小119.人工智能平臺應(yīng)提供主要網(wǎng)絡(luò)設(shè)備、通信線路和()系統(tǒng)的硬件冗余,保證高可用性,在無不可抗力環(huán)境下應(yīng)滿足7×24小時服務(wù)不中斷。A、數(shù)據(jù)庫B、主機(jī)C、電源D、集群【正確答案】:D解析:
主要應(yīng)用120.元宇宙的本質(zhì)是將現(xiàn)實世界進(jìn)行()、虛擬化,元宇宙將成為虛擬世界與現(xiàn)實世界共存的第二空間[5]。A、智能化&B、&標(biāo)準(zhǔn)化&C、&數(shù)字化D、云端化【正確答案】:C121.識別攝像頭拍攝的數(shù)字式電力儀表的讀數(shù),采用的是下列哪項技術(shù)A、圖像分類技術(shù)B、目標(biāo)檢測技術(shù)C、語義分割技術(shù)D、OCR技術(shù)【正確答案】:D解析:
知識圖譜在架構(gòu)方面可分為模式層和數(shù)據(jù)層,模式層在數(shù)據(jù)層之上,是知識圖譜核心,主要內(nèi)容是知識圖譜的數(shù)據(jù)結(jié)構(gòu),包括實體、關(guān)系、屬性等知識類的層次結(jié)構(gòu)。122.下列哪項屬于集成學(xué)習(xí)A、決策樹模型B、kNN分類C、AdaboostD、k-means【正確答案】:C123.()常做為CNN網(wǎng)絡(luò)的最后一層。A、卷積層B、池化層C、全連接層D、歸一化層【正確答案】:C解析:
神經(jīng)元之間的每個連接都有一個權(quán)重。124.反向傳播算法一開始計算什么內(nèi)容的梯度,之后將其反向傳播?A、預(yù)測結(jié)果與樣本標(biāo)簽之間的誤差B、各個輸入樣本的平方差之和C、各個網(wǎng)絡(luò)權(quán)重的平方差之和D、都不對【正確答案】:A125.模型庫存放訓(xùn)練出的()模型或采購來的第三方算法模型。A、實體B、算法C、數(shù)據(jù)D、對象【正確答案】:B解析:
例如在生產(chǎn)與采購環(huán)節(jié),典型的AI應(yīng)用場景包括智能質(zhì)檢,利用機(jī)器視覺等AI技術(shù)可代替人力或者協(xié)助人力完成對缺陷商品進(jìn)行識別。126.下列關(guān)于XGboost算法描述中錯誤的是A、由于其特殊原因,無法分布式化B、xgboost在代價函數(shù)里加入了正則項,用于控制模型的復(fù)雜度C、可以處理帶有缺失值的樣本D、允許使用列抽樣來減少過擬合【正確答案】:A127.循環(huán)神經(jīng)網(wǎng)絡(luò)之所以有作用是因為:A、序列中的元素是無關(guān)的B、序列中的元素蘊(yùn)含著順序的規(guī)律C、序列中的元素都是隨機(jī)出現(xiàn)的D、序列中的元素都來自同一個數(shù)據(jù)源【正確答案】:B解析:
循環(huán)神經(jīng)網(wǎng)絡(luò)的英語簡寫是RNN128.下列有關(guān)決策樹說法錯誤的是A、是一個監(jiān)督學(xué)習(xí)算法B、是一個分類模型C、是一個回歸模型D、主要用來處理時間序列數(shù)據(jù)樣本【正確答案】:D129.半監(jiān)督學(xué)習(xí)包括(___)。A、純半監(jiān)督學(xué)習(xí)B、主動學(xué)習(xí)C、回歸學(xué)習(xí)D、分類學(xué)習(xí)、【正確答案】:A解析:
見算法解析130.關(guān)于專用人工智能與通用人工智能,下列表述不當(dāng)?shù)厥牵?/p>
)。A、人工智能的近期進(jìn)展主要集中在專用智能領(lǐng)域B、專用人工智能形成了人工智能領(lǐng)域地單點突破,在局部智能水平地單項測試中可以超越人類智能C、通用人工智能可處理視覺、聽覺、判斷、推理、學(xué)習(xí)、思考、規(guī)劃、設(shè)計等各類問題D、真正意義上完備的人工智能系統(tǒng)應(yīng)該是一個專用的智能系統(tǒng)【正確答案】:D解析:
生物特征識別技術(shù),是指通過計算機(jī)利用人體所固有的生理特征(指紋、虹膜、面相、DNA等)或行為特征(步態(tài)、擊鍵習(xí)慣等)來進(jìn)行個人身份鑒定的技術(shù)。指紋識別、人臉識別、虹膜識別運(yùn)用的都是生物特征,體感交互是指人們可以很直接地使用肢體動作,與周邊的裝置或環(huán)境互動,而無需使用任何復(fù)雜的控制設(shè)備,便可讓人們身歷其境地與內(nèi)容做互動,不屬于生物特征識別技術(shù)。131.批量梯度下降,小批量梯度下降,隨機(jī)梯度下降最重要的區(qū)別在哪里?A、梯度大小B、梯度方向C、學(xué)習(xí)率D、使用樣本數(shù)【正確答案】:D132.通常池化操作的效果是:A、使圖片變大B、使圖片變小C、使圖片變成三角形D、使圖片變成圓形【正確答案】:B解析:
池化操作的作用是下采樣133.關(guān)于語言建模任務(wù),以下描述不正確的是:A、語言建模任務(wù)指的是給定前一個單詞去預(yù)測文本中的下一個單詞。B、可能是比較簡單的語言處理任務(wù),具體的實際應(yīng)用場景包括:智能鍵盤、電子郵件回復(fù)建議、拼寫自動更正等。C、比較經(jīng)典的方法基于n-grams。D、不可使用平滑處理不可見的n-grams?!菊_答案】:D134.訓(xùn)練平臺宜使用()硬盤作為訓(xùn)練樣本集的大容量緩存。A、機(jī)械B、固態(tài)C、SASD、SATA【正確答案】:B解析:
主要應(yīng)用135.下列選項中,屬于圖像識別技術(shù)應(yīng)用的是()A、人臉識別支付B、編寫word文檔C、制作多媒體D、制作ppt【正確答案】:A136.TF-IDF模型中,TF意思是詞頻,IDF意思是()。A、文本頻率指數(shù)B、C、逆文本頻率指數(shù)D、詞頻指數(shù)E、逆詞頻指數(shù)【正確答案】:B解析:
常見的圖像預(yù)處理方法不包括圖像標(biāo)注。137.對線性回歸模型進(jìn)行性能評估時,以下說法正確的是A、均方根誤差接近1最好B、均方根誤差越大越好C、決定系數(shù)越接近1越好D、決定系數(shù)越接近0越好【正確答案】:C138.下列關(guān)于深度學(xué)習(xí)說法錯誤的是A、LSTM在一定程度上解決了傳統(tǒng)RNN梯度消失或梯度爆炸的問題B、CNN相比于全連接的優(yōu)勢之一是模型復(fù)雜度低,緩解過擬合C、只要參數(shù)設(shè)置合理,深度學(xué)習(xí)的效果至少應(yīng)優(yōu)于隨機(jī)算法D、隨機(jī)梯度下降法可以緩解網(wǎng)絡(luò)訓(xùn)練過程中陷入鞍點的問題【正確答案】:C解析:
相同超參數(shù)數(shù)量情況下,比起自適應(yīng)的學(xué)習(xí)率調(diào)整方式,SGD加手動調(diào)節(jié)通常會取得更好效果139.下列選項中,是合頁損失函數(shù)的是()。A、exp(yf(x))B、[1-yf(x)]_+C、log[1+exp(-yf(x))D、exp(-yf(x))【正確答案】:B解析:
EM算法通過迭代求L(theta)=logP(Y|theta)的極大似然估計,每次迭代交替進(jìn)行求期望和求極大化。140.關(guān)于貝葉斯網(wǎng)描述錯誤的是(___)A、也稱為信念網(wǎng);B、借助有向無環(huán)圖刻畫屬性之間的關(guān)系;C、借助無向無環(huán)圖刻畫屬性之間的關(guān)系;D、用條件概率表來描述屬性的聯(lián)合概率分布;【正確答案】:C解析:
見算法解析141.以下兩種描述分別對應(yīng)哪兩種對分類算法的評價標(biāo)準(zhǔn)?
(a)警察抓小偷,描述警察抓的人中有多少個是小偷的標(biāo)準(zhǔn)。
(b)描述有多少比例的小偷給警察抓了的標(biāo)準(zhǔn)。A、Precision,RecallB、Recall,PrecisionC、Precision,ROCD、Recall,ROC【正確答案】:A解析:
關(guān)聯(lián)規(guī)則就是有關(guān)聯(lián)的規(guī)則,形式是這樣定義的:兩個不相交的非空集合X、Y,如果有X→Y,就說X→Y是一條關(guān)聯(lián)規(guī)則。在題目的例子中,我們發(fā)現(xiàn)購買啤酒就一定會購買尿布,{啤酒}→{尿布}就是一條關(guān)聯(lián)規(guī)則。142.下面有關(guān)分類算法的準(zhǔn)確率,召回率,F(xiàn)1值的描述,錯誤的是?()A、準(zhǔn)確率是檢索出相關(guān)文檔數(shù)與檢索出的文檔總數(shù)的比率,衡量的是檢索系統(tǒng)的查準(zhǔn)率B、召回率是指檢索出的相關(guān)文檔數(shù)和文檔庫中所有的相關(guān)文檔數(shù)的比率,衡量的是檢索系統(tǒng)的查全率C、正確率、召回率和F值取值都在0和1之間,數(shù)值越接近0,查準(zhǔn)率或查全率就越高D、為了解決準(zhǔn)確率和召回率沖突問題,引入了F1值【正確答案】:C解析:
見算法解析143.人工智能的快速發(fā)展推動數(shù)據(jù)規(guī)模不斷提升。據(jù)IDC測算,2025年全球數(shù)據(jù)規(guī)模將達(dá)到163(),其中80%-90%是非結(jié)構(gòu)化數(shù)據(jù)。A、PBB、EBC、ZBD、YB【正確答案】:C144.卷積神經(jīng)網(wǎng)絡(luò)(convolu-tionalneuralnetwork,CNN),是一種專門用來處理具有類似()的數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。A、網(wǎng)格結(jié)構(gòu)B、數(shù)組結(jié)構(gòu)C、序列結(jié)構(gòu)D、表格結(jié)構(gòu)【正確答案】:A解析:
Transformer中拋棄了傳統(tǒng)的CNN和RNN,整個網(wǎng)絡(luò)結(jié)構(gòu)完全是由Attention機(jī)制組成。145.ROIAlign在哪個模型被采用()A、fastRCNNB、fasterRCNNC、maskRCNND、YOLOv3【正確答案】:C解析:
fasterRCNN用于生成候選框proposal的模塊是RPN146.下列哪個選項中的模型屬于集成學(xué)習(xí)()A、C4.5B、kNN分類C、AdaboostD、k-means【正確答案】:C解析:
對于線性可分的數(shù)據(jù),支持向量機(jī)的解決方式是硬間隔147.平臺中人工智能算法在支撐業(yè)務(wù)應(yīng)用時,應(yīng)充分考慮算法計算精度突然降低、計算結(jié)果出錯、計算結(jié)果超時等狀況下對()造成的不利影響。A、業(yè)務(wù)系統(tǒng)B、網(wǎng)站C、電力系統(tǒng)D、業(yè)務(wù)流程【正確答案】:A解析:
主要應(yīng)用148.常見的圖像預(yù)處理方法不包括(____)。A、圖像降噪B、圖像增強(qiáng)C、圖像尺寸歸一化D、圖像標(biāo)注【正確答案】:D解析:
將一副圖像進(jìn)行分割后,分割出的區(qū)域彼此之間不可以重疊。149.()技術(shù)助力人工智能數(shù)據(jù)安全可信地進(jìn)行協(xié)作。A、量子計算B、隱私計算C、數(shù)字孿生D、數(shù)據(jù)加密【正確答案】:B解析:
人工智能系統(tǒng)穩(wěn)定性技術(shù)重點逐步從數(shù)字域擴(kuò)展到物理域。150.VGG模型于2014年被提出,是最流行的()模型之一,在ImageNet比賽中,達(dá)到了Top5錯誤率7.3%。A、CNNB、KNNC、RNNDNN【正確答案】:A解析:
如果強(qiáng)行限制輸出層的分布是標(biāo)準(zhǔn)化的,可能會導(dǎo)致某些特征模式的丟失,所以在標(biāo)準(zhǔn)化之后,BatchNorm會緊接著對數(shù)據(jù)做縮放和平移151.在神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程中,學(xué)習(xí)率過大,會導(dǎo)致以下什么結(jié)果?A、神經(jīng)網(wǎng)絡(luò)很快收斂B、神經(jīng)網(wǎng)絡(luò)精度提升C、神經(jīng)網(wǎng)絡(luò)難于收斂D、神經(jīng)網(wǎng)絡(luò)精度降低【正確答案】:C152.第一個擊敗人類職業(yè)圍棋選手、第一個戰(zhàn)勝世界圍棋冠軍的人工智能機(jī)器人是由谷歌公司開發(fā)的()。AlphaGoB、AlphaGoodC、AlphaFunD、Alpha【正確答案】:A153.()的核心訓(xùn)練信號是圖片的“可區(qū)分性”。模型需要區(qū)分兩個輸入是來自于同一圖片的不同視角,還是來自完全不同的兩張圖片。A、對比學(xué)習(xí)B、強(qiáng)化學(xué)習(xí)C、遷移學(xué)習(xí)D、深度學(xué)習(xí)【正確答案】:A解析:
圖像數(shù)字化分為兩個步驟:一為取樣,二為量化。154.人工智能產(chǎn)業(yè)鏈條主要包括:基礎(chǔ)技術(shù)支撐、()、人工智能應(yīng)用。A、智能平臺建設(shè)B、大數(shù)據(jù)平臺C、互聯(lián)網(wǎng)應(yīng)用D、人工智能技術(shù)【正確答案】:D155.()城市大腦目前已在杭州、蘇州、上海、衢州、澳門、馬來西亞等城市和國家落地,覆蓋交通、平安、市政建設(shè)、城市規(guī)劃等領(lǐng)域,是目前全球最大規(guī)模的人工智能公共系統(tǒng)之一。A、浪潮云B、華為云C、阿里云D、海爾云【正確答案】:C解析:
語音是一種典型的無結(jié)構(gòu)序列數(shù)據(jù)。156.欠擬合會出現(xiàn)高()問題A、標(biāo)準(zhǔn)差B、方差C、偏差D、平方差【正確答案】:C解析:
過擬合會出現(xiàn)高方差問題157.()為每位基層員工配置專屬的寫作模板,通過自動化獲取專業(yè)管理和生產(chǎn)數(shù)據(jù),讓機(jī)器自主完成文章創(chuàng)作,過程無需人工干預(yù),大大提高了結(jié)構(gòu)化文檔的產(chǎn)出效率。A、智能寫作B、智慧寫作C、人工寫作D、AI寫作【正確答案】:A解析:
國網(wǎng)95598客戶服務(wù)從人工模式逐漸轉(zhuǎn)變?yōu)橹悄芑J剑夥胖貜?fù)機(jī)械化的人力勞動,進(jìn)一步改善客戶服務(wù)體驗。158.用搜索法對問題求解時,一個問題可以形式化地定義為四個組成部分,即:智能體的初始狀態(tài)、后繼函數(shù)、目標(biāo)測試和()A、功率B、路徑代價C、算法D、完備性【正確答案】:B159.據(jù)評估,2020年超過60%的人工智能應(yīng)用程序在()上運(yùn)行。A、開源平臺B、非開源平臺C、網(wǎng)絡(luò)平臺D、網(wǎng)絡(luò)平臺【正確答案】:A解析:
循環(huán)神經(jīng)網(wǎng)絡(luò)具有記憶性、參數(shù)共享并且圖靈完備,因此在對序列的非線性特征進(jìn)行學(xué)習(xí)時具有一定優(yōu)勢
。循環(huán)神經(jīng)網(wǎng)絡(luò)在自然語言處理(,例如語音識別、語言建模、機(jī)器翻譯等領(lǐng)域有應(yīng)用,也被用于各類時間序列預(yù)報160.隱馬爾可夫模型(HMM)是結(jié)構(gòu)最簡單的動態(tài)貝葉斯網(wǎng)絡(luò),是一種著名的()模型。A、無向圖B、雙向圖C、有向圖D、單向圖【正確答案】:C解析:
歐氏距離可用于任何空間的距離計算問題。因為,數(shù)據(jù)點可以存在于任何空間,歐氏距離是更可行的選擇。161.人工智能領(lǐng)域通常所指的模式識別主要是對語音波形、地震波、心電圖、腦電圖、圖片、照片、文字、符號、生物傳感器等對象的具體模式進(jìn)行()A、分類和計算B、清洗和處理C、辨識和分類D、存儲和利用【正確答案】:C162.交叉驗證法將數(shù)據(jù)集劃分為k個大小相似的互斥子集,進(jìn)行(___)次訓(xùn)練和測試。A、k+1B、kC、k-1D、k-2【正確答案】:B解析:
見算法解析163.以下技術(shù)中,不屬于人工智能技術(shù)的是()。A、自動計算,通過編程計算456*457*458*459的值B、文字識別,如通過OCR快速獲得的圖像中出漢字,保存為文本C、語音輸入,通過話筒將講話內(nèi)容轉(zhuǎn)成文本D、麥克風(fēng)陣列,如利用靈云該技術(shù)實現(xiàn)遠(yuǎn)場語音交互的電視【正確答案】:A164.一條規(guī)則形如:,其中“←"左邊的部分稱為(___)A、規(guī)則長度B、規(guī)則頭C、布爾表達(dá)式D、規(guī)則體【正確答案】:B解析:
見算法解析165.下面的問題,哪一個屬于分類問題的是()A、根據(jù)員工的薪水、工作壓力、成長環(huán)境、工作年限、績效考核等數(shù)據(jù),預(yù)測員工下一季度的銷售額B、根據(jù)員工的薪水、工作壓力、成長環(huán)境、工作年限、績效考核等數(shù)據(jù),預(yù)測員工下一季度的績效考核分?jǐn)?shù)C、根據(jù)員工的薪水、工作壓力、成長環(huán)境、工作年限、績效考核等數(shù)據(jù),預(yù)測員工在接下來一段時間內(nèi)的工資漲幅D、根據(jù)員工的薪水、工作壓力、成長環(huán)境、工作年限、績效考核等數(shù)據(jù),預(yù)測員工是否可能會在接下來的一段時間內(nèi)離職【正確答案】:D166.下列哪一項屬于特征學(xué)習(xí)算法(representationlearningalgorithm)?A、K近鄰算法B、隨機(jī)森林C、神經(jīng)網(wǎng)絡(luò)D、都不屬于【正確答案】:C解析:
廣度優(yōu)先搜索會根據(jù)離起點的距離,按照從近到遠(yuǎn)的順序?qū)Ω鞴?jié)點進(jìn)行搜索。而深度優(yōu)先搜索會沿著一條路徑不斷往下搜索直到不能再繼續(xù)為止,然后再折返,開始搜索下一條路徑。廣度優(yōu)先搜索可以找出節(jié)點的最短路徑,即可以解決最短路徑問題。有界深度優(yōu)先搜索為了解決深度有限搜索誤入無窮分支,定出一個深度界限,在找尋達(dá)到這一深度界限而且還沒有找到目標(biāo)時,即返回重找。啟發(fā)式搜索是利用問題擁有的啟發(fā)信息來引導(dǎo)搜索,達(dá)到減少搜索范圍、降低問題復(fù)雜度的目的,可以消除組合爆炸,并得到令人能接受的解(通常并不一定是最佳解)。所以如果存在最優(yōu)解,廣度優(yōu)先搜索必然可以得到最優(yōu)解,答案選A167.過擬合會出現(xiàn)高()問題A、標(biāo)準(zhǔn)差B、方差C、偏差D、平方差【正確答案】:B解析:
方差反映的是模型每一次輸出結(jié)果與模型輸出期望之間的誤差,即模型的穩(wěn)定性。反應(yīng)預(yù)測的波動情況。168.以下哪個關(guān)于監(jiān)督式學(xué)習(xí)的說法是正確的?A、決策樹是一種監(jiān)督式學(xué)習(xí)B、監(jiān)督式學(xué)習(xí)不可以使用交叉驗證進(jìn)行訓(xùn)練C、監(jiān)督式學(xué)習(xí)是一種基于規(guī)則的算法D、監(jiān)督式學(xué)習(xí)不需要標(biāo)簽就可以訓(xùn)練【正確答案】:A169.語言不僅僅是句法問題,更是()的問題。A、音韻B、語法C、邏輯D、結(jié)構(gòu)【正確答案】:A解析:
說話人確認(rèn)(SpeakerVerification),是用以確認(rèn)某段語音是否是指定的某個人所說的,是“一對一”判別問題170.輸入圖片大小為200×200,依次經(jīng)過一層卷積(kernelsize5×5,padding1,stride2),pooling(kernelsize3×3,padding0,stride1),又一層卷積(kernelsize3×3,padding1,stride1)之后,輸出特征圖大小為?A、95B、96C、97D、$98【正確答案】:C解析:
每個神經(jīng)元可以有一個或多個輸入,和一個或多個輸出。如圖所示的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)中,隱藏層的每一個神經(jīng)元都是多輸入多輸出。若將輸出層改為一個神經(jīng)元,則隱藏層每個神經(jīng)元都是一個輸出;若將輸入層改為一個神經(jīng)元,則隱藏層每個神經(jīng)元都是一個輸入。171.下列關(guān)于特征選擇的說法錯誤的是(___)A、可以提高特征關(guān)聯(lián)性B、可以減輕維數(shù)災(zāi)難問題C、可以降低學(xué)習(xí)任務(wù)的難度D、特征選擇和降維具有相似的動機(jī)【正確答案】:A解析:
見算法解析172.關(guān)于主成分分析PCA說法不正確的是A、我們必須在使用PCA前規(guī)范化數(shù)據(jù)B、我們應(yīng)該選擇使得模型有最大variance的主成分C、我們應(yīng)該選擇使得模型有最小variance的主成分D、我們可以使用PCA在低緯度上做數(shù)據(jù)可視化【正確答案】:C173.機(jī)器學(xué)習(xí)研究如何通過計算的手段,利用經(jīng)驗來改善系統(tǒng)自身的性能,請問機(jī)器學(xué)習(xí)利用數(shù)據(jù)訓(xùn)練出什么?A、模型B、表結(jié)構(gòu)C、結(jié)果D、報表【正確答案】:A174.正則化是為了什么?()A、最小化錯誤率B、正規(guī)化C、防止過擬合D、最大化過擬合【正確答案】:C解析:
在其他條件不變的前提下,以下做法容易引起機(jī)器學(xué)習(xí)中的“過擬合”問題的是SVM算法中使用高斯核/RBF核代替線性核。175.(___)是在一個數(shù)據(jù)集上對多個算法進(jìn)行比較。A、t檢驗B、交叉驗證t檢驗C、Friedman檢驗D、McNemar檢驗【正確答案】:C解析:
見算法解析176.在深度學(xué)習(xí)網(wǎng)絡(luò)中,反向傳播算法用于尋求最優(yōu)參數(shù),在反向傳播算法中使用的什么法則進(jìn)行逐層求導(dǎo)的?A、鏈?zhǔn)椒▌tB、累加法則C、對等法則D、歸一法則【正確答案】:A177.下列選項中,不屬于生物特征識別技術(shù)的是()。A、步態(tài)識別B、聲紋識別C、文本識別D、虹膜識別【正確答案】:C178.關(guān)于線性回歸的描述,以下說法正確的有()A、基本假設(shè)包括隨機(jī)干擾項是均值為0,方差為1的標(biāo)準(zhǔn)正態(tài)分布B、基本假設(shè)包括隨機(jī)干擾項是均值為0的同方差正態(tài)分布C、多重共線性會使得參數(shù)估計值方差減小D、基本假設(shè)包括不服從正態(tài)分布的隨機(jī)干擾項【正確答案】:B解析:
在人臉檢測算法中,不屬于該算法難點的是需要檢測不同性別的人臉179.習(xí)近平總書記多次作出重要指示,強(qiáng)調(diào)“要深入把握新一代()發(fā)展的特點,加強(qiáng)人工智能和產(chǎn)業(yè)發(fā)展融合,為高質(zhì)量發(fā)展提供新動能”。A、深度學(xué)習(xí)B、人工智能C、機(jī)器學(xué)習(xí)D、神經(jīng)網(wǎng)絡(luò)【正確答案】:B180.YOLOv3網(wǎng)格數(shù)為輸出特征圖[N,C,H,W]的()A、CB、C*HC、H*WD、nan【正確答案】:C解析:
見算法解析181.()是一種基于樹結(jié)構(gòu)進(jìn)行決策的算法。A、軌跡跟蹤B、決策樹C、數(shù)據(jù)挖掘D、K近鄰算法【正確答案】:B解析:
傳統(tǒng)GBDT以CART作為基分類器182.圖像數(shù)字化分為兩個步驟:一為取樣,二為()。A、數(shù)字化B、量化C、去噪聲D、清洗【正確答案】:B解析:
圖計算中圖數(shù)據(jù)往往是非結(jié)構(gòu)化和不規(guī)則的,在利用分布式框架進(jìn)行圖計算時,首先需要對圖進(jìn)行劃分,將負(fù)載分配到各個節(jié)點上183.智慧城市的應(yīng)用體系,不包括智慧()體系。A、物流B、制造%C、軍工D、公共服務(wù)【正確答案】:C184.Python被廣泛用于人工智能程序的開發(fā),以下哪個庫實現(xiàn)了機(jī)器學(xué)習(xí)的經(jīng)典算法?A、numpyB、sclpyC、matplotiibD、skleam【正確答案】:D185.循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrentneuralnetwork,RNN),是一種用于處理具有類似()的數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。A、網(wǎng)格結(jié)構(gòu)B、數(shù)組結(jié)構(gòu)C、序列結(jié)構(gòu)D、表格結(jié)構(gòu)【正確答案】:C解析:
卷積神經(jīng)網(wǎng)絡(luò)(convolu-tionalneuralnetwork,CNN),是一種專門用來處理具有類似()的數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。186.關(guān)于線性回歸的描述,以下正確的有()A、基本假設(shè)包括隨機(jī)干擾項是均值為0,方差為1的標(biāo)準(zhǔn)正態(tài)分布B、基本假設(shè)包括隨機(jī)干擾項是均值為0的同方差正態(tài)分布C、多重共線性會使得參數(shù)估計值方差減小D、基本假設(shè)包括不服從正態(tài)分布的隨機(jī)干擾項【正確答案】:B解析:
知識圖譜構(gòu)建的不太利用詞性標(biāo)注187.目前,()技術(shù)被廣泛應(yīng)用于智能寫作、代碼生成、有聲閱讀、新聞播報、語音導(dǎo)航、影像修復(fù)等領(lǐng)域,通過機(jī)器自動合成文本、語音、圖像、視頻等正在推動互聯(lián)網(wǎng)數(shù)字內(nèi)容生產(chǎn)的變革。A、計算式人工智能B、生成式人工智能C、分析式人工智能D、決策式人工智能【正確答案】:B188.邏輯回歸的損失函數(shù)是下列哪一種?()A、平方損失函數(shù)B、對數(shù)損失函數(shù)C、HingeLoss0-1損失函數(shù)D、絕對值損失函數(shù)【正確答案】:B189.命名實體識別任務(wù)是識別出人名、地名和組織機(jī)構(gòu)名這三類命名實體,如果用1來標(biāo)注人名,0標(biāo)注其他,那么“HarryPotterandHermioneGrangerinventedanewspell”這句話中,Potter、and這兩個單詞應(yīng)該標(biāo)注為:A、0,1B、1,1C、1,0D、0,0【正確答案】:C解析:
自然語言中的詞語需要轉(zhuǎn)化為計算機(jī)可以記錄處理的數(shù)據(jù)結(jié)構(gòu),通常會把自然語言中的詞語轉(zhuǎn)化為向量。190.卷積層是深度神經(jīng)網(wǎng)絡(luò)的主要結(jié)構(gòu)之一,已經(jīng)在大量任務(wù)中用到,下面哪一個任務(wù)的主流方法中沒有用到卷積層A、為圖像自動生成描述標(biāo)題&B、&中英文互譯&C、&中文分詞&D、&場景文字檢測【正確答案】:C解析:
主要應(yīng)用191.以下CNN模型中,最早識別手寫數(shù)字的是A、LeNet-5B、AlexNetC、ResNet50D、ResNet152【正確答案】:A192.將一副圖像進(jìn)行分割后,分割出的區(qū)域彼此之間(____)重疊。A、可以B、不可以C、根據(jù)任務(wù)需要確定是否可以D、根據(jù)分割方法確定是否可以【正確答案】:B解析:
數(shù)字圖像處理中的()技術(shù)可應(yīng)用于機(jī)動車車牌識別系統(tǒng)。193.假設(shè)我們已經(jīng)在ImageNet數(shù)據(jù)集(物體識別)上訓(xùn)練好了一個卷積神經(jīng)網(wǎng)絡(luò)。然后給這張卷積神經(jīng)網(wǎng)絡(luò)輸入一張全白的圖片。對于這個輸入的輸出結(jié)果為任何種類的物體的可能性都是一樣的,對嗎?A、對的B、不知道C、看情況D、不對【正確答案】:D194.現(xiàn)在有某個軟件需要在特定場景下的門禁系統(tǒng)進(jìn)行識別照片來判斷照片中人物的男女性別,目前通過各種渠道和方法采集了10w張人臉圖片。那么()是更為合理的A、采集的照片訓(xùn)練集用7w張,測試集3w張B、全都用來訓(xùn)識別模型最好C、采集的照片訓(xùn)練集用7w張,驗證集1w張,測試集2w張D、不需要訓(xùn)練啊,收集這么多數(shù)據(jù)是多余和浪費(fèi)的【正確答案】:C195.一條規(guī)則形如:,其中“←"右邊的部分稱為(___)A、規(guī)則長度B、規(guī)則頭C、布爾表達(dá)式D、規(guī)則體【正確答案】:D解析:
見算法解析196.下列哪些屬于循環(huán)神經(jīng)網(wǎng)絡(luò)()A、LeNetB、GoogleNetC、Bi-LSTMD、BERT【正確答案】:C解析:
在處理序列數(shù)據(jù)時,較容易出現(xiàn)梯度消失現(xiàn)象的模型是RNN197.在大規(guī)模的語料中,挖掘詞的相關(guān)性是一個重要的問題。以下哪一個信息不能用于確定兩個詞的相關(guān)性。()A、互信息B、最大熵C、卡方檢驗D、最大似然比【正確答案】:B198.人工智能平臺架構(gòu)及技術(shù)要求第1部分總體架構(gòu)與技術(shù)要求編制的主要目的是指導(dǎo)公司人工智能平臺(),明確人工智能平臺總體架構(gòu)與技術(shù)要求。A、設(shè)計B、運(yùn)行C、規(guī)劃D、建設(shè)【正確答案】:D解析:
主要應(yīng)用199.以下哪項是主要用于自然語言處理的網(wǎng)絡(luò)結(jié)構(gòu)()AlexNetB、ResNetC、BertD、LeNet【正確答案】:C解析:
線性回歸基本假設(shè)包括隨機(jī)干擾項是均值為0的同方差正態(tài)分布200.Inception模塊采用()的設(shè)計形式,每個支路使用()大小的卷積核。A、多通路,不同B、單通路,不同C、多通路,相同D、單通路,相同【正確答案】:A解析:
衡量模型預(yù)測值和真實值差距的評價函數(shù)被稱為損失函數(shù)201.下列哪個應(yīng)用領(lǐng)域不屬于人工智能應(yīng)用?A、人工神經(jīng)網(wǎng)絡(luò)B、自動控制C、自然語言學(xué)習(xí)D、專家系統(tǒng)【正確答案】:B解析:
生物特征識別技術(shù),是指通過計算機(jī)利用人體所固有的生理特征(指紋、虹膜、面相、DNA等)或行為特征(步態(tài)、擊鍵習(xí)慣等)來進(jìn)行個人身份鑒定的技術(shù)。步態(tài)識別、人臉識別、虹膜識別運(yùn)用的都是生物特征,文本識別不屬于生物特征識別。答案選C202.為了將特征轉(zhuǎn)變成Embedding表示,所有特征均需轉(zhuǎn)變成()A、數(shù)字B、字符C、符號D、英文【正確答案】:A解析:
DSSM模型的結(jié)構(gòu)是雙塔203.強(qiáng)化學(xué)習(xí)的基礎(chǔ)模型是()模型A、馬可夫決策B、貝葉斯C、HMMD、最大后驗概率【正確答案】:A解析:
見算法解析204.造成自然語言處理困難的根本原因是自然語言文本和對話的各個層次上廣泛存在的各種合樣的()A、一致性或統(tǒng)一性B、復(fù)雜性或重復(fù)性C、歧義性或多義性D、一致性或多義性【正確答案】:C205.如果問題存在最優(yōu)解,則下面幾種搜索算法中,哪一個必然可以得到該最優(yōu)解A、廣度優(yōu)先搜索B、深度優(yōu)先搜索C、有界深度優(yōu)先搜索D、啟發(fā)式搜索【正確答案】:A解析:
產(chǎn)生式系統(tǒng)的推理包括正向、逆向、雙向推理206.對于圖像數(shù)據(jù),通常使用的模型是A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、卷積神經(jīng)網(wǎng)絡(luò)C、word2vecD、bert【正確答案】:B207.樣本庫功能要求為:數(shù)據(jù)接入包括()文件導(dǎo)入、HDFS數(shù)據(jù)導(dǎo)入、FTP文件導(dǎo)入、NFS數(shù)據(jù)導(dǎo)入和數(shù)據(jù)庫數(shù)據(jù)導(dǎo)入。A、遠(yuǎn)程B、本地C、云端D、SAMBA【正確答案】:B解析:
主要應(yīng)用208.對于圖像識別問題(比如識別照片中的貓),神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)更適合解決哪類問題?A、多層感知器B、卷積神經(jīng)網(wǎng)絡(luò)C、循環(huán)神經(jīng)網(wǎng)絡(luò)D、感知器【正確答案】:B209.FPN中根據(jù)ROI的()來分配所屬層級?A、分類分?jǐn)?shù)B、最大邊長度C、面積D、nan【正確答案】:C解析:
見算法解析210.()控制著整個LSTM單元的狀態(tài)或者記憶,它會根據(jù)每個時刻的輸入進(jìn)行更新。A、隱狀態(tài)向量B、狀態(tài)向量C、顯狀態(tài)向量D、以上都不對【正確答案】:B解析:
使用一個滑動窗口對語料從左到右掃描,在每個窗口內(nèi),中心詞需要預(yù)測它的上下文,并形成訓(xùn)練數(shù)據(jù)211.對于線性不可分的數(shù)據(jù),支持向量機(jī)的解決方式是A、軟間隔B、硬間隔C、核函數(shù)D、以上選項均不正確【正確答案】:C212.對比學(xué)習(xí)的核心訓(xùn)練信號是圖片的“()”。A、可預(yù)見性B、可移植性C、可區(qū)分性D、可推理性【正確答案】:C解析:
Google與Facebook分別提出SimCLR與MoCo兩個算法,實現(xiàn)在無標(biāo)注數(shù)據(jù)上學(xué)習(xí)圖像數(shù)據(jù)表征。兩個算法背后的框架都是對比學(xué)習(xí)(contrastivelearning)213.詞向量是表示自然語言里單詞的一種方法,即把每個詞都表示為一個N維空間內(nèi)的()。A、線段B、平面C、點D、線【正確答案】:C解析:
見算法解析214.考慮以下問題:假設(shè)我們有一個5層的神經(jīng)網(wǎng)絡(luò),這個神經(jīng)網(wǎng)絡(luò)在使用一個4GB顯存顯卡時需要花費(fèi)3個小時來完成訓(xùn)練。而在測試過程中,單個數(shù)據(jù)需要花費(fèi)2秒的時間。如果我們現(xiàn)在把架構(gòu)變換一下,當(dāng)評分是0.2和0.3時,分別在第2層和第4層添加Dropout,那么新架構(gòu)的測試所用時間會變?yōu)槎嗌??A、少于2sB、大于2sC、仍是2sD、說不準(zhǔn)【正確答案】:C215.說話人確認(rèn)(SpeakerVerification),是用以確認(rèn)某段語音是否是指定的某個人所說的,是“____”問題A、多選一B、一對一C、多對多【正確答案】:B解析:
說話人辨認(rèn)(SpeakerIdentification),是用以判斷某段語音是若干人中的哪一個所說的技術(shù),是“多選一”問題216.模型出現(xiàn)過擬合,以下何種措施無法降低過擬合現(xiàn)象A、添加正則化項B、降低模型復(fù)雜度C、減少訓(xùn)練數(shù)據(jù)量D、使用Dropout【正確答案】:C解析:
BineryCrossEntropy可作為二分類問題的loss函數(shù)217.以下關(guān)于標(biāo)準(zhǔn)RNN模型,說法正確的是?A、不存在一對一的模型結(jié)構(gòu)B、反向傳播時不考慮時間方向C、不存在多對多的模型結(jié)構(gòu)D、會出現(xiàn)長時間傳輸記憶的信息衰減的問題【正確答案】:D218.LSTM用于文本分類的任務(wù)中,不會出現(xiàn)的網(wǎng)絡(luò)層是A、全連接B、詞嵌入層C、卷積層D、以上選項均不正確【正確答案】:C219.關(guān)于學(xué)習(xí)率初始值設(shè)定描述正確的是()A、學(xué)習(xí)率是網(wǎng)絡(luò)自己學(xué)習(xí)得到的B、學(xué)習(xí)率不同場景是相同的C、學(xué)習(xí)率是根據(jù)不同場景,人為設(shè)定的D、學(xué)習(xí)率不是人為設(shè)定的【正確答案】:C解析:
softmax函數(shù)一般用在多分類問題中,它是對邏輯斯蒂回歸logistic的一種推廣,也被稱為多項式邏輯斯蒂回歸模型。220.Inception模塊可以并行執(zhí)行多個具有不同尺度的卷積運(yùn)算或池化操作,下列網(wǎng)絡(luò)運(yùn)用Inception的是()A、VGGB、GoogLeNetC、fast-RCNND、faster-RCNN【正確答案】:B解析:
通常情況下,CNN網(wǎng)絡(luò)中,全連接消耗內(nèi)存較大221.A*搜索算法何時是最優(yōu)的?()A、到目標(biāo)結(jié)點的耗散是一個可采納啟發(fā)式B、到目標(biāo)結(jié)點的耗散可任意選擇C、不存在求解問題的最優(yōu)的a*搜索算法D、以上描述都不對【正確答案】:A222.自然語言處理機(jī)制涉及兩個流程,其中,()是指計算機(jī)能夠理解自然語言文本的意義。A、自然語言理解B、自然語言處理C、自然語言輸入D、自然語言生成【正確答案】:A223.在CNN構(gòu)建中,指定每次訓(xùn)練或驗證數(shù)據(jù)集圖片多少的變量為()。A、reluB、batchC、stepD、padding【正確答案】:B解析:
在CNN中,梯度下降法的作用是求函數(shù)最小值。224.人工智能的近期目標(biāo)是A、實現(xiàn)機(jī)器智能B、實現(xiàn)自我學(xué)習(xí)C、降低搭建成本D、超越人類【正確答案】:A225.說話人辨認(rèn)(SpeakerIdentification),是用以判斷某段語音是若干人中的哪一個所說的技術(shù),是“____”問題A、多選一B、一對一C、多對多【正確答案】:A226.計算機(jī)中存儲的圖像是()A、模擬圖像B、數(shù)字圖像C、黑白圖像D、彩色圖像【正確答案】:B227.以下程序的輸出是()?array=np.array([[1,2,3],[4,5,6],[7,8,9],[10,11,12]]);print(array.shape)A、(4,3)B、(3,4)C、3D、$4【正確答案】:A解析:
見算法解析228.自動識別系統(tǒng)屬于人工智能哪個應(yīng)用領(lǐng)域?()A、自然語言系統(tǒng)B、機(jī)器學(xué)習(xí)C、專家系統(tǒng)D、人類感官模擬【正確答案】:D229.元宇宙本質(zhì)上是對現(xiàn)實世界的虛擬化、數(shù)字化過程,它基于()生成現(xiàn)實世界的鏡像。A、擴(kuò)展現(xiàn)實技術(shù)B、區(qū)塊鏈技術(shù)C、數(shù)字孿生技術(shù)D、云計算【正確答案】:C230.在前饋神經(jīng)網(wǎng)絡(luò)中,誤差后向傳播(BP算法)將誤差從輸出端向輸入端進(jìn)行傳輸?shù)倪^程中,算法會調(diào)整前饋神經(jīng)網(wǎng)絡(luò)的什么參數(shù)A、輸入數(shù)據(jù)大小B、神經(jīng)元和神經(jīng)元之間連接有無C、相鄰層神經(jīng)元和神經(jīng)元之間的連接權(quán)重D、同一層神經(jīng)元之間的連接權(quán)重【正確答案】:C231.下列可以用于聚類問題的機(jī)器學(xué)習(xí)算法有()A、決策樹B、k-meansC、隨機(jī)森林D、邏輯回歸【正確答案】:B232.在卷積神經(jīng)網(wǎng)絡(luò)中,要求輸入尺寸必須固定的層是?A、卷積層B、全連接層C、池化層D、以上都不是【正確答案】:B233.在處理序列數(shù)據(jù)時,較容易出現(xiàn)梯度消失現(xiàn)象的深度學(xué)習(xí)模型是()A、CNNB、LSTMC、GRUD、RNN【正確答案】:D解析:
數(shù)據(jù)預(yù)處理的主要步驟分為:數(shù)據(jù)清理、數(shù)據(jù)集成、數(shù)據(jù)規(guī)約和數(shù)據(jù)變換。234.模型庫功能要求為:模型測試包括模型部署、()測試和服務(wù)管理,模型測試服務(wù)發(fā)布應(yīng)支持向?qū)J?,宜支持一鍵自動發(fā)布測試服務(wù),模型測試服務(wù)宜支持單卡內(nèi)存級分配。A、在線B、離線C、自動D、手動【正確答案】:A解析:
主要應(yīng)用235.在主成分分析中,將幾個主分量經(jīng)過線性組合構(gòu)造為一個綜合評價函數(shù)時,每個主分量的權(quán)數(shù)為()。A、每個主分量的方差B、每個主分量的標(biāo)準(zhǔn)差C、每個主分量的方差貢獻(xiàn)率D、每個主分量的貢獻(xiàn)率【正確答案】:C解析:
在進(jìn)行主成分分析時,應(yīng)使第一主成分在總方差中所占的比重最大。236.如果我們希望預(yù)測n個類(p1,p2...pk)的概率使得所有n的p的和等于1,那么下列哪個函數(shù)可以用作輸出層中的激活函數(shù)?A、SoftmaxB、ReLuC、SigmoidD、Tanh【正確答案】:A237.用戶有一種感興趣的模式并且希望在數(shù)據(jù)集中找到相似的模式,屬于數(shù)據(jù)挖掘哪一類任務(wù)?A、根據(jù)內(nèi)容檢索B、建模描述C、預(yù)測建模D、尋找模式和規(guī)則【正確答案】:A解析:
聚類是無監(jiān)督學(xué)習(xí)方法的一種,可以用來處理無標(biāo)簽的數(shù)據(jù)集。238.產(chǎn)生式系統(tǒng)的推理不包括()A、正向推理B、逆向推理C、雙向推理D、簡單推理【正確答案】:D239.在下列哪些應(yīng)用中,我們可以使用深度學(xué)習(xí)來解決問題?A、蛋白質(zhì)結(jié)構(gòu)預(yù)測B、化學(xué)反應(yīng)的預(yù)測C、外來粒子的檢測D、所有這些【正確答案】:D240.在CNN中,梯度下降法的作用是()。A、線性變換B、非線性變換C、求函數(shù)最小值D、加速訓(xùn)練【正確答案】:C解析:
hidden不是激活函數(shù)。241.以下哪個選項是目前利用大數(shù)據(jù)分析技術(shù)無法進(jìn)行有效支持的?A、新型病毒的分析判斷B、精確預(yù)測股票價格C、個人消費(fèi)習(xí)慣分析及預(yù)測D、天氣情況預(yù)測【正確答案】:B242.下列關(guān)于K-Means聚類說法錯誤的是()A、聚類的簇個數(shù)會由模型自動給出B、可以使用多組隨機(jī)的初始中心點進(jìn)行計算C、聚類前應(yīng)當(dāng)進(jìn)行維度分析D、聚類前應(yīng)當(dāng)進(jìn)行數(shù)據(jù)標(biāo)準(zhǔn)化【正確答案】:A解析:
Adaboost屬于集成學(xué)習(xí)243.下列____不是將主觀信息加入到模式發(fā)現(xiàn)任務(wù)中的方法。A、與同一時期其他數(shù)據(jù)對比B、可視化C、基于模板的方法D、主觀興趣度量【正確答案】:A244.使用一組槽來描述事件的發(fā)生序列,這種知識表示法叫做()A、語義網(wǎng)絡(luò)法B、過程表示法C、劇本表示法D、框架表示法【正確答案】:C245.在以下模型中,訓(xùn)練集不需要標(biāo)注信息的是()A、k-meansB、線性回歸C、神經(jīng)網(wǎng)絡(luò)D、決策樹【正確答案】:A解析:
scikit-learn用于訓(xùn)練模型的函數(shù)接口為fit()246.代碼arr1=np.array([[1,2,3],[4,5,6]]);arr2=2*np.ones([2,3],dtype=64);print((arr1*arr2)[1][2])的輸出結(jié)果是()?注:(已導(dǎo)入numpy庫)importnumpyasnpA、6B、8C、10D、$12【正確答案】:D解析:
見算法解析247.關(guān)于聚類說法錯誤的是()A、在無監(jiān)督學(xué)習(xí)任務(wù)中,研究最多、應(yīng)用最廣的是聚類B、聚類可作為一個單獨(dú)過程,用于找尋數(shù)據(jù)內(nèi)在的分布結(jié)構(gòu),但不能作為其他學(xué)習(xí)任務(wù)的前驅(qū)過程C、聚類分析的目標(biāo)是組內(nèi)的對象之間是相似的,不同組中的對象是不同的D、組內(nèi)的相似性越大,組間差別越大,聚類就越好【正確答案】:B解析:
根據(jù)個體學(xué)習(xí)器的生成方式,目前集成學(xué)習(xí)大致分為兩類,其中一種是個體學(xué)習(xí)器間存在強(qiáng)依賴關(guān)系、必須串行生成的序列化方法,該方法的代表是Boosting248.輸入圖片大小為200×200,依次經(jīng)過一層卷積(kernelsize5×5,padding1,stride2),pooling(kernelsize3×3,padding0,stride1),又一層卷積(kernelsize3×3,padding1,stride1)之后,輸出特征圖大小為A、95B、96C、97D、$98【正確答案】:C249.建立一個5000個特征,100萬數(shù)據(jù)的機(jī)器學(xué)習(xí)模型.我們怎么有效地應(yīng)對這樣的大數(shù)據(jù)訓(xùn)練:()。A、我們隨機(jī)抽取一些樣本,在這些少量樣本之上訓(xùn)練B、我們可以試用在線機(jī)器學(xué)習(xí)算法C、我們應(yīng)用PCA算法降維,減少特征數(shù)D、以上所有【正確答案】:D250.下面哪個敘述是對的?Dropout對一個神經(jīng)元隨機(jī)屏蔽輸入權(quán)重Dropconnect對一個神經(jīng)元隨機(jī)屏蔽輸入和輸出權(quán)重A、1是對的,2是錯的B、都是對的C、1是錯的,2是對的D、都是錯的【正確答案】:D251.下列哪個函數(shù)不可以做激活函數(shù)?A、y=tanh(x)B、y=sin(x)C、y=max(x,0)D、y=2x【正確答案】:D252.LSTM單元中引入了哪些門來更新當(dāng)前時刻的單元狀態(tài)向量?A、輸入門、遺忘門B、任意門、輸入門C、輸出門、任意門D、遺忘門、任意門【正確答案】:A解析:
LSTM是一種循環(huán)神經(jīng)網(wǎng)絡(luò)253.VGG網(wǎng)絡(luò)在深度學(xué)習(xí)發(fā)展過程中做出了重要貢獻(xiàn),下面關(guān)于VGG描述正確的是:A、VGG全部使用了3*3的卷積核和2*2的池化核B、VGG證明了網(wǎng)絡(luò)越深越好,所以程序員應(yīng)該沒有限制的搭建更深的網(wǎng)絡(luò)C、VGG是到目前為止分類效果最好的網(wǎng)絡(luò)結(jié)構(gòu)D、VGG沒有使用全連接網(wǎng)絡(luò)結(jié)構(gòu)【正確答案】:A解析:
“維數(shù)災(zāi)難”會帶來內(nèi)存、計算量巨大、訓(xùn)練困難等問題。254.機(jī)器視覺已在機(jī)器人裝配,衛(wèi)星圖像處理,()等很多領(lǐng)域取得了成功應(yīng)用。A、機(jī)器翻譯B、成像精確制導(dǎo)C、自動問答D、博弈問題【正確答案】:B255.以
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2023八年級數(shù)學(xué)上冊 第13章 全等三角形13.2三角形全等的判定 4角邊角說課稿 (新版)華東師大版
- 2024年四年級品社下冊《怎樣到達(dá)目的地》說課稿2 蘇教版
- 2025鋼質(zhì)門小型鋼結(jié)構(gòu)制作及安裝合同
- 2025個人電路出租合同書
- 2025公司經(jīng)理勞動合同
- 道路邊坡加固維修施工方案
- 交通圍欄銷售合同范本
- 農(nóng)業(yè)營銷合作合同范本
- 保溫鋼結(jié)構(gòu)合同范本
- Sara's Medicine(說課稿)-2023-2024學(xué)年麗聲北極星分級繪本四年級上(江蘇版)
- 2025年高考作文備考:議論文寫作的論證手法
- 2024年可行性研究報告投資估算及財務(wù)分析全套計算表格(含附表-帶只更改標(biāo)紅部分-操作簡單)
- 2024年廣州市黃埔區(qū)數(shù)學(xué)六上期末綜合測試模擬試題含解析
- 數(shù)獨(dú)6宮格300試題
- 24年注安-管理的題
- 2024至2030年中國心理咨詢行業(yè)市場預(yù)測與投資規(guī)劃分析報告
- 國際貿(mào)易地理 全套課件
- 廣西2024年高考物理模擬試卷及答案1
- GB/T 20878-2024不銹鋼牌號及化學(xué)成分
- 某房屋建筑工程監(jiān)理大綱
- 英語考綱詞匯表3500詞
評論
0/150
提交評論