版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
第頁人工智能單選練習(xí)試題附答案1.考慮以下問題:假設(shè)我們有一個(gè)5層的神經(jīng)網(wǎng)絡(luò),這個(gè)神經(jīng)網(wǎng)絡(luò)在使用一個(gè)4GB顯存顯卡時(shí)需要花費(fèi)3個(gè)小時(shí)來完成訓(xùn)練。而在測試過程中,單個(gè)數(shù)據(jù)需要花費(fèi)2秒的時(shí)間。如果我們現(xiàn)在把架構(gòu)變換一下,當(dāng)評(píng)分是0.2和0.3時(shí),分別在第2層和第4層添加Dropout,那么新架構(gòu)的測試所用時(shí)間會(huì)變?yōu)槎嗌??A、少于2sB、大于2sC、仍是2sD、說不準(zhǔn)【正確答案】:C2.半監(jiān)督學(xué)習(xí)包括(___)。A、純半監(jiān)督學(xué)習(xí)B、主動(dòng)學(xué)習(xí)C、回歸學(xué)習(xí)D、分類學(xué)習(xí)、【正確答案】:A解析:
見算法解析3.類別不平衡指分類任務(wù)中不同類別的訓(xùn)練樣例數(shù)目(___)的情況。A、沒有差別B、差別很大C、差別很小D、以上都不正確【正確答案】:B解析:
見算法解析4.批規(guī)范化(BatchNormalization)的好處都有啥?A、讓每一層的輸入的范圍都大致固定B、它將權(quán)重的歸一化平均值和標(biāo)準(zhǔn)差C、它是一種非常有效的反向傳播(BP)方法D、這些均不是【正確答案】:A5.生物特征識(shí)別技術(shù)不包括(
)。A、體感交互B、指紋識(shí)別C、人臉識(shí)別D、虹膜識(shí)別【正確答案】:A解析:
弱人工智能是指不能制造出真正地推理和解決問題的智能機(jī)器,這些機(jī)器只不過看起來像是智能的,但是并不真正擁有智能,也不會(huì)有自主意識(shí)。認(rèn)知智能是指機(jī)器具有主動(dòng)思考和理解的能力,不用人類事先編程就可以實(shí)現(xiàn)自我學(xué)習(xí),有目的推理并與人類自然交互。人類有語言,才有概念、推理,所以概念、意識(shí)、觀念等都是人類認(rèn)知智能的表現(xiàn),機(jī)器實(shí)現(xiàn)以上能力還有漫長的路需要探索。答案選D。6.NMS算法中文名為()A、非極大值抑制B、非極小值抑制C、極大值抑制D、極小值抑制【正確答案】:A解析:
見算法解析7.語音是一種典型的()數(shù)據(jù)。A、無結(jié)構(gòu)無序列B、有結(jié)構(gòu)序列C、無結(jié)構(gòu)序列D、有結(jié)構(gòu)無序列【正確答案】:C解析:
循環(huán)神經(jīng)網(wǎng)最常常遇到的問題是:①.梯度消失②.詞語依賴位置較遠(yuǎn)③.梯度爆炸8.在中期圖像識(shí)別技術(shù)(2003-2012)中,索引的經(jīng)典模型是()。A、口袋模型B、詞袋模型C、膠囊模型D、增量模型【正確答案】:B解析:
早期圖像識(shí)別技術(shù)中存在的主要問題是全局特征丟掉了圖像細(xì)節(jié)。9.以下哪個(gè)關(guān)于監(jiān)督式學(xué)習(xí)的說法是正確的?A、決策樹是一種監(jiān)督式學(xué)習(xí)B、監(jiān)督式學(xué)習(xí)不可以使用交叉驗(yàn)證進(jìn)行訓(xùn)練C、監(jiān)督式學(xué)習(xí)是一種基于規(guī)則的算法D、監(jiān)督式學(xué)習(xí)不需要標(biāo)簽就可以訓(xùn)練【正確答案】:A10.下列選項(xiàng)中,不屬于深度學(xué)習(xí)模型的是?A、線性回歸B、深度殘差網(wǎng)絡(luò)C、卷積神經(jīng)網(wǎng)絡(luò)CNND、循環(huán)神經(jīng)網(wǎng)絡(luò)RNN【正確答案】:A解析:
k-means是一種無監(jiān)督聚類方法。11.我國人工智能三步走戰(zhàn)略,第二步()人工智能基礎(chǔ)理論實(shí)現(xiàn)重大突破,部分技術(shù)與應(yīng)用達(dá)到世界領(lǐng)先水平A、到2035年B、到2030年C、到2025年D、到2020年【正確答案】:C解析:
我國人工智能三步走戰(zhàn)略,其中第一步,到2020年人工智能總體技術(shù)和應(yīng)用與世界先進(jìn)水平同步,人工智能產(chǎn)業(yè)成為新的重要經(jīng)濟(jì)增長點(diǎn)12.數(shù)據(jù)科學(xué)家可能會(huì)同時(shí)使用多個(gè)算法(模型)進(jìn)行預(yù)測,并且最后把這些算法的結(jié)果集成起來進(jìn)行最后的預(yù)測(集成學(xué)習(xí)),以下對(duì)集成學(xué)習(xí)說法正確的是()A、單個(gè)模型之間有高相關(guān)性B、單個(gè)模型之間有低相關(guān)性C、在集成學(xué)習(xí)中使用“平均權(quán)重”而不是“投票”會(huì)比較好D、單個(gè)模型都是用的一個(gè)算法【正確答案】:B13.下列選項(xiàng)中,哪個(gè)不是關(guān)鍵詞提取常用的算法?A、TF-IDFB、TextRankC、SSAD、LDA【正確答案】:C14.fasterRCNN用于生成候選框proposal的模塊名稱()A、RPNB、CNNC、ResNetD、RoIpooling【正確答案】:A解析:
mAP表示算法處理每張照片時(shí)間。15.從互聯(lián)網(wǎng)進(jìn)化到移動(dòng)互聯(lián)網(wǎng),()將會(huì)在移動(dòng)互聯(lián)網(wǎng)后迎來一個(gè)全新的時(shí)代。A、人工智能B、元宇宙C、數(shù)字孿生D、大數(shù)據(jù)【正確答案】:B16.下列哪一個(gè)不是神經(jīng)網(wǎng)絡(luò)的代表A、卷積神經(jīng)網(wǎng)絡(luò)B、遞歸神經(jīng)網(wǎng)絡(luò)C、殘差網(wǎng)絡(luò)D、xgboost算法【正確答案】:D解析:
A、防止模型過擬合而加在損失函數(shù)后面的一項(xiàng);B、L1范數(shù)符合拉普拉斯分布,是不完全可微的;C、L2正則化項(xiàng)是模型各個(gè)參數(shù)的平方和的開方值。17.循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrentneuralnetwork,RNN),是一種用于處理具有類似()的數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。A、網(wǎng)格結(jié)構(gòu)B、數(shù)組結(jié)構(gòu)C、序列結(jié)構(gòu)D、表格結(jié)構(gòu)【正確答案】:C解析:
卷積神經(jīng)網(wǎng)絡(luò)(convolu-tionalneuralnetwork,CNN),是一種專門用來處理具有類似()的數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。18.知識(shí)圖譜在架構(gòu)層面可分為()和數(shù)據(jù)層A、模式層B、文本層C、信息層D、知識(shí)層【正確答案】:A解析:
命名實(shí)體識(shí)別,是指識(shí)別文本中具有特定意義的實(shí)體,主要包括人名、地名、機(jī)構(gòu)名、專有名詞等19.人工智能產(chǎn)業(yè)鏈條主要包括:基礎(chǔ)技術(shù)支撐、()、人工智能應(yīng)用。A、智能平臺(tái)建設(shè)B、大數(shù)據(jù)平臺(tái)C、互聯(lián)網(wǎng)應(yīng)用D、人工智能技術(shù)【正確答案】:D20.卷積神經(jīng)網(wǎng)絡(luò)作為一種常見的深度學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu)已被廣泛接受,下列任務(wù)的主流方法中沒有用到卷積神經(jīng)網(wǎng)絡(luò)的任務(wù)是A、圖像風(fēng)格遷移&B、&圖像分割&C、&人臉識(shí)別&D、&房價(jià)預(yù)測【正確答案】:D解析:
主要應(yīng)用21.在自動(dòng)駕駛中,AI需要不斷地通過路面信息來調(diào)整開車的決策,這種處理模式適合用()來訓(xùn)練出合理的策略。A、監(jiān)督學(xué)習(xí)B、非監(jiān)督學(xué)習(xí)C、強(qiáng)化學(xué)習(xí)D、弱化學(xué)習(xí)【正確答案】:C22.一條規(guī)則形如:,其中“←"右邊的部分稱為(___)A、規(guī)則長度B、規(guī)則頭C、布爾表達(dá)式D、規(guī)則體【正確答案】:D解析:
見算法解析23.下面對(duì)梯度下降方法描述不正確的是A、梯度下降算法是一種使得損失函數(shù)最小化的方法B、梯度反方向是函數(shù)值下降最快方向C、梯度方向是函數(shù)值下降最快方向D、梯度下降算法用來優(yōu)化深度學(xué)習(xí)模型的參數(shù)【正確答案】:C24.生成式對(duì)抗網(wǎng)絡(luò)核心是對(duì)抗式,兩個(gè)網(wǎng)絡(luò)互相競爭,一個(gè)負(fù)責(zé)生成樣本,那么另一個(gè)負(fù)責(zé)做什么呢?A、判別B、計(jì)算C、統(tǒng)計(jì)D、生成【正確答案】:A25.在一個(gè)神經(jīng)網(wǎng)絡(luò)中,知道每一個(gè)神經(jīng)元的權(quán)重和偏差是最重要的一步。如果知道了神經(jīng)元準(zhǔn)確的權(quán)重和偏差,便可以近似任何函數(shù),但怎么獲知每個(gè)神經(jīng)的權(quán)重和偏移呢?A、搜索每個(gè)可能的權(quán)重和偏差組合,直到得到最佳值B、賦予一個(gè)初始值,然后檢查跟最佳值的差值,不斷迭代調(diào)整權(quán)重C、隨機(jī)賦值,聽天由命D、以上都不正確的【正確答案】:B26.人臉識(shí)別系統(tǒng)是容易受到外部攻擊的,因而需要增加類似活體檢測的技術(shù),但還是不能解決A、照片攻擊B、視頻回放攻擊C、照片面具攻擊D、黑客網(wǎng)絡(luò)攻擊【正確答案】:D解析:
我們可以為每個(gè)聚類構(gòu)建不同的模型,提高預(yù)測準(zhǔn)確率?!邦悇eid”作為一個(gè)特征項(xiàng)去訓(xùn)練,可以有效地總結(jié)了數(shù)據(jù)特征。所以B是正確的27.“數(shù)字孿生(DigitalTwin)”這一概念被美國()教授提出。A、MichaelArbibB、EdwardAlbertFeigenbaumC、MichaelGrievesD、ArthurSamuel【正確答案】:C解析:
隱私計(jì)算技術(shù)助力人工智能數(shù)據(jù)安全可信地進(jìn)行寫作。28.文本分類模型組成部分的正確順序是:1.文本清理(Textcleaning)2.文本標(biāo)注(Textannotation)3.梯度下降(Gradientdescent)4.模型調(diào)優(yōu)(Modeltuning)5.文本到預(yù)測器(Texttopredictors)A、12345B、13425C、12534D、$13,452【正確答案】:C29.我們?nèi)粘I钪械纳舷掳啵讣y掃描打卡考勤、虹膜掃描,應(yīng)用到了人工智能中的A、機(jī)器翻譯技術(shù)B、機(jī)器翻譯C、虛擬現(xiàn)實(shí)D、模式識(shí)別【正確答案】:D解析:
RNN存在嚴(yán)重的梯度消失現(xiàn)象,因此改進(jìn)出LSTM模型。30.()控制著整個(gè)LSTM單元的狀態(tài)或者記憶,它會(huì)根據(jù)每個(gè)時(shí)刻的輸入進(jìn)行更新。A、隱狀態(tài)向量B、狀態(tài)向量C、顯狀態(tài)向量D、以上都不對(duì)【正確答案】:B解析:
使用一個(gè)滑動(dòng)窗口對(duì)語料從左到右掃描,在每個(gè)窗口內(nèi),中心詞需要預(yù)測它的上下文,并形成訓(xùn)練數(shù)據(jù)31.在訓(xùn)練集上每學(xué)到一條規(guī)則,就將該規(guī)則覆蓋的訓(xùn)練樣例去除,然后以剩下的訓(xùn)練樣例組成訓(xùn)練集重復(fù)上述過程的方法稱為(___)A、缺省規(guī)則B、序貫覆蓋C、不放回學(xué)習(xí)D、一階規(guī)則【正確答案】:B解析:
見算法解析32.CNN不具有以下那個(gè)特性。A、局部連接B、權(quán)值共享C、空間或時(shí)間上的下采樣D、不定長輸入【正確答案】:D解析:
樸素貝葉斯算法是基于貝葉斯定理與特征條件獨(dú)立假設(shè)的分類算法不屬于深度學(xué)習(xí)模型。33.下列哪個(gè)應(yīng)用領(lǐng)域不屬于人工智能應(yīng)用?()A、人工神經(jīng)網(wǎng)絡(luò)B、自動(dòng)控制C、自然語言學(xué)習(xí)D、專家系統(tǒng)【正確答案】:B34.機(jī)器學(xué)習(xí)在向()方向演進(jìn)。A、分布式隱私保護(hù)B、集中式存儲(chǔ)C、邊緣計(jì)算D、云存儲(chǔ)【正確答案】:A解析:
長期來看專用型人工智能的發(fā)展將不依賴于對(duì)人腦認(rèn)知機(jī)制的科學(xué)研究。。35.對(duì)于線性不可分的數(shù)據(jù),支持向量機(jī)的解決方式是A、軟間隔B、硬間隔C、核函數(shù)D、以上選項(xiàng)均不正確【正確答案】:C36.以下屬于回歸算法的評(píng)價(jià)指標(biāo)是?A、召回率B、混淆矩陣C、均方誤差D、準(zhǔn)確率【正確答案】:C37.下列哪項(xiàng)關(guān)于模型能力的描述是正確的(指模型能近似復(fù)雜函數(shù)的能力)A、隱層層數(shù)增加,模型能力增加B、Dropout的比例增加,模型能力增加C、學(xué)習(xí)率增加,模型能力增加D、都不正確【正確答案】:A38.以下哪個(gè)聚類算法不屬于基于網(wǎng)格的聚類算法()。A、STINGB、WavelusterC、MAFID、IRH【正確答案】:D39.()適合連續(xù)特征,它假設(shè)每個(gè)特征對(duì)于每個(gè)類都符合正態(tài)分布。A、GaussianNBBernoulliNBC、MultinomialNBD、BaseDiscreteNB【正確答案】:A解析:
Scikit-Learn中accuracy_score可以實(shí)現(xiàn)計(jì)算模型準(zhǔn)確率。40.下列哪個(gè)函數(shù)不可以做激活函數(shù)?A、y=tanh(x)B、y=sin(x)C、y=max(x,0)D、y=2x【正確答案】:D41..
混沌度(Perplexity)是一種常見的應(yīng)用在使用深度學(xué)習(xí)處理NLP問題過程中的評(píng)估技術(shù),關(guān)于混沌度,哪種說法是正確的?A、混沌度沒什么影響B(tài)、混沌度越低越好C、混沌度越高越好D、混沌度對(duì)于結(jié)果的影響不一定【正確答案】:B42.下面對(duì)前饋神經(jīng)網(wǎng)絡(luò)描述不正確的是A、各個(gè)神經(jīng)元接受前一級(jí)神經(jīng)元的輸入,并輸出到下一級(jí)B、層與層之間通過“全連接”進(jìn)行連接,即兩個(gè)相鄰層之間神經(jīng)元完全成對(duì)連接C、同一層內(nèi)的神經(jīng)元相互不連接D、同一層內(nèi)神經(jīng)元之間存在全連接【正確答案】:D43.下列哪項(xiàng)不屬于聚類算法()A、K-meansBIRCHC、SVMDBSCAN【正確答案】:C解析:
神經(jīng)網(wǎng)絡(luò)會(huì)將數(shù)據(jù)轉(zhuǎn)化為更適合解決目標(biāo)問題的形式,我們把這種過程叫做特征學(xué)習(xí)。44.關(guān)于線性回歸的描述,以下正確的有:A、基本假設(shè)包括隨機(jī)干擾項(xiàng)是均值為0,方差為1的標(biāo)準(zhǔn)正態(tài)分布B、基本假設(shè)包括隨機(jī)干擾項(xiàng)是均值為0的同方差正態(tài)分布C、多重共線性會(huì)使得參數(shù)估計(jì)值方差減小D、基本假設(shè)包括不服從正態(tài)分布的隨機(jī)干擾項(xiàng)【正確答案】:B45.Softmax算法中溫度趨近于0時(shí)Softmax將趨于(___)A、僅探索B、僅利用C、全探索D、全利用【正確答案】:B解析:
見算法解析46.下列關(guān)于XGboost算法描述中錯(cuò)誤的是A、由于其特殊原因,無法分布式化B、xgboost在代價(jià)函數(shù)里加入了正則項(xiàng),用于控制模型的復(fù)雜度C、可以處理帶有缺失值的樣本D、允許使用列抽樣來減少過擬合【正確答案】:A47.隨著大數(shù)據(jù)、()、量子計(jì)算等新技術(shù)的快速發(fā)展,人類社會(huì)已經(jīng)步入了第四次工業(yè)革命時(shí)代A、片上存儲(chǔ)B、芯片設(shè)計(jì)C、人工智能D、泛在互聯(lián)【正確答案】:C解析:
以上都是人工智能發(fā)展預(yù)測。48.下面關(guān)于Jarvis-Patrik(JP)聚類算法的說法不正確的是()。A、JP聚類擅長處理噪聲和離群點(diǎn),并且能夠處理不同大小、形狀和密度的簇。B、JP算法對(duì)高維數(shù)據(jù)效果良好,尤其擅長發(fā)現(xiàn)強(qiáng)相關(guān)對(duì)象的緊致簇。C、JP聚類是基于SNN相似度的概念。D、JP聚類的基本時(shí)間復(fù)雜度為O(m)。【正確答案】:D49.輸入圖片大小為200×200,依次經(jīng)過一層卷積(kernelsize5×5,padding1,stride2),pooling(kernelsize3×3,padding0,stride1),又一層卷積(kernelsize3×3,padding1,stride1)之后,輸出特征圖大小為?A、95B、96C、97D、$98【正確答案】:C解析:
每個(gè)神經(jīng)元可以有一個(gè)或多個(gè)輸入,和一個(gè)或多個(gè)輸出。如圖所示的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)中,隱藏層的每一個(gè)神經(jīng)元都是多輸入多輸出。若將輸出層改為一個(gè)神經(jīng)元,則隱藏層每個(gè)神經(jīng)元都是一個(gè)輸出;若將輸入層改為一個(gè)神經(jīng)元,則隱藏層每個(gè)神經(jīng)元都是一個(gè)輸入。50.()函數(shù)一般用在多分類問題中,它是對(duì)邏輯斯蒂回歸logistic的一種推廣,也被稱為多項(xiàng)式邏輯斯蒂回歸模型。A、ReluB、softmaxC、TanhD、sigmoid【正確答案】:B解析:
GooLeNet中使用較多小tricks,其中全局平局池化GAP就是一個(gè),使用GAP的優(yōu)點(diǎn)是減少參數(shù)量,實(shí)現(xiàn)任意大小的輸入51.Dropout是一種在深度學(xué)習(xí)環(huán)境中應(yīng)用的正規(guī)化手段,他是這樣運(yùn)作的,在一次循環(huán)中我們先隨機(jī)選擇神經(jīng)層中的一些單元并將其臨時(shí)隱藏,然后再進(jìn)行該次循環(huán)中神經(jīng)網(wǎng)絡(luò)的訓(xùn)練和優(yōu)化過程,在下一次循環(huán)中,我們又將隱藏另外一些神經(jīng)元,如此直至訓(xùn)練結(jié)束。根據(jù)以上描述,Dropout技術(shù)在下列哪種神經(jīng)層中不能發(fā)揮優(yōu)勢?A、仿射層B、卷積層C、RNN層D、以上都不對(duì)【正確答案】:C解析:
LSTM一種特殊的RNN網(wǎng)絡(luò),該網(wǎng)絡(luò)設(shè)計(jì)出來是為了解決長依賴問題52.以下算法中可以用于圖像平滑的是()。A、均值濾波;B、對(duì)比度增強(qiáng)C、二值化D、動(dòng)態(tài)范圍壓縮【正確答案】:A解析:
長短期記憶LSTM具有與循環(huán)神經(jīng)網(wǎng)絡(luò)相似的控制流,兩者的區(qū)別在于LSTM中增加了忘記門導(dǎo)致單元內(nèi)的處理過程不同。53.語義網(wǎng)絡(luò)表達(dá)知識(shí)時(shí),有向弧AKO鏈、ISA鏈?zhǔn)怯脕肀磉_(dá)節(jié)點(diǎn)知識(shí)的A、無悖性B、可擴(kuò)充性C、繼承性D、連貫性【正確答案】:C解析:
從全稱判斷推導(dǎo)出特稱判斷或單稱判斷的過程,即由一般性知識(shí)推出適合于某一具體情況的結(jié)論的推理是演繹推理54.關(guān)于GoogLeNet描述正確的有:A、GoogLeNet僅僅是在寬度上進(jìn)行了探索,所以它是一個(gè)很淺的網(wǎng)絡(luò)B、GoogLeNet在寬度上進(jìn)行了探索,為后人設(shè)計(jì)更加復(fù)雜的網(wǎng)絡(luò)打開了思路C、GoogLeNet使用了Inception結(jié)構(gòu),Inception結(jié)構(gòu)只有V1這一個(gè)版本D、GoogLeNet結(jié)合多種網(wǎng)絡(luò)設(shè)計(jì)結(jié)構(gòu)所以是到目前為止分類效果最好的網(wǎng)絡(luò)結(jié)構(gòu)【正確答案】:B解析:
VGG全部使用了3*3的卷積核和2*2的池化核55.關(guān)于Boltzmann描述錯(cuò)誤的是(___)A、基于能量的模型;B、優(yōu)化目標(biāo)函數(shù)為最小化能力函數(shù);C、分為顯層和隱層;D、神經(jīng)元都是數(shù)值型;【正確答案】:D解析:
見算法解析56.卷積層是深度神經(jīng)網(wǎng)絡(luò)的主要結(jié)構(gòu)之一,已經(jīng)在大量任務(wù)中用到,下面哪一個(gè)任務(wù)的主流方法中沒有用到卷積層A、為圖像自動(dòng)生成描述標(biāo)題&B、&中英文互譯&C、&中文分詞&D、&場景文字檢測【正確答案】:C解析:
主要應(yīng)用57.(___)是在一個(gè)數(shù)據(jù)集上對(duì)多個(gè)算法進(jìn)行比較。A、t檢驗(yàn)B、交叉驗(yàn)證t檢驗(yàn)C、Friedman檢驗(yàn)D、McNemar檢驗(yàn)【正確答案】:C解析:
見算法解析58.Boosting的本質(zhì)實(shí)際上是一個(gè)加法模型,通過改變訓(xùn)練樣本()學(xué)習(xí)多個(gè)分類器并進(jìn)行一些線性組合A、權(quán)重B、分布C、概率D、數(shù)量【正確答案】:A解析:
SVM的基本思想是間隔最大化來得到最優(yōu)分離超平面59.關(guān)于支持向量機(jī),哪項(xiàng)說法不正確()A、支持向量機(jī)可以用于處理二分類及多分類問題B、支持向量機(jī)只能用于線性可分的分類問題C、支持向量機(jī)可用于回歸問題D、核函數(shù)的選擇對(duì)支持向量機(jī)的性能影響較大【正確答案】:B解析:
廣度優(yōu)先搜索搜索的范圍最廣60.以下程序的輸出是()?array=np.array([[1,2,3],[4,5,6],[7,8,9],[10,11,12]]);print(array.shape)A、(4,3)B、(3,4)C、3D、$4【正確答案】:A解析:
見算法解析61.下列關(guān)于深度學(xué)習(xí)說法錯(cuò)誤的是A、LSTM在一定程度上解決了傳統(tǒng)RNN梯度消失或梯度爆炸的問題B、CNN相比于全連接的優(yōu)勢之一是模型復(fù)雜度低,緩解過擬合C、只要參數(shù)設(shè)置合理,深度學(xué)習(xí)的效果至少應(yīng)優(yōu)于隨機(jī)算法D、隨機(jī)梯度下降法可以緩解網(wǎng)絡(luò)訓(xùn)練過程中陷入鞍點(diǎn)的問題【正確答案】:C解析:
相同超參數(shù)數(shù)量情況下,比起自適應(yīng)的學(xué)習(xí)率調(diào)整方式,SGD加手動(dòng)調(diào)節(jié)通常會(huì)取得更好效果62.對(duì)于圖像識(shí)別問題(比如識(shí)別照片中的貓),神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)更適合解決哪類問題?A、多層感知器B、卷積神經(jīng)網(wǎng)絡(luò)C、循環(huán)神經(jīng)網(wǎng)絡(luò)D、感知器【正確答案】:B63.通常池化操作的效果是:A、使圖片變大B、使圖片變小C、使圖片變成三角形D、使圖片變成圓形【正確答案】:B解析:
池化操作的作用是下采樣64.下列哪些屬于循環(huán)神經(jīng)網(wǎng)絡(luò)()A、LeNetB、GoogleNetC、Bi-LSTMD、BERT【正確答案】:C解析:
在處理序列數(shù)據(jù)時(shí),較容易出現(xiàn)梯度消失現(xiàn)象的模型是RNN65.當(dāng)前,預(yù)訓(xùn)練模型參數(shù)數(shù)量、訓(xùn)練數(shù)據(jù)規(guī)模按照()倍/年的趨勢增長。A、10B、100C、300D、$1,000【正確答案】:C解析:
量子計(jì)算機(jī)基本信息單位是量子比特,可同時(shí)具有0、1及其線性疊加態(tài)66.計(jì)算智能和感知智能的關(guān)鍵技術(shù)已經(jīng)取得較大突破,弱人工智能應(yīng)用條件基本成熟。但(
)的算法尚未突破,前景仍不明朗。A、視頻智能B、語音智能C、觸覺智能D、認(rèn)知智能【正確答案】:D解析:
在國內(nèi)計(jì)算機(jī)視覺領(lǐng)域,動(dòng)靜態(tài)圖像識(shí)別和人臉識(shí)別是主要研究方向,目前由于動(dòng)態(tài)檢測與識(shí)別的技術(shù)門檻限制,靜態(tài)圖像識(shí)別與人臉識(shí)別的研究暫時(shí)處于領(lǐng)先位置.答案選C。67.numpy數(shù)組的ndim屬性是()?A、數(shù)組的維度B、各維度大小的元組C、行數(shù)D、列數(shù)【正確答案】:A解析:
見算法解析68.用Tensorflow處理圖像識(shí)別任務(wù)時(shí),若輸入數(shù)據(jù)的形狀為[64,224,224,3],下面說法正確的是()A、每一張圖片都是二值圖片B、每一張圖片都是三通道圖片C、模型一次處理224張圖片(batchsize為224)D、以上選項(xiàng)均不正確【正確答案】:B解析:
根據(jù)已知模式在數(shù)據(jù)集中尋找相似模式屬于數(shù)據(jù)挖掘中的內(nèi)容檢索任務(wù)。69.LARS屬于哪種特征選擇方法(___)A、包裹式B、啟發(fā)式C、嵌入式D、過濾式【正確答案】:C解析:
見算法解析70.下列哪個(gè)應(yīng)用領(lǐng)域不屬于人工智能應(yīng)用?A、人工神經(jīng)網(wǎng)絡(luò)B、自動(dòng)控制C、自然語言學(xué)習(xí)D、專家系統(tǒng)【正確答案】:B解析:
生物特征識(shí)別技術(shù),是指通過計(jì)算機(jī)利用人體所固有的生理特征(指紋、虹膜、面相、DNA等)或行為特征(步態(tài)、擊鍵習(xí)慣等)來進(jìn)行個(gè)人身份鑒定的技術(shù)。步態(tài)識(shí)別、人臉識(shí)別、虹膜識(shí)別運(yùn)用的都是生物特征,文本識(shí)別不屬于生物特征識(shí)別。答案選C71.問答系統(tǒng)中的NLP技術(shù),以下描述不正確的是:A、問答(QA)系統(tǒng)的想法是直接從文檔、對(duì)話、在線搜索和其他地方提取信息,以滿足用戶的信息需求。QA系統(tǒng)不是讓用戶閱讀整個(gè)文檔,而是更喜歡簡短而簡潔的答案。B、QA系統(tǒng)相對(duì)獨(dú)立很難與其他NLP系統(tǒng)結(jié)合使用,現(xiàn)有QA系統(tǒng)只能處理對(duì)文本文檔的搜索,尚且無法從圖片集合中提取信息。C、大多數(shù)NLP問題都可以被視為一個(gè)問題回答問題。范例很簡單:我們發(fā)出查詢指令,機(jī)器提供響應(yīng)。通過閱讀文檔或一組指令,智能系統(tǒng)應(yīng)該能夠回答各種各樣的問題。D、強(qiáng)大的深度學(xué)習(xí)架構(gòu)(稱為動(dòng)態(tài)內(nèi)存網(wǎng)絡(luò)(DMN))已針對(duì)QA問題進(jìn)行了專門開發(fā)和優(yōu)化。給定輸入序列(知識(shí))和問題的訓(xùn)練集,它可以形成情節(jié)記憶,并使用它們來產(chǎn)生相關(guān)答案?!菊_答案】:B72.梯度爆炸問題是指在訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)的時(shí)候,梯度變得過大而損失函數(shù)變?yōu)闊o窮。在RNN中,下面哪種方法可以較好地處理梯度爆炸問題?A、用改良的網(wǎng)絡(luò)結(jié)構(gòu)比如LSTM和GRUsB、梯度裁剪C、DropoutD、所有方法都不行【正確答案】:B73.關(guān)于學(xué)習(xí)率初始值設(shè)定描述正確的是()A、學(xué)習(xí)率是網(wǎng)絡(luò)自己學(xué)習(xí)得到的B、學(xué)習(xí)率不同場景是相同的C、學(xué)習(xí)率是根據(jù)不同場景,人為設(shè)定的D、學(xué)習(xí)率不是人為設(shè)定的【正確答案】:C解析:
softmax函數(shù)一般用在多分類問題中,它是對(duì)邏輯斯蒂回歸logistic的一種推廣,也被稱為多項(xiàng)式邏輯斯蒂回歸模型。74.混淆矩陣中TP=16,FP=12,FN=8,TN=4,召回率是()。A、1212122022年1月4日B、1212122022年1月2日C、1212122022年4月7日D、1212122022年2月3日【正確答案】:D解析:
根據(jù)精確率計(jì)算公式可得。75.下面算法中哪個(gè)不是回歸算法A、線性回歸B、邏輯回歸C、嶺回歸D、隨機(jī)森林【正確答案】:B76.TF-IDF模型中,TF意思是詞頻,IDF意思是()。A、文本頻率指數(shù)B、C、逆文本頻率指數(shù)D、詞頻指數(shù)E、逆詞頻指數(shù)【正確答案】:B解析:
常見的圖像預(yù)處理方法不包括圖像標(biāo)注。77.例如在生產(chǎn)與采購環(huán)節(jié),典型的AI應(yīng)用場景包括智能質(zhì)檢,利用()等AI技術(shù)可代替人力或者協(xié)助人力完成對(duì)缺陷商品進(jìn)行識(shí)別。A、機(jī)器視覺B、語音識(shí)別C、機(jī)器推理D、機(jī)器學(xué)習(xí)【正確答案】:A解析:
在用戶洞察環(huán)節(jié),銀行業(yè)企業(yè)普遍面臨對(duì)消費(fèi)者數(shù)據(jù)開發(fā)不足的問題,AI技術(shù)的加持能夠?qū)崿F(xiàn)更深層次的客戶洞察,基于多維度的用戶數(shù)據(jù)構(gòu)建用戶畫像,實(shí)現(xiàn)更精準(zhǔn)的用戶觸達(dá)。78.下列哪一個(gè)不是無約束算法。A、梯度下降法B、擬牛頓法C、啟發(fā)式優(yōu)化方法D、EM算法【正確答案】:D解析:
常見的機(jī)器學(xué)習(xí)模型正則化方法包含數(shù)據(jù)增強(qiáng)、模型集成、引入?yún)?shù)范數(shù)懲罰項(xiàng)79.在K-搖臂賭博機(jī)中,若嘗試次數(shù)非常大,在一段時(shí)間后,搖臂的獎(jiǎng)賞能很好的近似出來,不再需要探索,則可讓?duì)烹S著嘗試次數(shù)增加而(___)A、增大B、置為無窮C、置為0D、減少【正確答案】:D解析:
見算法解析80.下列關(guān)于長短期記憶網(wǎng)絡(luò)LSTM和循環(huán)神經(jīng)網(wǎng)絡(luò)RNN的關(guān)系描述正確的是()。A、LSTM是簡化版的RNNB、LSTM是雙向的RNNC、LSTM是多層的RNND、LSTM是RNN的擴(kuò)展,通過特殊的結(jié)構(gòu)設(shè)計(jì)來避免長期依賴問題【正確答案】:D解析:
dropout是指在深度學(xué)習(xí)網(wǎng)絡(luò)的訓(xùn)練過程中,對(duì)于神經(jīng)網(wǎng)絡(luò)單元,按照一定的概率將其暫時(shí)從網(wǎng)絡(luò)中丟棄。81.目前虛擬主播中唇形變化與語音可實(shí)現(xiàn)對(duì)齊,這屬于計(jì)算機(jī)視覺中哪種技術(shù)()A、圖像合成B、圖像識(shí)別C、圖像檢測D、圖像去噪【正確答案】:A82.在一個(gè)神經(jīng)網(wǎng)絡(luò)中,下面哪種方法可以用來處理過擬合?A、DropoutB、分批歸一化(BatchNormalization)C、正則化(regularization)D、都可以【正確答案】:D83.輸入圖片大小為200×200,依次經(jīng)過一層卷積(kernelsize5×5,padding1,stride2),pooling(kernelsize3×3,padding0,stride1),又一層卷積(kernelsize3×3,padding1,stride1)之后,輸出特征圖大小為A、95B、96C、97D、$98【正確答案】:C84.人工智能發(fā)展的四波浪潮分別為互聯(lián)網(wǎng)智能化、商業(yè)智能化、實(shí)體世界智能化和()。A、自主智能化B、工業(yè)智能化&C、&實(shí)業(yè)智能化D、科研智能化【正確答案】:A解析:
P2185.在其他條件不變的前提下,以下做法容易引起機(jī)器學(xué)習(xí)中的“過擬合”問題的是()。A、增加訓(xùn)練集量B、減少神經(jīng)網(wǎng)絡(luò)隱藏層節(jié)點(diǎn)數(shù)C、刪除稀疏的特征D、SVM算法中使用高斯核/RBF核代替線性核【正確答案】:D解析:
TF-IDF模型中,TF意思是詞頻,IDF意思是逆文本頻率指數(shù)。86.Bagging是一個(gè)低效的集成學(xué)習(xí)算法A、正確B、錯(cuò)誤C、nanD、nan【正確答案】:B解析:
Inception模塊采用多通路,不同的設(shè)計(jì)形式,每個(gè)支路使用多通路,不同大小的卷積核。87.Word2Vec提出了哪兩個(gè)算法訓(xùn)練詞向量?A、COBWSoftmaxB、Softmax、CBOWCBOW、Skip-gramDD、Skip-gramCOBWC【正確答案】:C解析:
輸入門控制當(dāng)前時(shí)刻的輸入信息需要向狀態(tài)向量中注入哪些信息。88.感知機(jī)描述錯(cuò)誤的是:(___)A、感知機(jī)根據(jù)正確的程度進(jìn)行權(quán)重調(diào)整;B、輸入層接收外界輸入信號(hào)傳遞給輸出層;C、輸出層是M-P神經(jīng)元;D、感知機(jī)能容易實(shí)現(xiàn)邏輯與、或、非運(yùn)算;【正確答案】:A解析:
見算法解析89.
下列哪項(xiàng)關(guān)于模型能力(modelcapacity)的描述是正確的?(指神經(jīng)網(wǎng)絡(luò)模型能擬合復(fù)雜函數(shù)的能力)A、隱藏層層數(shù)增加,模型能力增加B、Dropout的比例增加,模型能力增加C、學(xué)習(xí)率增加,模型能力增加D、都不正確【正確答案】:A90.能夠提取出圖片邊緣特征的網(wǎng)絡(luò)是()。A、卷積層B、池化層C、全連接層D、輸出層【正確答案】:A91.邏輯回歸的損失函數(shù)是下列哪一種?()A、平方損失函數(shù)B、對(duì)數(shù)損失函數(shù)C、HingeLoss0-1損失函數(shù)D、絕對(duì)值損失函數(shù)【正確答案】:B92.人工智能系統(tǒng)()技術(shù)重點(diǎn)逐步從數(shù)字域擴(kuò)展到物理域。A、通用性B、準(zhǔn)確性C、穩(wěn)定性D、確定性【正確答案】:C解析:
在算法層面,超大規(guī)模預(yù)訓(xùn)練模型等成為近兩年最受關(guān)注的熱點(diǎn)之一,不斷刷新各領(lǐng)域榜單。93.以下關(guān)于熵、信息增益、基尼指數(shù)的相關(guān)描述中錯(cuò)誤的是A、熵越大,不確定性越大,信息量也就越大B、信息增益越大,表示某個(gè)條件熵對(duì)信息熵減少程序越大,也就是說,這個(gè)屬性對(duì)于信息的判斷起到的作用越大C、Gini指數(shù)越大,不純度越小,越容易區(qū)分,越不容易分錯(cuò)D、熵權(quán)法是一種客觀賦權(quán)法,因?yàn)樗鼉H依賴于數(shù)據(jù)本身的離散性【正確答案】:C94.關(guān)于常用評(píng)分函數(shù)描述錯(cuò)誤的為(___)A、基于信息論準(zhǔn)則;B、學(xué)習(xí)問題看做為數(shù)據(jù)壓縮任務(wù);C、學(xué)習(xí)目標(biāo)為以最短編碼長度描述訓(xùn)練數(shù)據(jù)模型;D、編碼位數(shù)僅為自身所需的編碼位數(shù);【正確答案】:D解析:
見算法解析95.以下關(guān)于算法的說法中,不正確的是A、機(jī)器學(xué)習(xí)算法分為有監(jiān)督、半監(jiān)督和無監(jiān)督三種B、卷積神經(jīng)網(wǎng)絡(luò)是重要的遷移學(xué)習(xí)算法C、決策樹算法屬于監(jiān)督學(xué)習(xí)類別D、K-Means是屬于無監(jiān)督學(xué)習(xí)算法【正確答案】:B96.Transformer中拋棄了傳統(tǒng)的CNN和RNN,整個(gè)網(wǎng)絡(luò)結(jié)構(gòu)完全是由()機(jī)制組成。ActionB、AttentionC、TransformationD、Information【正確答案】:B解析:
在RNN中,目前使用最廣泛的模型便是LSTM模型,該模型能夠更好地建模長序列。97.建立一個(gè)5000個(gè)特征,100萬數(shù)據(jù)的機(jī)器學(xué)習(xí)模型.我們?cè)趺从行У貞?yīng)對(duì)這樣的大數(shù)據(jù)訓(xùn)練:()。A、我們隨機(jī)抽取一些樣本,在這些少量樣本之上訓(xùn)練B、我們可以試用在線機(jī)器學(xué)習(xí)算法C、我們應(yīng)用PCA算法降維,減少特征數(shù)D、以上所有【正確答案】:D98.Relief屬于哪種特征選擇方法(___)A、包裹式B、啟發(fā)式C、嵌入式D、過濾式【正確答案】:D解析:
見算法解析99.對(duì)于圖像分類問題,以下哪個(gè)神經(jīng)網(wǎng)絡(luò)更適合解決這個(gè)問題?A、感知器B、循環(huán)神經(jīng)網(wǎng)絡(luò)C、卷積神經(jīng)網(wǎng)絡(luò)D、全連接神經(jīng)網(wǎng)絡(luò)【正確答案】:C100.代碼arr1=np.array([[1,2,3],[4,5,6]]);arr2=2*np.ones([2,3],dtype=64);print((arr1*arr2)[1][2])的輸出結(jié)果是()?注:(已導(dǎo)入numpy庫)importnumpyasnpA、6B、8C、10D、$12【正確答案】:D解析:
見算法解析101.在下列哪些應(yīng)用中,我們可以使用深度學(xué)習(xí)來解決問題?A、蛋白質(zhì)結(jié)構(gòu)預(yù)測B、化學(xué)反應(yīng)的預(yù)測C、外來粒子的檢測D、所有這些【正確答案】:D102.機(jī)器學(xué)習(xí)的核心任務(wù)是在新的、未知的數(shù)據(jù)中執(zhí)行得好。而這種在未知數(shù)據(jù)中執(zhí)行的能力,稱為A、泛化能力B、過擬合C、欠擬合D、正則化【正確答案】:A103.深度學(xué)習(xí)可以用在下列哪些NLP任務(wù)中A、情感分析B、問答系統(tǒng)C、機(jī)器翻譯D、所有選項(xiàng)【正確答案】:D解析:
采用OCR技術(shù)識(shí)別攝像頭拍攝的數(shù)字式電力儀表的讀數(shù)104.為什么不能用多層全連接網(wǎng)絡(luò)解決命名實(shí)體識(shí)別問題:A、序列數(shù)據(jù)的輸入和輸出通常是不固定的,有的序列長,有的序列短B、全連接網(wǎng)絡(luò)的根本不能處理任何序列數(shù)據(jù)C、全連接網(wǎng)絡(luò)的層次太深導(dǎo)致梯度消失,所以不能處理序列問題D、命名實(shí)體識(shí)別問題是一個(gè)無法解決的問題,全連接網(wǎng)絡(luò)也不能解決這個(gè)問題【正確答案】:A解析:
循環(huán)神經(jīng)網(wǎng)絡(luò)之所以有作用是因?yàn)樾蛄兄械脑靥N(yùn)含著順序的規(guī)律105.卷積核與特征圖的通道數(shù)的關(guān)系是:A、卷積核數(shù)量越多特征圖通道數(shù)越少B、卷積核size越大特征圖通道數(shù)越多C、卷積核數(shù)量越多特征圖通道數(shù)越多D、二者沒有關(guān)系【正確答案】:C解析:
一張RGB彩色圖片不包含黃色通道。106.元宇宙本質(zhì)上是對(duì)現(xiàn)實(shí)世界的虛擬化、數(shù)字化過程,它基于()生成現(xiàn)實(shí)世界的鏡像。A、擴(kuò)展現(xiàn)實(shí)技術(shù)B、區(qū)塊鏈技術(shù)C、數(shù)字孿生技術(shù)D、云計(jì)算【正確答案】:C107.自然語言理解是人工智能的重要應(yīng)用領(lǐng)域,下面列舉中的(
)不是它要實(shí)現(xiàn)的目標(biāo)。A、理解別人講的話B、對(duì)自然語言表示的信息進(jìn)行分析概括或編輯C、自動(dòng)程序設(shè)計(jì)D、機(jī)器翻譯【正確答案】:C解析:
自動(dòng)識(shí)別如語音識(shí)別、圖像識(shí)別,分別模仿人類的聽覺和視覺,屬于人類感官模擬。答案選D108.假定你已經(jīng)搜集了10000行推特文本的數(shù)據(jù),不過沒有任何信息?,F(xiàn)在你想要?jiǎng)?chuàng)建一個(gè)推特分類模型,好把每條推特分為三類:積極、消極、中性。以下哪個(gè)模型可以執(zhí)行做到?()A、樸素貝葉斯B、支持向量機(jī)C、以上都不是D、nan【正確答案】:C109.sigmod激活函數(shù)在神經(jīng)網(wǎng)絡(luò)中可以將神經(jīng)元計(jì)算數(shù)值變化到以下哪個(gè)范圍內(nèi)?A、(-1,0)B、(0,1)C、(-1,1)D、(-0.5,0.5)【正確答案】:B110.人工智能平臺(tái)架構(gòu)及技術(shù)要求第1部分總體架構(gòu)與技術(shù)要求編制的主要目的是指導(dǎo)公司人工智能平臺(tái)(),明確人工智能平臺(tái)總體架構(gòu)與技術(shù)要求。A、設(shè)計(jì)B、運(yùn)行C、規(guī)劃D、建設(shè)【正確答案】:D解析:
主要應(yīng)用111.以下關(guān)于機(jī)器學(xué)習(xí)描述正確的是?A、深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)分支B、深度學(xué)習(xí)與機(jī)器學(xué)習(xí)是互相包含的關(guān)系C、深度學(xué)習(xí)與機(jī)器學(xué)習(xí)同屬于人工智能但相互之間沒有關(guān)系D、以上都不對(duì)【正確答案】:A112.近年來,隨著人工智能技術(shù)的快速發(fā)展和演變,()在多種控制領(lǐng)域表現(xiàn)優(yōu)異,這類控制問題可以歸結(jié)為馬爾可夫決策過程,其典型成功應(yīng)用案例有AlphaGo、自動(dòng)駕駛狗等,這些成功案例為有效解決電網(wǎng)規(guī)劃和調(diào)控難題提供了借鑒。A、深度強(qiáng)化學(xué)習(xí)技術(shù)B、多智能體技術(shù)C、深度Q-Learning技術(shù)D、深度學(xué)習(xí)技術(shù)【正確答案】:A113.模型有效的基本條件是能夠()已知的樣本A、結(jié)合B、擬合C、聯(lián)合D、聚集【正確答案】:B解析:
批量歸一化對(duì)隱含層的輸入進(jìn)行歸一化,更好的尺度不變性(應(yīng)對(duì)內(nèi)部協(xié)變量偏移),更好的優(yōu)化地形(輸入處于不飽和區(qū)域,從而讓梯度變大)114.反向傳播算法一開始計(jì)算什么內(nèi)容的梯度,之后將其反向傳播?A、預(yù)測結(jié)果與樣本標(biāo)簽之間的誤差B、各個(gè)輸入樣本的平方差之和C、各個(gè)網(wǎng)絡(luò)權(quán)重的平方差之和D、都不對(duì)【正確答案】:A115.DSSM經(jīng)典模型的缺點(diǎn):1.Wordhashing可能造成詞語沖突;2.采用詞袋模型,損失了上下文語序信息;3.搜索引擎的排序由多種因素決定,用戶點(diǎn)擊時(shí)doc排名越靠前越容易被點(diǎn)擊,僅用點(diǎn)擊來判斷正負(fù)樣本,產(chǎn)生的噪聲較大,模型難以收斂;4.效果不可控。A、1.2.3B、1.3.4C、2.3.4D、【正確答案】:D解析:
DSSM模型總的來說可以分成哪幾層結(jié)構(gòu),分別是輸入層、表示層和匹配層。116.在CNN訓(xùn)練中,除了卷積偏置bias需要學(xué)習(xí)更新以外,()也是學(xué)習(xí)跟新的重要內(nèi)容A、learning_rateB、stepC、weightD、padding【正確答案】:C解析:
Softmax不是常用的聚類算法。117.()通過將文檔看成其中單詞的袋裝形式,被用于在NLP和文本挖掘中生成文本表征A、詞袋模型B、one-hot編碼C、獨(dú)熱編碼D、languagemodel【正確答案】:A解析:
主要應(yīng)用118.交叉驗(yàn)證法將數(shù)據(jù)集劃分為k個(gè)大小相似的互斥子集,進(jìn)行(___)次訓(xùn)練和測試。A、k+1B、kC、k-1D、k-2【正確答案】:B解析:
見算法解析119.1x1卷積的主要作用是A、加快卷積運(yùn)算B、增大卷積核C、擴(kuò)大感受野D、通道降維【正確答案】:D解析:
xgboost在代價(jià)函數(shù)里加入了正則項(xiàng),用于控制模型的復(fù)雜度120.衡量模型預(yù)測值和真實(shí)值差距的評(píng)價(jià)函數(shù)被稱為()A、損失函數(shù)B、無參數(shù)函數(shù)C、激活函數(shù)D、矩陣拼接函數(shù)【正確答案】:A解析:
DSSM經(jīng)典模型的優(yōu)點(diǎn);1.解決了字典爆炸問題,降低了計(jì)算復(fù)雜度;2.中文方面使用字作為最細(xì)切分粒度,可以復(fù)用每個(gè)字表達(dá)的詞義,減少分詞的依賴,從而提高模型的泛化能力;3.字母的n-gram可以更好的處理新詞,具有較強(qiáng)的魯棒性;4.使用有監(jiān)督的方法,優(yōu)化語義embedding的映射問題;5.省去了人工特征工程;6.采用有監(jiān)督訓(xùn)練,精度較高。121.強(qiáng)化學(xué)習(xí)的目標(biāo)是找到()的策略A、最小損失函數(shù)B、最大化收益C、局部最優(yōu)解D、全局最優(yōu)解【正確答案】:B解析:
見算法解析122.下列屬于特征降維的方法有A、主成分分析PCAB、數(shù)據(jù)采樣C、正則化D、最小二乘法【正確答案】:A123.在ε-greedy策略當(dāng)中,ε的值越大,表示采用隨機(jī)的一個(gè)動(dòng)作的概率越(),采用當(dāng)前Q函數(shù)值最大的動(dòng)作的概率越()。A、大B、小C、大D、大E、小F、小【正確答案】:A124.詞向量是表示自然語言里單詞的一種方法,即把每個(gè)詞都表示為一個(gè)N維空間內(nèi)的()。A、線段B、平面C、點(diǎn)D、線【正確答案】:C解析:
見算法解析125.在前饋神經(jīng)網(wǎng)絡(luò)中,誤差后向傳播(BP算法)將誤差從輸出端向輸入端進(jìn)行傳輸?shù)倪^程中,算法會(huì)調(diào)整前饋神經(jīng)網(wǎng)絡(luò)的什么參數(shù)A、輸入數(shù)據(jù)大小B、神經(jīng)元和神經(jīng)元之間連接有無C、相鄰層神經(jīng)元和神經(jīng)元之間的連接權(quán)重D、同一層神經(jīng)元之間的連接權(quán)重【正確答案】:C126.自然語言處理機(jī)制涉及兩個(gè)流程,其中,()是指能以自然語言文本來表達(dá)給定的意圖。A、自然語言理解B、自然語言處理C、自然語言輸入D、自然語言生成【正確答案】:D127.在處理序列數(shù)據(jù)時(shí),較容易出現(xiàn)梯度消失現(xiàn)象的深度學(xué)習(xí)模型是()A、CNNB、LSTMC、GRUD、RNN【正確答案】:D解析:
數(shù)據(jù)預(yù)處理的主要步驟分為:數(shù)據(jù)清理、數(shù)據(jù)集成、數(shù)據(jù)規(guī)約和數(shù)據(jù)變換。128.人工智能的目的是讓機(jī)器能夠(),以實(shí)現(xiàn)某些腦力勞動(dòng)的機(jī)械化A、模擬、延伸和擴(kuò)展人的智能B、和人一樣工作C、完全代替人的大腦D、徹底的替代人類【正確答案】:A129.為了增強(qiáng)網(wǎng)絡(luò)的表達(dá)能力,我們需要()來將線性函數(shù)轉(zhuǎn)換為非線性函數(shù)。A、損失函數(shù)B、指數(shù)函數(shù)C、三角函數(shù)D、激活函數(shù)【正確答案】:D解析:
見算法解析130.前饋型神經(jīng)網(wǎng)絡(luò)的中各個(gè)層之間是()的,反饋型神經(jīng)網(wǎng)絡(luò)中各個(gè)層之間是()的。A、有環(huán)B、有環(huán)C、有環(huán)D、無環(huán)E、無環(huán)F、有環(huán)【正確答案】:C131.在多通道卷積過程中,要生成n個(gè)featuremaps,需要()個(gè)卷積核立方體。A、n-2B、n^2C、[n/2]注[x]表示對(duì)x取整D、n【正確答案】:D解析:
見算法解析132.產(chǎn)生式系統(tǒng)的推理不包括()A、正向推理B、逆向推理C、雙向推理D、簡單推理【正確答案】:D133.下面有關(guān)分類算法的準(zhǔn)確率,召回率,F(xiàn)1值的描述,錯(cuò)誤的是?()A、準(zhǔn)確率是檢索出相關(guān)文檔數(shù)與檢索出的文檔總數(shù)的比率,衡量的是檢索系統(tǒng)的查準(zhǔn)率B、召回率是指檢索出的相關(guān)文檔數(shù)和文檔庫中所有的相關(guān)文檔數(shù)的比率,衡量的是檢索系統(tǒng)的查全率C、正確率、召回率和F值取值都在0和1之間,數(shù)值越接近0,查準(zhǔn)率或查全率就越高D、為了解決準(zhǔn)確率和召回率沖突問題,引入了F1值【正確答案】:C解析:
見算法解析134.在人臉檢測中,不屬于該算法難點(diǎn)的是A、出現(xiàn)人臉遮擋B、人臉角度變化大C、需要檢測分辨率很小的人臉D、需要檢測不同性別的人臉【正確答案】:D135.代碼arr1=np.array([[1,2,3],[4,5,6]]);print((arr1**2)[1,1])的輸出是()?A、5B、25C、6D、$26【正確答案】:B解析:
見算法解析136.人工智能平臺(tái)應(yīng)提供模型推送功能,可通過云邊協(xié)同套件推送至()設(shè)備。A、中間B、核心C、邊側(cè)D、側(cè)邊【正確答案】:C解析:
主要應(yīng)用137.中國《中共中央關(guān)于制定國民經(jīng)濟(jì)和社會(huì)發(fā)展第十四個(gè)五年規(guī)劃和2035遠(yuǎn)景目標(biāo)綱要的建議》指出,要瞄準(zhǔn)人工智能等前沿領(lǐng)域,實(shí)施一批具有前瞻性、戰(zhàn)略性重大科技項(xiàng)目,推動(dòng)()健康發(fā)展。A、人工智能產(chǎn)業(yè)B、數(shù)字經(jīng)濟(jì)C、實(shí)業(yè)經(jīng)濟(jì)D、社會(huì)主義【正確答案】:B解析:
習(xí)近平總書記多次作出重要指示,強(qiáng)調(diào)“要深入把握新一代人工智能發(fā)展的特點(diǎn),加強(qiáng)人工智能和產(chǎn)業(yè)發(fā)展融合,為高質(zhì)量發(fā)展提供新動(dòng)能”。138.隨著句子的長度越來越多,神經(jīng)翻譯機(jī)器將句意表征為固定維度向量的過程將愈加困難,為了解決這類問題,下面哪項(xiàng)是我們可以采用的?A、使用遞歸單元代替循環(huán)單元B、使用注意力機(jī)制(attentionmechanism)C、使用字符級(jí)別翻譯(characterleveltranslation)D、所有選項(xiàng)均不對(duì)【正確答案】:B139.在深度學(xué)習(xí)網(wǎng)絡(luò)中,反向傳播算法用于尋求最優(yōu)參數(shù),在反向傳播算法中使用的什么法則進(jìn)行逐層求導(dǎo)的?A、鏈?zhǔn)椒▌tB、累加法則C、對(duì)等法則D、歸一法則【正確答案】:A140.后剪枝是先從訓(xùn)練集生成一顆完整的決策樹,然后(___)對(duì)非葉結(jié)點(diǎn)進(jìn)行考察。A、自上而下B、在劃分前C、禁止分支展開D、自底向上【正確答案】:D解析:
見算法解析141.我們可以利用以下哪種方法實(shí)現(xiàn)反向傳播?A、計(jì)算圖B、鏈?zhǔn)椒▌tC、代價(jià)函數(shù)D、高階微分【正確答案】:B142.強(qiáng)化學(xué)習(xí)在每個(gè)時(shí)刻環(huán)境和個(gè)體都會(huì)產(chǎn)生相應(yīng)的交互。個(gè)體可以采取一定的(),這樣的行動(dòng)是施加在環(huán)境中的。A、actionB、rewardC、stateD、agent【正確答案】:A解析:
見算法解析143.下列哪項(xiàng)不屬于集成學(xué)習(xí)A、隨機(jī)森林B、AdaboostC、kNND、XGBoost【正確答案】:C解析:
最廣泛被使用的分類器有人工神經(jīng)網(wǎng)絡(luò)、支持向量機(jī)、最近鄰居法、GuassianMixtureModel、Gaussian、NaiveBayes、決策樹和RBFclassifiers。144.我國人工智能三步走戰(zhàn)略,其中第一步,()人工智能總體技術(shù)和應(yīng)用與世界先進(jìn)水平同步,人工智能產(chǎn)業(yè)成為新的重要經(jīng)濟(jì)增長點(diǎn)A、到2035年B、到2030年C、到2025年D、到2020年【正確答案】:D解析:
1997年5月,著名的“人機(jī)大戰(zhàn)”,最終深藍(lán)計(jì)算機(jī)以3.5比2.5的總比分將世界國際象棋棋王卡斯帕羅夫擊敗145.機(jī)器學(xué)習(xí)中,模型需要輸入什么來訓(xùn)練自身,預(yù)測未知?A、人工程序B、神經(jīng)網(wǎng)絡(luò)C、訓(xùn)練算法D、歷史數(shù)據(jù)【正確答案】:D146.以下兩種描述分別對(duì)應(yīng)哪兩種對(duì)分類算法的評(píng)價(jià)標(biāo)準(zhǔn)?(1)警察抓小偷,描述警察抓的人中有多少個(gè)是小偷的標(biāo)準(zhǔn)。A、精確率B、召回率C、ROCD、AUC【正確答案】:A147.中國國務(wù)院印發(fā)了《新一代人工智能發(fā)展規(guī)劃》,闡述了我國人工智能發(fā)展規(guī)劃,并提出到()年的三步走發(fā)展戰(zhàn)略目標(biāo)。A、2025B、2030C、2035D、$2,040【正確答案】:B解析:
從未來看,人們對(duì)人工智能的定位絕不僅僅只是用來解決狹窄的、特定領(lǐng)域的某個(gè)簡單具體的小任務(wù),而是真正像人類一樣,能同時(shí)解決不同領(lǐng)域、不同類型的問題,進(jìn)行判斷和決策,也就是所謂的通用型人工智能。148.()技術(shù)助力人工智能數(shù)據(jù)安全可信地進(jìn)行協(xié)作。A、量子計(jì)算B、隱私計(jì)算C、數(shù)字孿生D、數(shù)據(jù)加密【正確答案】:B解析:
人工智能系統(tǒng)穩(wěn)定性技術(shù)重點(diǎn)逐步從數(shù)字域擴(kuò)展到物理域。149.關(guān)于專用人工智能與通用人工智能,下列表述不當(dāng)?shù)厥牵?/p>
)。A、人工智能的近期進(jìn)展主要集中在專用智能領(lǐng)域B、專用人工智能形成了人工智能領(lǐng)域地單點(diǎn)突破,在局部智能水平地單項(xiàng)測試中可以超越人類智能C、通用人工智能可處理視覺、聽覺、判斷、推理、學(xué)習(xí)、思考、規(guī)劃、設(shè)計(jì)等各類問題D、真正意義上完備的人工智能系統(tǒng)應(yīng)該是一個(gè)專用的智能系統(tǒng)【正確答案】:D解析:
生物特征識(shí)別技術(shù),是指通過計(jì)算機(jī)利用人體所固有的生理特征(指紋、虹膜、面相、DNA等)或行為特征(步態(tài)、擊鍵習(xí)慣等)來進(jìn)行個(gè)人身份鑒定的技術(shù)。指紋識(shí)別、人臉識(shí)別、虹膜識(shí)別運(yùn)用的都是生物特征,體感交互是指人們可以很直接地使用肢體動(dòng)作,與周邊的裝置或環(huán)境互動(dòng),而無需使用任何復(fù)雜的控制設(shè)備,便可讓人們身歷其境地與內(nèi)容做互動(dòng),不屬于生物特征識(shí)別技術(shù)。150.要想讓機(jī)器具有智能,必須讓機(jī)器具有知識(shí)。因此,在人工智能中有一個(gè)研究領(lǐng)域,主要研究計(jì)算機(jī)如何自動(dòng)獲取知識(shí)和技能,實(shí)現(xiàn)自我完善,這門研究分支學(xué)科是A、專家系統(tǒng)B、機(jī)器學(xué)習(xí)C、神經(jīng)網(wǎng)絡(luò)D、模式識(shí)別【正確答案】:B151.Scikit-Learn中()可以實(shí)現(xiàn)計(jì)算模型準(zhǔn)確率。A、accuracy_scoreB、accuracyC、f1_scoreD、f2_score【正確答案】:A解析:
DBSCAN算法將“簇”定義為:由密度可達(dá)關(guān)系導(dǎo)出的最大的密度相連樣本集合。152.現(xiàn)在有某個(gè)軟件需要在特定場景下的門禁系統(tǒng)進(jìn)行識(shí)別照片來判斷照片中人物的男女性別,目前通過各種渠道和方法采集了10w張人臉圖片。那么()是更為合理的A、采集的照片訓(xùn)練集用7w張,測試集3w張B、全都用來訓(xùn)識(shí)別模型最好C、采集的照片訓(xùn)練集用7w張,驗(yàn)證集1w張,測試集2w張D、不需要訓(xùn)練啊,收集這么多數(shù)據(jù)是多余和浪費(fèi)的【正確答案】:C153.關(guān)于線性回歸的描述,以下說法正確的有()A、基本假設(shè)包括隨機(jī)干擾項(xiàng)是均值為0,方差為1的標(biāo)準(zhǔn)正態(tài)分布B、基本假設(shè)包括隨機(jī)干擾項(xiàng)是均值為0的同方差正態(tài)分布C、多重共線性會(huì)使得參數(shù)估計(jì)值方差減小D、基本假設(shè)包括不服從正態(tài)分布的隨機(jī)干擾項(xiàng)【正確答案】:B解析:
在人臉檢測算法中,不屬于該算法難點(diǎn)的是需要檢測不同性別的人臉154.模型庫功能要求為:模型管理包括模型()、模型刪除、版本管理、模型標(biāo)簽、模型收藏和模型共享。A、評(píng)估B、導(dǎo)出C、輸出D、導(dǎo)入【正確答案】:D解析:
主要應(yīng)用155.卷積神經(jīng)網(wǎng)絡(luò)做圖像分類任務(wù)通常不包含:A、卷積操作B、池化操作C、全連接層D、均方誤差損失函數(shù)【正確答案】:D解析:
深度學(xué)習(xí)系統(tǒng)中,參數(shù)數(shù)量非常龐大不會(huì)必然導(dǎo)致運(yùn)算精度必然高156.預(yù)測分析方法分為兩大類,分別是定性分析法和()。A、回歸分析法B、指數(shù)平滑法C、定量分析法D、平均法【正確答案】:C解析:
主要應(yīng)用157.模型庫功能要求為:模型測試包括模型部署、()測試和服務(wù)管理,模型測試服務(wù)發(fā)布應(yīng)支持向?qū)J?,宜支持一鍵自動(dòng)發(fā)布測試服務(wù),模型測試服務(wù)宜支持單卡內(nèi)存級(jí)分配。A、在線&B、&離線&C、&自動(dòng)&D、&手動(dòng)【正確答案】:A解析:
主要應(yīng)用158.人工智能的研發(fā)和應(yīng)用的政策,應(yīng)該將()置于核心位置。A、道德B、人C、資本D、隱私【正確答案】:B解析:
在技術(shù)層面,人工智能正在從云計(jì)算向邊緣計(jì)算延伸,未來將形成云計(jì)算與邊緣計(jì)算協(xié)同發(fā)展的態(tài)勢,為人工智能提供更強(qiáng)大的基礎(chǔ)設(shè)施。159.()年是元宇宙元年,互聯(lián)網(wǎng)迭代升級(jí)的大幕就此拉開。A、2018B、2019C、2020D、$2,021【正確答案】:D160.DilatedConvolution意思是?A、空洞卷積B、黑洞卷積C、細(xì)節(jié)卷積D、返向卷積【正確答案】:A解析:
見算法解析161.當(dāng)在卷積神經(jīng)網(wǎng)絡(luò)中加入池化層(poolinglayer)時(shí),變換的不變性會(huì)被保留,是嗎?A、不知道B、看情況C、是D、否【正確答案】:C解析:
首先我們應(yīng)該知道卷積或者池化后大小的計(jì)算公式,其中,padding指的是向外擴(kuò)展的邊緣大小,而stride則是步長,即每次移動(dòng)的長度。
這樣一來就容易多了,首先長寬一般大,所以我們只需要計(jì)算一個(gè)維度即可,這樣,經(jīng)過第一次卷積后的大小為:本題(200-5+2*1)/2+1為99.5,取99
經(jīng)過第一次池化后的大小為:(99-3)/1+1為97
經(jīng)過第二次卷積后的大小為:(97-3+2*1)/1+1為97162.下面不是超參數(shù)的是:A、權(quán)重和偏置B、學(xué)習(xí)率C、mini-batch的大小D、網(wǎng)絡(luò)結(jié)構(gòu)【正確答案】:A解析:
深度學(xué)習(xí)系統(tǒng)訓(xùn)練過程通常需要輸入特征值和標(biāo)簽163.線性降維方法假設(shè)從高維空間到低維空間的函數(shù)映射是()。A、一元B、線性C、多元D、非線性【正確答案】:B解析:
概率圖模型分為兩類,一類是使用有向無環(huán)圖表示依賴關(guān)系,稱為有向圖模型或貝葉斯網(wǎng)絡(luò),例如隱馬爾可夫模型;另一類是使用無向圖表示變量間的相關(guān)關(guān)系,稱為無向圖模型或是馬爾可夫網(wǎng),例如馬爾可夫隨機(jī)場164.如果問題存在最優(yōu)解,則下面幾種搜索算法中,()可以認(rèn)為在這幾種算法中是“智能程度相對(duì)比較高”的算法。A、廣度優(yōu)先搜索B、深度優(yōu)先搜索C、有界深度優(yōu)先搜索D、啟發(fā)式搜索【正確答案】:D165.關(guān)于MNIST,下列說法錯(cuò)誤的是()。A、是著名的手寫體數(shù)字識(shí)別數(shù)據(jù)集B、有訓(xùn)練集和測試集兩部分C、訓(xùn)練集類似人學(xué)習(xí)中使用的各種考試試卷D、測試集大約包含10000個(gè)樣本和標(biāo)簽【正確答案】:C166.以下兩種描述分別對(duì)應(yīng)哪兩種對(duì)分類算法的評(píng)價(jià)標(biāo)準(zhǔn)?
(a)警察抓小偷,描述警察抓的人中有多少個(gè)是小偷的標(biāo)準(zhǔn)。
(b)描述有多少比例的小偷給警察抓了的標(biāo)準(zhǔn)。A、Precision,RecallB、Recall,PrecisionC、Precision,ROCD、Recall,ROC【正確答案】:A解析:
關(guān)聯(lián)規(guī)則就是有關(guān)聯(lián)的規(guī)則,形式是這樣定義的:兩個(gè)不相交的非空集合X、Y,如果有X→Y,就說X→Y是一條關(guān)聯(lián)規(guī)則。在題目的例子中,我們發(fā)現(xiàn)購買啤酒就一定會(huì)購買尿布,{啤酒}→{尿布}就是一條關(guān)聯(lián)規(guī)則。167.前饋神經(jīng)網(wǎng)絡(luò)是一種簡單的神經(jīng)網(wǎng)絡(luò),各神經(jīng)元分層排列,是目前應(yīng)用最廣泛,發(fā)展最迅速的人工神經(jīng)網(wǎng)絡(luò)之一。以下關(guān)于前饋神經(jīng)網(wǎng)絡(luò)說法正確的是:A、具備計(jì)算能力的神經(jīng)元與上下兩層相連B、其輸入節(jié)點(diǎn)具備計(jì)算能力C、同一層神經(jīng)元相互連接D、層間信息只沿個(gè)方向傳遞【正確答案】:D168.下列哪項(xiàng)網(wǎng)絡(luò)不屬于常用的深度神經(jīng)網(wǎng)絡(luò):()A、HopField網(wǎng)絡(luò)B、AlexNetC、ResNetD、VGG【正確答案】:A169.在語音識(shí)別中,按照從微觀到宏觀的順序排列正確的是()。A、幀-狀態(tài)-音素-單詞B、幀-音素-狀態(tài)-單詞C、音素-幀-狀態(tài)-單詞D、幀-音素-單詞-狀態(tài)【正確答案】:A170.人工智能產(chǎn)業(yè)鏈主要包括:基礎(chǔ)技術(shù)支撐,(),人工智能應(yīng)用。A、智能平臺(tái)建設(shè)B、大數(shù)據(jù)C、互聯(lián)網(wǎng)D、人工智能技術(shù)【正確答案】:D解析:
ResNet網(wǎng)絡(luò)是參考了VGG19網(wǎng)絡(luò),在其基礎(chǔ)上進(jìn)行了修改,并通過短路機(jī)制加入了殘差單元171.下面是一段將圖像轉(zhuǎn)換為向量的函數(shù)img2vector。該函數(shù)創(chuàng)建1×1024的NumPy數(shù)組,然后打開給定的文件,循環(huán)讀出文件的前32行,并將每行的頭32個(gè)字符值存儲(chǔ)在NumPy數(shù)組中,最后返回?cái)?shù)組。請(qǐng)問填充在空白處的代碼應(yīng)該是哪個(gè)。defimg2vector(filename):returnVect=zeros((1,1024))fr=open(filename)foriinrange(32):______________________________forjinrange(32):returnVect[0,32*i+j]=int(lineStr[j])returnreturnVectA、lineStr=fr.readlines()B、lineStr=fr.read_line()C、lineStr=readline()D、lineStr=fr.readline()【正確答案】:D解析:
機(jī)器學(xué)習(xí)算法的一般流程
(1)收集數(shù)據(jù):可以使用任何方法。
(2)準(zhǔn)備數(shù)據(jù):距離計(jì)算所需要的數(shù)值,最好是結(jié)構(gòu)化的數(shù)據(jù)格式。
(3)分析數(shù)據(jù):可以使用任何方法。
(4)訓(xùn)練算法:此步驟不適用于k-近鄰算法。
(5)測試算法:計(jì)算錯(cuò)誤率。
(6)使用算法:首先需要輸入樣本數(shù)據(jù)和結(jié)構(gòu)化的輸出結(jié)果,然后運(yùn)行k-近鄰算法判定輸
入數(shù)據(jù)分別屬于哪個(gè)分類,最后應(yīng)用對(duì)計(jì)算出的分類執(zhí)行后續(xù)的處理。172.半監(jiān)督學(xué)習(xí)不包括A、直推學(xué)習(xí)B、純半監(jiān)督學(xué)習(xí)C、主動(dòng)學(xué)習(xí)D、圖半監(jiān)督學(xué)習(xí)【正確答案】:C解析:
見算法解析173.卷積神經(jīng)網(wǎng)絡(luò)(convolu-tionalneuralnetwork,CNN),是一種專門用來處理具有類似()的數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。A、網(wǎng)格結(jié)構(gòu)B、數(shù)組結(jié)構(gòu)C、序列結(jié)構(gòu)D、表格結(jié)構(gòu)【正確答案】:A解析:
Transformer中拋棄了傳統(tǒng)的CNN和RNN,整個(gè)網(wǎng)絡(luò)結(jié)構(gòu)完全是由Attention機(jī)制組成。174.代碼array=np.arange(10,31,5)中的5代表()?A、元素的個(gè)數(shù)B、步長C、第一個(gè)元素D、最后一個(gè)元素【正確答案】:B解析:
見算法解析175.下列哪一項(xiàng)不是常見的機(jī)器學(xué)習(xí)模型正則化方法。A、數(shù)據(jù)優(yōu)化B、數(shù)據(jù)增強(qiáng)C、模型集成D、引入?yún)?shù)范數(shù)懲罰項(xiàng)【正確答案】:A解析:
不定長輸入數(shù)據(jù)特征為RNN循環(huán)神經(jīng)網(wǎng)絡(luò)特征176.在強(qiáng)化學(xué)習(xí)中,哪個(gè)機(jī)制的引入使得強(qiáng)化學(xué)習(xí)具備了在利用與探索中尋求平衡的能力A、貪心策略B、蒙特卡洛采樣C、動(dòng)態(tài)規(guī)劃D、Bellman方程【正確答案】:A177.LSTM用于文本分類的任務(wù)中,不會(huì)出現(xiàn)的網(wǎng)絡(luò)層是A、全連接B、詞嵌入層C、卷積層D、以上選項(xiàng)均不正確【正確答案】:C178.人工智能平臺(tái)應(yīng)提供主要網(wǎng)絡(luò)設(shè)備、通信線路和()系統(tǒng)的硬件冗余,保證高可用性,在無不可抗力環(huán)境下應(yīng)滿足7×24小時(shí)服務(wù)不中斷。A、數(shù)據(jù)庫B、主機(jī)C、電源D、集群【正確答案】:D解析:
主要應(yīng)用179.在強(qiáng)化學(xué)習(xí)過程中,()表示隨機(jī)地采取某個(gè)動(dòng)作,以便于嘗試各種結(jié)果;()表示采取當(dāng)前認(rèn)為最優(yōu)的動(dòng)作,以便于進(jìn)一步優(yōu)化評(píng)估當(dāng)前認(rèn)為最優(yōu)的動(dòng)作的值。A、探索B、開發(fā)C、開發(fā)D、探索E、探索F、輸出【正確答案】:A180.ID3在分類過程中使用的()A、條件熵B、基尼指數(shù)GiniC、信息增益D、聯(lián)合熵【正確答案】:C解析:
CART樹在分類過程中使用的基尼指數(shù)Gini181.下列哪個(gè)模型屬于監(jiān)督學(xué)習(xí)的方法A、K-meansB、SVRC、DBSCAND、以上都是【正確答案】:B解析:
在pytorch中,model.eval在模型驗(yàn)證、模型測試階段都可以使用182.在大規(guī)模的語料中,挖掘詞的相關(guān)性是一個(gè)重要的問題。以下哪一個(gè)信息不能用于確定兩個(gè)詞的相關(guān)性。()A、互信息B、最大熵C、卡方檢驗(yàn)D、最大似然比【正確答案】:B183.從給定的特征集合中選擇出相關(guān)特征子集的過程,稱為(___)A、特征抽取B、特征選擇C、特征降維D、特征簡化【正確答案】:B解析:
見算法解析184.隨著集成中個(gè)體分類器(相互獨(dú)立)數(shù)目T的增大,集成的錯(cuò)誤率將呈(___)_下降,最終趨向于零A、指數(shù)級(jí)B、對(duì)數(shù)級(jí)C、線性級(jí)D、平方級(jí)【正確答案】:A解析:
見算法解析185.全局梯度下降算法、隨機(jī)梯度下降算法和批量梯度下降算法均屬于梯度下降算法,以下關(guān)于其有優(yōu)缺點(diǎn)說法錯(cuò)誤的是:A、全局梯度算法可以找到損失函數(shù)的最小值B、批量梯度算法可以解決局部最小值問題C、隨機(jī)梯度算法可以找到損失函數(shù)的最小值D、全局梯度算法收斂過程比較耗時(shí)【正確答案】:C186.正則化是為了什么?()A、最小化錯(cuò)誤率B、正規(guī)化C、防止過擬合D、最大化過擬合【正確答案】:C解析:
在其他條件不變的前提下,以下做法容易引起機(jī)器學(xué)習(xí)中的“過擬合”問題的是SVM算法中使用高斯核/RBF核代替線性核。187.以下哪個(gè)不是語音識(shí)別技術(shù)的應(yīng)用場景()A、入侵檢測B、語音合成C、語音翻譯D、智能客服【正確答案】:A188.考慮某個(gè)具體問題時(shí),你可能只有少量數(shù)據(jù)來解決這個(gè)問題。不過幸運(yùn)的是你有一個(gè)類似問題已經(jīng)預(yù)先訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)。可以用下面哪種方法來利用這個(gè)預(yù)先訓(xùn)練好的網(wǎng)絡(luò)?A、把除了最后一層外所有的層都凍結(jié),重新訓(xùn)練最后一層B、對(duì)新數(shù)據(jù)重新訓(xùn)練整個(gè)模型C、只對(duì)最后幾層進(jìn)行調(diào)參(finetune)D、對(duì)每一層模型進(jìn)行評(píng)估,選擇其中的少數(shù)來用【正確答案】:C189.如果問題存在最優(yōu)解,則下面幾種搜索算法中,()必然可以得到該最優(yōu)解。A、廣度優(yōu)先搜索B、深度優(yōu)先搜索C、有界深度優(yōu)先搜索D、啟發(fā)式搜索【正確答案】:A解析:
在監(jiān)督學(xué)習(xí)中,預(yù)測變量離散,稱為分類,預(yù)測變量連續(xù),稱為回歸,兩者本質(zhì)一樣,都是對(duì)輸入做預(yù)測,不過分類輸出的是物體所屬的類別,回歸輸出的是物體的值。答案選D190.在主成分分析中,將幾個(gè)主分量經(jīng)過線性組合構(gòu)造為一個(gè)綜合評(píng)價(jià)函數(shù)時(shí),每個(gè)主分量的權(quán)數(shù)為()。A、每個(gè)主分量的方差B、每個(gè)主分量的標(biāo)準(zhǔn)差C、每個(gè)主分量的方差貢獻(xiàn)率D、每個(gè)主分量的貢獻(xiàn)率【正確答案】:C解析:
在進(jìn)行主成分分析時(shí),應(yīng)使第一主成分在總方差中所占的比重最大。191.歸結(jié)原理的特點(diǎn)是(___)A、發(fā)明新的概念和關(guān)系B、發(fā)現(xiàn)更多的規(guī)則C、緩解過擬合的風(fēng)險(xiǎn)D、將復(fù)雜的邏輯規(guī)則與背景知識(shí)聯(lián)系起來化繁為簡【正確答案】:D解析:
見算法解析192.用戶有一種感興趣的模式并且希望在數(shù)據(jù)集中找到相似的模式,屬于數(shù)據(jù)挖掘哪一類任務(wù)?A、根據(jù)內(nèi)容檢索B、建模描述C、預(yù)測建模D、尋找模式和規(guī)則【正確答案】:A解析:
聚類是無監(jiān)督學(xué)習(xí)方法的一種,可以用來處理無標(biāo)簽的數(shù)據(jù)集。193.LSTM單元中引入了哪些門來更新當(dāng)前時(shí)刻的單元狀態(tài)向量?A、輸入門、遺忘門B、任意門、輸入門C、輸出門、任意門D、遺忘門、任意門【正確答案】:A解析:
LSTM是一種循環(huán)神經(jīng)網(wǎng)絡(luò)194.對(duì)于一個(gè)分類任務(wù),如果開始時(shí)神經(jīng)網(wǎng)絡(luò)的權(quán)重不是隨機(jī)賦值的,而是都設(shè)成0,下面哪個(gè)敘述是正確的?A、其他選項(xiàng)都不對(duì)B、沒啥問題,神經(jīng)網(wǎng)絡(luò)會(huì)正常開始訓(xùn)練C、神經(jīng)網(wǎng)絡(luò)可以訓(xùn)練,但是所有的神經(jīng)元最后都會(huì)變成識(shí)別同樣的東西D、神經(jīng)網(wǎng)絡(luò)不會(huì)開始訓(xùn)練,因?yàn)闆]有梯度改變【正確答案】:C195.從全稱判斷推導(dǎo)出特稱判斷或單稱判斷的過程,即由一般性知識(shí)推出適合于某一具體情況的結(jié)論的推理是A、默認(rèn)推理B、歸結(jié)推理C、演繹推理D、單調(diào)推理【正確答案】:C解析:
搜索分為盲從搜索與啟發(fā)式搜索196.自然語言處理機(jī)制涉及兩個(gè)流程,分別是()。A、自然語言理解和自然語言轉(zhuǎn)化B、自然語言理解和自然語言生成C、自然語言理解和自然語言翻譯D、自然語言生成和自然語言翻譯【正確答案】:B解析:
NLP問題經(jīng)歷了從基于規(guī)則到基于統(tǒng)計(jì)的過程,語法規(guī)則,詞性,構(gòu)詞法等,這些都是基于規(guī)則的自然語言處理過程,其忽略了上下文相關(guān)性,從而使建立在數(shù)學(xué)模型上的基于統(tǒng)計(jì)的自然語言方法成為主流。197.Adaboost就是從()出發(fā)反復(fù)訓(xùn)練,在其中不斷調(diào)整數(shù)據(jù)權(quán)重或者是概率分布。A、弱分類器B、強(qiáng)分類器C、多個(gè)分類器D、單個(gè)分類器【正確答案】:A解析:
Boosting的本質(zhì)實(shí)際上是一個(gè)加法模型,通過改變訓(xùn)練樣本權(quán)重學(xué)習(xí)多個(gè)分類器并進(jìn)行一些線性組合198.以下對(duì)于標(biāo)稱屬性說法不正確的是A、標(biāo)稱屬性的值是一些符號(hào)或事物的名稱,每種值代表某種類別、編碼或狀態(tài)。B、標(biāo)稱值并不具有有意義的順序,且不是定量的C、對(duì)于給定對(duì)象集,找出這些屬性的均值、中值沒有意義。D、標(biāo)稱屬性通過將數(shù)值量的值域劃分有限個(gè)有序類別,把數(shù)值屬性離散化得來?!菊_答案】:D199.最早的自然語言理解方面的研究工作是()A、語音識(shí)別B、機(jī)器翻譯C、語音合成D、語言分析【正確答案】:B200.下列關(guān)于LARS算法的說法正確的是(___)A、每次選擇一個(gè)與殘差相關(guān)性最大的特征B、是一種包裹式特征選擇法C、基于線性回歸平絕對(duì)誤差最小化D、是通過對(duì)LASSO稍加修改而實(shí)現(xiàn)【正確答案】:A解析:
見算法解析201.ROIAlign在哪個(gè)模型被采用()A、fastRCNNB、fasterRCNNC、maskRCNND、YOLOv3【正確答案】:C解析:
fasterRCNN用于生成候選框proposal的模塊是RPN202.以下哪些算法是分類算法()A、DBSCANB、C4.5
C.K-MeanD、EM【正確答案】:B203.下面哪種不屬于數(shù)據(jù)預(yù)處理的方法?A、變量代換B、離散化C、聚集D、估計(jì)遺漏值【正確答案】:D解析:
特征選擇的方法主要有三種方法:1、Filter(過濾)方法;2、Wrapper(包裝)方法;3、Embedded(嵌入)方法204.C4.5決策樹算法中采用()對(duì)連續(xù)屬性進(jìn)行離散化處理。A、二分法B、最小二乘法C、均值法D、投票法【正確答案】:A解析:
見算法解析205.DSSM經(jīng)典模型的優(yōu)點(diǎn);1.解決了字典爆炸問題,降低了計(jì)算復(fù)雜度;2.中文方面使用字作為最細(xì)切分粒度,可以復(fù)用每個(gè)字表達(dá)的詞義,減少分詞的依賴,從而提高模型的泛化能力;3.字母的n-gram可以更好的處理新詞,具有較強(qiáng)的魯棒性;4.使用有監(jiān)督的方法,優(yōu)化語義embedding的映射問題;5.省去了人工特征工程;6.采用有監(jiān)督訓(xùn)練,精度較高。A、B、C、.5.6D、3.4.6【正確答案】:C解析:
LSTM是一個(gè)非常經(jīng)典的面向序列的模型,可以對(duì)自然語言句子或是其他時(shí)序信號(hào)進(jìn)行建模,是一種循環(huán)神經(jīng)網(wǎng)絡(luò)。206.(
)是自然語言處理的重要應(yīng)用,也可以說是最基礎(chǔ)的應(yīng)用。A、文本識(shí)別B、機(jī)器翻譯C、文本分類D、問答系統(tǒng)【正確答案】:C解析:
專用人工智能,是指只對(duì)某一方面有自動(dòng)化專業(yè)能力;通用人工智能,是指具有像人一樣的思維水平以及心理結(jié)構(gòu)的全面性智能化。所以真正意義上完備的人工智能系統(tǒng)應(yīng)該是一個(gè)通用的智能系統(tǒng),D選項(xiàng)錯(cuò)誤,答案選D.207.當(dāng)前人工智能算力持續(xù)突破,面向訓(xùn)練用和推斷用的芯片仍在快速推進(jìn),基于()的訓(xùn)練芯片持續(xù)增多。A、CPUB、GPUC、FPGAD、5G通訊【正確答案】:B208.循環(huán)神經(jīng)網(wǎng)絡(luò)的英語簡寫是:A、CNNB、RNNC、DNND、CTC【正確答案】:B解析:
語言模型的作用是查看一句話成為一句“人話”的概率209.類腦計(jì)算系統(tǒng)從“()”向“()”逐步演進(jìn)A、專業(yè)、通用B、靜態(tài)、動(dòng)態(tài)C、單一、多樣D、簡單、復(fù)雜【正確答案】:A解析:
機(jī)器學(xué)習(xí)在向分布式隱私保護(hù)方向演進(jìn)。210.下列屬于基于統(tǒng)計(jì)的自然語言處理進(jìn)路的是()。A、基于中間語的翻譯B、基于深層語法的翻譯C、基于淺層語法的翻譯D、基于貝葉斯公式【正確答案】:D211.獨(dú)熱編碼的英文是:A、onehotB、twohotC、onecoldD、twocold【正確答案】:A解析:
通常池化操作的效果是使圖片變小212.信息熵是度量樣本集合(___)最常用的一種指標(biāo)。A、精確度B、準(zhǔn)確率C、召回率D、純度【正確答案】:D解析:
見算法解析213.EM算法通過迭代求L(theta)=logP(Y|theta)的(),每次迭代交替進(jìn)行求期望和求極大化。A、無偏估計(jì)B、極大似然估計(jì)C、區(qū)間估計(jì)D、有偏估計(jì)【正確答案】:B解析:
在分類學(xué)習(xí)中,提升方法通過反復(fù)修改訓(xùn)練數(shù)據(jù)的權(quán)值分布,構(gòu)建一系列基本分類器并將它們線性組合,形成一個(gè)強(qiáng)分類器。214.不屬于語音聲學(xué)特征的是?A、頻率B、語義C、時(shí)長D、振幅【正確答案】:B215.ROIPooling存在幾次取整過程?A、1B、2C、3D、nan【正確答案】:B解析:
見算法解析216.下列關(guān)于知識(shí)圖譜應(yīng)?的說法不正確的是()。A、知識(shí)問答的實(shí)現(xiàn)分為兩步:提問分析和答案推理B、傳統(tǒng)的基于關(guān)鍵詞搜索的信息搜索方法,往往無法理解用戶的意圖,用戶需自己斟選C、問答系統(tǒng)讓計(jì)算機(jī)自動(dòng)回答用戶的提問,返回相關(guān)的一系列文檔D、Siri、Cortana、小度都是以問答系統(tǒng)為核心技術(shù)的產(chǎn)品和服務(wù)【正確答案】:C217.下列選項(xiàng)中,屬于圖像識(shí)別技術(shù)應(yīng)用的是()A、人臉識(shí)別支付B、編寫word文檔C、制作多媒體D、制作ppt【正確答案】:A218.國網(wǎng)95598客戶服務(wù)從人工模式逐漸轉(zhuǎn)變?yōu)椋ǎ夥胖貜?fù)機(jī)械化的人力勞動(dòng),進(jìn)一步改善客戶服務(wù)體驗(yàn)。A、人工智能模式B、智能化模式C、智慧模式D、機(jī)器模式【正確答案】:B解析:
近年來基于GAN的“DeepFakes”(深度偽造)技術(shù)應(yīng)用,使得“換臉”虛假視頻的制作門檻不斷降低,大量深度偽造數(shù)據(jù)內(nèi)容開始涌現(xiàn)。219.2021年1月,Google推出的SwitchTransformer模型以高達(dá)1.6()的參數(shù)量打破了GPT-3作為最大AI模型的統(tǒng)治地位,成為史上首個(gè)()級(jí)語言模型。A、十億B、百億C、千億D、萬億【正確答案】:D220.在圖搜索中,選擇最有希望的節(jié)點(diǎn)作為下一個(gè)要擴(kuò)展的節(jié)點(diǎn),這種搜索方法叫做()A、寬度搜索B、深度搜索C、有序搜索D、廣義搜索【正確答案】:C221.根據(jù)numpy數(shù)組中ndim屬性的含義確定程序的輸出()。array=np.array([[1,2,3],[4,5,6],[7,8,9],[10,11,12]]);print(array.ndim)A、(3,4)B、2C、(4,3)D、$4【正確答案】:B解析:
見算法解析222.人工智能的快速發(fā)展推動(dòng)數(shù)據(jù)規(guī)模不斷提升。據(jù)IDC測算,2025年全球數(shù)據(jù)規(guī)模將達(dá)到163(),其中80%-90%是非結(jié)構(gòu)化數(shù)據(jù)。A、PBB、EBC、ZBD、YB【正確答案】:C223.代碼arr3=np.array([[1,2,3],[4,5,6]]).transpose();print(arr3[1,1])的輸出結(jié)果是()?A、5B、4C、3D、$2【正確答案】:A解析:
見算法解析224.一個(gè)特征的權(quán)重越高,說明該特征比其他特征()。A、更重要B、不重要C、有影響D、無法判斷【正確答案】:A解析:
全連接層常做為CNN網(wǎng)絡(luò)的最后一層。225.在CNN構(gòu)建中,指定每次訓(xùn)練或驗(yàn)證數(shù)據(jù)集圖片多少的變量為()。A、reluB、batchC、stepD、padding【正確答案】:B解析:
在CNN中,梯度下降法的作用是求函數(shù)最小值。226.國際組織、行業(yè)協(xié)會(huì)提出應(yīng)將監(jiān)管之手?jǐn)U展到人工智能方面,手段不包括()。A、加大資本投資B、加強(qiáng)安全方面管控C、構(gòu)建人工智能標(biāo)準(zhǔn)和規(guī)則D、鼓勵(lì)公眾參與人工智能治理【正確答案】:A227.在模型中全連接層可采用A、paddle.nn.LinearB、paddle.nn.Conv2DC、paddle.nn.MaxPool2DD、paddle.nn.ReLU【正確答案】:A解析:
不同訓(xùn)練數(shù)據(jù)集的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的最優(yōu)層數(shù)不同,并非層數(shù)越深效果越好,訓(xùn)練時(shí)間除了與層數(shù)有關(guān)以外,batchsize大小、學(xué)習(xí)率、衰減方式等都有很大影響,神經(jīng)元的數(shù)量并不一定與層數(shù)正相關(guān)228.“文檔”是待處理的數(shù)據(jù)對(duì)象,它由一組詞組成,這些詞在文檔中不計(jì)順序的額,例如一篇論文、一個(gè)網(wǎng)頁都可以看做一個(gè)文檔;這樣的表示方式稱為(___)?A、語句B、詞袋C、詞海D、詞塘【正確答案】:B解析:
見算法解析229.深度學(xué)習(xí)可以用在下列哪些NLP任務(wù)中?A、情感分析B、問答系統(tǒng)C、機(jī)器翻譯D、所有選項(xiàng)【正確答案】:D230.關(guān)于wordembedding下列敘述正確的是①.向量維數(shù)較低②.向量之間有更強(qiáng)的相關(guān)關(guān)系③.向量不再是稀疏的④.向量中的值更容易計(jì)算A、①③④B、①②③C、①③④D、①②④【正確答案】:B解析:
獨(dú)熱編碼的缺點(diǎn)是:①.過于稀疏②.詞與詞的相關(guān)性比較小231.早期圖像識(shí)別技術(shù)中存在的主要問題是()。A、全局特征丟掉了圖像細(xì)節(jié)B、提取不到主要特征C、存儲(chǔ)效率低下D、太多的錯(cuò)誤匹配【正確答案】:A解析:
在CNN構(gòu)建中,指定每次訓(xùn)練或驗(yàn)證數(shù)據(jù)集圖片多少的變量為batch。232.第一個(gè)擊敗人類職業(yè)圍棋選手、第一個(gè)戰(zhàn)勝世界圍棋冠軍的人工智能機(jī)器人是由谷歌公司開發(fā)的()。AlphaGoB、AlphaGoodC、AlphaFunD、Alpha【正確答案】:A233.說話人確認(rèn)(SpeakerVerification),是用以確認(rèn)某段語音是否是指定的某個(gè)人所說的,是“____”問題A、多選一B、一對(duì)一C、多對(duì)多【正確答案】:B解析:
說話人辨認(rèn)(SpeakerIdentification),是用以判斷某段語音是若干人中的哪一個(gè)所說的技術(shù),是“多選一”問題234.人工智能在圖像識(shí)別上已經(jīng)超越了人類,支持這些圖像識(shí)別技術(shù)的,通常是A、云計(jì)算B、因特網(wǎng)C、神經(jīng)計(jì)算D、深度神經(jīng)網(wǎng)絡(luò)【正確答案】:D235.要想讓機(jī)器具有智能,必須讓機(jī)器具有知識(shí)因此,在人工智能中有一個(gè)研究領(lǐng)域,主要研究計(jì)算機(jī)如何自動(dòng)獲取知識(shí)和技能,實(shí)現(xiàn)自
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 甲周疣的臨床護(hù)理
- 產(chǎn)后風(fēng)濕的健康宣教
- 緩慢型心律失常的護(hù)理
- 《設(shè)計(jì)你的人生》課件
- 《單片機(jī)原理及應(yīng)用 》課件-第5章
- 嘴巴里長泡的臨床護(hù)理
- 闊韌帶妊娠的健康宣教
- 皮脂腺增生的臨床護(hù)理
- JJF(陜) 116-2024 直流數(shù)字功率表校準(zhǔn)規(guī)范
- 比較線段的長短課件西西模
- 中國聯(lián)通合作方自服務(wù)門戶系統(tǒng)操作手冊(cè)-合作方人員操作V-1.0
- DB53_T 1113-2022預(yù)應(yīng)力混凝土連續(xù)剛構(gòu)橋施工監(jiān)控技術(shù)規(guī)程
- 現(xiàn)代操作系統(tǒng)教程(慕課版)-課后習(xí)題答案1-8章全帶原題
- 商業(yè)綜合體項(xiàng)目可行性研究報(bào)告
- 危險(xiǎn)化學(xué)品安全儲(chǔ)存
- berg平衡評(píng)定量表
- 語文優(yōu)秀教研組申報(bào)材料
- 03船舶證書一覽表
- 墻體構(gòu)造設(shè)計(jì)
- 成人哮喘生命質(zhì)量評(píng)分表
- 數(shù)字油畫-社團(tuán)活動(dòng)記錄課件
評(píng)論
0/150
提交評(píng)論