![人工智能練習(xí)題庫(kù)含答案_第1頁(yè)](http://file4.renrendoc.com/view/1927d7f963efc250774ab0d0ec3aca0b/1927d7f963efc250774ab0d0ec3aca0b1.gif)
![人工智能練習(xí)題庫(kù)含答案_第2頁(yè)](http://file4.renrendoc.com/view/1927d7f963efc250774ab0d0ec3aca0b/1927d7f963efc250774ab0d0ec3aca0b2.gif)
![人工智能練習(xí)題庫(kù)含答案_第3頁(yè)](http://file4.renrendoc.com/view/1927d7f963efc250774ab0d0ec3aca0b/1927d7f963efc250774ab0d0ec3aca0b3.gif)
![人工智能練習(xí)題庫(kù)含答案_第4頁(yè)](http://file4.renrendoc.com/view/1927d7f963efc250774ab0d0ec3aca0b/1927d7f963efc250774ab0d0ec3aca0b4.gif)
![人工智能練習(xí)題庫(kù)含答案_第5頁(yè)](http://file4.renrendoc.com/view/1927d7f963efc250774ab0d0ec3aca0b/1927d7f963efc250774ab0d0ec3aca0b5.gif)
版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
人工智能練習(xí)題庫(kù)含答案1、下列哪個(gè)應(yīng)用領(lǐng)域不屬于人工智能應(yīng)用?()A、人工神經(jīng)網(wǎng)絡(luò)B、自動(dòng)控制C、自然語(yǔ)言學(xué)習(xí)D、專(zhuān)家系統(tǒng)答案:B2、下列哪些項(xiàng)目是在圖像識(shí)別任務(wù)中使用的數(shù)據(jù)擴(kuò)增技術(shù)(dataaugmentationtechnique)?1水平翻轉(zhuǎn)(Horizontalflipping)2隨機(jī)裁剪(Randomcropping)3隨機(jī)放縮(Randomscaling)4顏色抖動(dòng)(Colorjittering)5隨機(jī)平移(Randomtranslation)6隨機(jī)剪切(Randomshearing)A、1,3,5,6B、1,2,4C、2,3,4,5,6D、所有項(xiàng)目答案:D3、關(guān)于Python循環(huán)結(jié)構(gòu),以下選項(xiàng)中描述錯(cuò)誤的是A、continue結(jié)束整個(gè)循環(huán)過(guò)程,不再判斷循環(huán)的執(zhí)行條件B、遍歷循環(huán)中的遍歷結(jié)構(gòu)可以是字符串、文件、組合數(shù)據(jù)類(lèi)型和range函數(shù)等C、Python通過(guò)for、while等保留字構(gòu)建循環(huán)結(jié)構(gòu)D、continue用來(lái)結(jié)束當(dāng)前當(dāng)次語(yǔ)句,但不跳出當(dāng)前的循環(huán)體答案:A4、聚類(lèi)是一種典型的無(wú)監(jiān)督學(xué)習(xí)任務(wù),然而在現(xiàn)實(shí)聚類(lèi)任務(wù)中我們往往能獲得一些額外的監(jiān)督信息,于是可通過(guò)(___)來(lái)利用監(jiān)督信息以獲得更好的聚類(lèi)效果。A、監(jiān)督聚類(lèi)B、半監(jiān)督聚類(lèi)C、聚類(lèi)D、直推聚類(lèi)答案:B5、關(guān)于神經(jīng)網(wǎng)絡(luò)的說(shuō)法中,正確的是()A、增加網(wǎng)絡(luò)層數(shù),總能減小訓(xùn)練集錯(cuò)誤率B、減小網(wǎng)絡(luò)層數(shù),總能減小測(cè)試集錯(cuò)誤率C、增加網(wǎng)絡(luò)層數(shù),可能增加測(cè)試集錯(cuò)誤率答案:C6、下面哪種寫(xiě)法表示如果cmd1成功執(zhí)行,則執(zhí)行cmd2命令?A、cmd1&&cmd2B、cmd1|cmd2C、cmd1D、cmd2E、cmd1||cmd2答案:A7、在python中Series想要預(yù)覽部分?jǐn)?shù)據(jù),可以使用A、data.viewB、data.descripeC、data.showD、data.head答案:D8、強(qiáng)化學(xué)習(xí)的目標(biāo)是找到()的策略A、最小損失函數(shù)B、最大化收益C、局部最優(yōu)解D、全局最優(yōu)解答案:B9、()反映的是模型每一次輸出結(jié)果與模型輸出期望之間的誤差,即模型的穩(wěn)定性。反應(yīng)預(yù)測(cè)的波動(dòng)情況。A、標(biāo)準(zhǔn)差B、方差C、偏差D、平方差答案:B10、下列哪一個(gè)不是無(wú)約束算法。A、梯度下降法B、擬牛頓法C、啟發(fā)式優(yōu)化方法D、EM算法答案:D11、列表推導(dǎo)式[int(n/2)forninrange(5)]的輸出結(jié)果是下列哪項(xiàng)?A、0,0.5,1.5,2,2.5]B、1,2,3,4,5]C、0,1,1,2,2]D、0,0,1,1,2]答案:D12、CNN網(wǎng)絡(luò)設(shè)計(jì)中,學(xué)習(xí)率的設(shè)置往往對(duì)訓(xùn)練收斂起到關(guān)鍵作用,關(guān)于學(xué)習(xí)率的說(shuō)法,錯(cuò)誤的是()A、學(xué)習(xí)率太小,更新速度慢B、學(xué)習(xí)率過(guò)大,可能跨過(guò)最優(yōu)解C、學(xué)習(xí)率也是有網(wǎng)絡(luò)學(xué)習(xí)而來(lái)D、學(xué)習(xí)率可在網(wǎng)絡(luò)訓(xùn)練過(guò)程中更改答案:C13、下列關(guān)于Python函數(shù)調(diào)用說(shuō)法錯(cuò)誤的是()。A、函數(shù)的遞歸調(diào)用必須有一個(gè)明確的結(jié)束條件B、函數(shù)的遞歸調(diào)用每次進(jìn)入更深一層遞歸時(shí),問(wèn)題規(guī)模相比上次遞歸都應(yīng)有所減少C、函數(shù)的遞歸調(diào)用效率不高,遞歸層次過(guò)多會(huì)導(dǎo)致棧溢出(在計(jì)算機(jī)中,函數(shù)調(diào)用是通過(guò)棧(stack)這種數(shù)據(jù)結(jié)構(gòu)實(shí)現(xiàn)的,每當(dāng)進(jìn)入一個(gè)函數(shù)調(diào)用,棧就會(huì)加一層棧幀,每當(dāng)函數(shù)返回,棧就會(huì)減一層棧D、函數(shù)的遞歸調(diào)用由于棧的大小是無(wú)限的,所以,遞歸調(diào)用的次數(shù)過(guò)多,也不會(huì)導(dǎo)致棧溢出答案:D14、在Linux系統(tǒng)中,下列哪個(gè)命令可以用來(lái)查看kernel版本信息:()A、checkB、lskernelC、kernelD、uname答案:D15、VGG-19中卷積核的大小為A、3x3B、5x5C、3x3,5x5D、不確定答案:A16、以下兩種描述分別對(duì)應(yīng)哪兩種對(duì)分類(lèi)算法的評(píng)價(jià)標(biāo)準(zhǔn)?(a)警察抓小偷,描述警察抓的人中有多少個(gè)是小偷的標(biāo)準(zhǔn)。(b)描述有多少比例的小偷給警察抓了的標(biāo)準(zhǔn)。A、Precision,RecallB、Recall,PrecisionC、Precision,ROCD、Recall,ROC答案:A17、下列哪一個(gè)不是神經(jīng)網(wǎng)絡(luò)的代表()A、卷積神經(jīng)網(wǎng)絡(luò)B、遞歸神經(jīng)網(wǎng)絡(luò)C、殘差網(wǎng)絡(luò)D、xgboost算法答案:D18、傳統(tǒng)的IT產(chǎn)品的開(kāi)發(fā)遵循的原則是()。A、三分技術(shù)、七分管理、十二分?jǐn)?shù)據(jù)B、三分?jǐn)?shù)據(jù)、七分智慧、十二分體驗(yàn)C、三分技術(shù)、五分管理、十一分?jǐn)?shù)據(jù)D、三分?jǐn)?shù)據(jù)、五分管理、十一分體驗(yàn)答案:A19、反向傳播算法一開(kāi)始計(jì)算什么內(nèi)容的梯度,之后將其反向傳播?A、預(yù)測(cè)結(jié)果與樣本標(biāo)簽之間的誤差B、各個(gè)輸入樣本的平方差之和C、各個(gè)網(wǎng)絡(luò)權(quán)重的平方差之和D、都不對(duì)答案:A20、關(guān)于主成分分析PCA說(shuō)法不正確的是A、我們必須在使用PCA前規(guī)范化數(shù)據(jù)B、我們應(yīng)該選擇使得模型有最大variance的主成分C、我們應(yīng)該選擇使得模型有最小variance的主成分D、我們可以使用PCA在低緯度上做數(shù)據(jù)可視化答案:C21、在K-搖臂賭博機(jī)中,若嘗試次數(shù)非常大,在一段時(shí)間后,搖臂的獎(jiǎng)賞能很好的近似出來(lái),不再需要探索,則可讓?duì)烹S著嘗試次數(shù)增加而(___)A、增大B、置為無(wú)窮C、置為0D、減少答案:D22、按標(biāo)注活動(dòng)的自動(dòng)化程度,以下()不屬于數(shù)據(jù)標(biāo)注的類(lèi)別。A、手工標(biāo)注B、自動(dòng)化標(biāo)注C、半自動(dòng)化標(biāo)注D、半手工標(biāo)注答案:D23、知識(shí)圖譜中的邊稱(chēng)為?A、連接邊B、關(guān)系C、屬性D、特征答案:B24、下列對(duì)LVW算法的說(shuō)法錯(cuò)誤的是(___)A、算法中特征子集搜索采用了隨機(jī)策略B、每次特征子集評(píng)價(jià)都需要訓(xùn)練學(xué)習(xí)器,開(kāi)銷(xiāo)很大C、算法設(shè)置了停止條件控制參數(shù)D、算法可能求不出解答案:D25、下面對(duì)前饋神經(jīng)網(wǎng)絡(luò)這種深度學(xué)習(xí)方法描述不正確的是A、是一種端到端學(xué)習(xí)的方法B、是一種監(jiān)督學(xué)習(xí)的方法C、實(shí)現(xiàn)了非線性映射D、隱藏層數(shù)目大小對(duì)學(xué)習(xí)性能影響不大答案:D26、神經(jīng)網(wǎng)絡(luò)研究屬于下列哪個(gè)學(xué)派?A、符號(hào)主義B、連接主義C、行為主義D、以上都不是答案:B27、已知x=3,那么執(zhí)行語(yǔ)句x*=6之后,x的值為_(kāi)________。A、18B、9C、3D、$2答案:A28、已知x=[3,5,7],那么表達(dá)式x[-1::-1]的值為()。A、3]B、5,3]C、7,5]D、7,5,3]答案:D29、關(guān)于人工智能的發(fā)展歷史下列說(shuō)法中不正確的是()。A、其發(fā)展階段經(jīng)歷了三次大的浪潮。B、第一次是50-60年代注重邏輯推理的機(jī)器翻譯時(shí)代。C、人工智能的概念形成于20世紀(jì)40年代。D、第二次是70-80年代依托知識(shí)積累構(gòu)建模型的專(zhuān)家系統(tǒng)時(shí)代。答案:C30、在專(zhuān)家系統(tǒng)的開(kāi)發(fā)過(guò)程中使用的專(zhuān)家系統(tǒng)工具一般分為專(zhuān)家系統(tǒng)的和通用專(zhuān)家系統(tǒng)工具兩類(lèi)。A、模型工具B、外殼C、知識(shí)庫(kù)工具D、專(zhuān)用工具答案:B31、下面哪個(gè)Linux命令可以一次顯示一頁(yè)內(nèi)容?A、pauseB、catC、moreD、grep答案:C32、代碼defa(b,c,d):pass含義是?A、定義一個(gè)列表,并初始化它。B、定義一個(gè)函數(shù),但什么都不做。C、定義一個(gè)函數(shù),并傳遞參數(shù)。D、定義一個(gè)空的類(lèi)。答案:B33、混淆矩陣中TP=16,FP=12,FN=8,TN=4,召回率是()。A、1212122022年1月4日B、1212122022年1月2日C、1212122022年4月7日D、1212122022年2月3日答案:D34、OCR是指對(duì)文本書(shū)面資料(印刷字體、手寫(xiě)字體)的圖像文件進(jìn)行分析識(shí)別處理,獲取文字及版面信息的過(guò)程,其中文全程是()。A、光學(xué)字符識(shí)別B、文字識(shí)別C、字符識(shí)別D、書(shū)面識(shí)別答案:A35、下面不屬于人工智能研究基本內(nèi)容的是()。A、機(jī)器感知B、機(jī)器學(xué)習(xí)C、自動(dòng)化D、機(jī)器思維答案:C36、用Tensorflow處理圖像識(shí)別任務(wù)時(shí),若輸入數(shù)據(jù)的形狀為[64,224,224,3],下面說(shuō)法正確的是A、每一張圖片都是二值圖片B、每一張圖片都是三通道圖片C、模型一次處理224張圖片(batchsize為224)D、以上選項(xiàng)均不正確答案:B37、關(guān)于字符串下列說(shuō)法錯(cuò)誤的是A、字符應(yīng)該視為長(zhǎng)度為1的字符串&B、&字符串以\0標(biāo)志字符串的結(jié)束&C、&既可以用單引號(hào),也可以用雙引號(hào)創(chuàng)建字符串&D、&在三引號(hào)字符串中可以包含換行回車(chē)等特殊字符答案:B38、從裝有大小,材質(zhì)完全相同的3個(gè)紅球和3個(gè)黑球的不透明口袋中,隨機(jī)摸出兩個(gè)小球,則兩個(gè)小球同色的概率為A、1212122022年2月3日B、1212122022年1月2日C、1212122022年2月5日D、1212122022年1月3日答案:C39、在下列哪些應(yīng)用中,我們可以使用深度學(xué)習(xí)來(lái)解決問(wèn)題?A、蛋白質(zhì)結(jié)構(gòu)預(yù)測(cè)B、化學(xué)反應(yīng)的預(yù)測(cè)C、外來(lái)粒子的檢測(cè)D、所有這些答案:D40、以下()不屬于常用的數(shù)據(jù)加工方法A、采集B、脫敏C、歸約D、分解處理答案:A41、()表達(dá)式在Python中是非法的。A、x=y=z=1B、x=y=z+1C、x,y=y,xD、x?+=?y答案:B42、設(shè)z=xyz+z^2+5,則u在點(diǎn)M(0,1,-1)處的梯度是()。A、0,2,-2B、1,0,2C、-1,1,0D、-1,0,-2答案:D43、深度學(xué)習(xí)中的不同最優(yōu)化方式,如SGD,ADAM下列說(shuō)法中正確的是A、在實(shí)際場(chǎng)景下,應(yīng)盡量使用ADAM,避免使用SGDB、同樣的初始學(xué)習(xí)率情況下,ADAM的收斂速度總是快于SGD方法C、相同超參數(shù)數(shù)量情況下,比起自適應(yīng)的學(xué)習(xí)率調(diào)整方式,SGD加手動(dòng)調(diào)節(jié)通常會(huì)取得更好效果D、同樣的初始學(xué)習(xí)率情況下,ADAM比SGD容易過(guò)擬合答案:C44、函數(shù)u=ln(x+sqrt(y^2+z^2))在點(diǎn)M(1,0,1)處沿點(diǎn)M指向N(3,-2,2)方向的方向?qū)?shù)是()。A、1212122022年3月2日B、1212122022年1月2日C、-1.5D、-0.5答案:B45、下列哪個(gè)系統(tǒng)屬于新型專(zhuān)家系統(tǒng)?A、多媒體專(zhuān)家系統(tǒng)B、實(shí)時(shí)專(zhuān)家系統(tǒng)C、軍事專(zhuān)家系統(tǒng)D、分布式專(zhuān)家系統(tǒng)答案:D46、已知x=3和y=5,執(zhí)行語(yǔ)句x,y=y,x后x的值是____。A、5B、3C、NoneD、$4答案:A47、numpy.arange(0,4)的結(jié)果為()A、array0,1,2,3]B、array0,1,2,3]C、0,1,2,3]D、array0,1,2,3,4]答案:A48、下列關(guān)于半樸素貝葉斯描述錯(cuò)誤的為(___)A、假設(shè)屬性之間完全獨(dú)立;B、假設(shè)屬性之間部分相關(guān);C、獨(dú)依賴(lài)估計(jì)為半樸素貝葉斯最常用的策略;D、假設(shè)所以屬性都依賴(lài)于同一個(gè)屬性;答案:A49、下列哪個(gè)不是人工智能的研究領(lǐng)域()。A、機(jī)器證明B、模式識(shí)別C、人工生命D、編譯原理答案:D50、()是數(shù)據(jù)庫(kù)管理系統(tǒng)運(yùn)行的基本工作單位。A、事務(wù)B、數(shù)據(jù)倉(cāng)庫(kù)C、數(shù)據(jù)單元D、D數(shù)據(jù)分析答案:A51、對(duì)于DBSCAN,參數(shù)Eps固定,當(dāng)MinPts取值較大時(shí),會(huì)導(dǎo)致A、能很好的區(qū)分各類(lèi)簇B、只有高密度的點(diǎn)的聚集區(qū)劃為簇,其余劃為噪聲C、低密度的點(diǎn)的聚集區(qū)劃為簇,其余的劃為噪聲D、無(wú)影響答案:B52、下列哪個(gè)函數(shù)不可以做激活函數(shù)?A、y=tanhxB、y=sinxC、y=maxx,0D、y=2x答案:D53、或圖通常稱(chēng)為()。A、框架網(wǎng)絡(luò)B、語(yǔ)義圖C、博亦圖D、狀態(tài)圖答案:D54、設(shè)f(x,y,z)=(x^2)yz,求在點(diǎn)M(1,1,1)沿向量l=(2,-1,3)的方向?qū)?shù)為()。A、8/sqrt14B、6/sqrt14C、2/sqrt6D、3/sqrt6答案:B55、讀取文件時(shí)并指定文件以空格分隔,則應(yīng)該添加A%、sep="”B、sep="\t”C、sep=""D、sep="\r”"答案:C56、阿爾法狗是第一個(gè)擊敗人類(lèi)職業(yè)圍棋選手、第一個(gè)戰(zhàn)勝?lài)迨澜绻谲姷娜斯ぶ悄艹绦?,它的主要工作原理是什么?A、機(jī)器學(xué)習(xí)B、深度學(xué)習(xí)C、BP神經(jīng)網(wǎng)絡(luò)D、卷積神經(jīng)網(wǎng)絡(luò)答案:B57、感知機(jī)由()神經(jīng)元組成。A、兩層B、三層C、一層D、四層答案:A58、對(duì)學(xué)習(xí)器的泛化性能進(jìn)行評(píng)估,不僅需要有效可行的實(shí)驗(yàn)估計(jì)方法,還需要有衡量模型泛化能力的評(píng)價(jià)標(biāo)準(zhǔn),這就是()。A、性能度量B、性能評(píng)估C、泛化能力評(píng)估D、性能衡量答案:A59、影響基本K-均值算法的主要因素不包括下列哪一個(gè)選項(xiàng)?A、樣本輸入順序B、模式相似性測(cè)度C、聚類(lèi)準(zhǔn)則D、初始類(lèi)中心的選取答案:C60、數(shù)據(jù)產(chǎn)品“以數(shù)據(jù)為中心”的特征不僅體現(xiàn)在“以數(shù)據(jù)為核心生產(chǎn)要素”,而且還表現(xiàn)在以下三個(gè)方面A、數(shù)據(jù)驅(qū)動(dòng)數(shù)據(jù)密集型數(shù)據(jù)范式B、數(shù)據(jù)加工數(shù)據(jù)密集型數(shù)據(jù)范式C、數(shù)據(jù)驅(qū)動(dòng)數(shù)據(jù)審計(jì)數(shù)據(jù)分析D、數(shù)據(jù)加工數(shù)據(jù)審計(jì)數(shù)據(jù)分析答案:A61、下列屬于無(wú)監(jiān)督學(xué)習(xí)的模型是()A、k-meansB、線性回歸C、神經(jīng)網(wǎng)絡(luò)D、決策樹(shù)答案:A62、以下哪一種分布是二維隨機(jī)變量的分布()。A、正態(tài)分布B、二項(xiàng)分布C、邊緣分布D、指數(shù)分布答案:C63、專(zhuān)家系統(tǒng)是一個(gè)復(fù)雜的智能軟件,它處理的對(duì)象是用符號(hào)表示的知識(shí),處理的過(guò)程是()的過(guò)程。A、思維B、思考C、推理D、遞推答案:C64、設(shè)f′(x0)=0,則曲線y=f(x)在點(diǎn)(x0,f(x0))處的切線()A、不存在B、與x軸平行或重合C、x軸垂直D、與x軸相交但不垂直答案:B65、在Python中,用變量code存儲(chǔ)學(xué)生的借書(shū)卡編碼,例如:code=“NO.2020100502”,則變量code的數(shù)據(jù)類(lèi)型應(yīng)定義為()A、布爾型B、整型C、字符串型D、浮點(diǎn)型答案:C66、比較成熟的分類(lèi)預(yù)測(cè)模型算法包括Logistic回歸模型、廣義線性模型、()、神經(jīng)網(wǎng)絡(luò)A、決策樹(shù)B、arima模型C、holt-winter模型D、k-means模型答案:A67、人工智能的近期目標(biāo)是()。A、實(shí)現(xiàn)機(jī)器智能B、實(shí)現(xiàn)自我學(xué)習(xí)C、降低搭建成本D、超越人類(lèi)答案:A68、pandas中下列哪個(gè)函數(shù)可以根據(jù)單個(gè)或多個(gè)鍵將不同DataFrame的行連接起來(lái)。A、bineB、pd.concatC、pd.mergeD、pd.agg答案:C69、常見(jiàn)的圖像預(yù)處理方法不包括(____)。A、圖像降噪B、圖像增強(qiáng)C、圖像尺寸歸一化D、圖像標(biāo)注答案:D70、深度學(xué)習(xí)涉及到大量的矩陣相乘,現(xiàn)需要計(jì)算三個(gè)稠密矩陣A,B,C的乘積ABC,假設(shè)三個(gè)矩陣的尺寸分別為m?n,n?p,p?q,且m<n<p<q,以下計(jì)算順序效率最高的是A、ABC&B、&ACB&C、&ABC&D、&所有效率都相同答案:A71、變量[0,0,1,1,1]的信息熵為()。A、-3/5log3/5+2/5log2/5B、3/5log3/5+2/5log2/5C、2/5log3/5+3/5log2/5D、3/5log2/5–2/5log3/5答案:A72、能通過(guò)對(duì)過(guò)去和現(xiàn)在已知狀況的分析,推斷未來(lái)可能發(fā)生的情況的專(zhuān)家系統(tǒng)是()。A、修理專(zhuān)家系統(tǒng)B、預(yù)測(cè)專(zhuān)家系統(tǒng)C、調(diào)試專(zhuān)家系統(tǒng)D、規(guī)劃專(zhuān)家系統(tǒng)答案:B73、3*4的方格,從左下角走到右上角,跨一方格為1步,最短路徑前提下一共有()種不同路徑?A、12B、81C、35D、$64答案:C74、相互關(guān)聯(lián)的數(shù)據(jù)資產(chǎn)標(biāo)準(zhǔn),應(yīng)確保()。數(shù)據(jù)資產(chǎn)標(biāo)準(zhǔn)存在沖突或銜接中斷時(shí),后序環(huán)節(jié)應(yīng)遵循和適應(yīng)前序環(huán)節(jié)的要求,變更相應(yīng)數(shù)據(jù)資產(chǎn)標(biāo)準(zhǔn)。A、連接B、配合C、銜接和匹配D、連接和配合答案:C75、學(xué)習(xí)器的實(shí)際預(yù)測(cè)輸出與樣本的真實(shí)輸出之間的差異稱(chēng)為A、錯(cuò)誤率B、精度C、誤差D、查準(zhǔn)率答案:C76、CRISP-DM將數(shù)據(jù)挖掘的過(guò)程抽象為四個(gè)層次:階段、一般任務(wù)、()和過(guò)程實(shí)例A、具體任務(wù)B、分析C、規(guī)劃D、建模答案:A77、作為一家專(zhuān)業(yè)的圖形處理芯片公司,()在1999年發(fā)明圖形處理器GPU。A、高通B、英特爾C、AMDD、英偉達(dá)答案:D78、()的層結(jié)構(gòu)主要有:輸入層、卷積層、池化層(匯聚層、下采樣層)、輸出層等,其他的還可以有全連接層,歸一化層之類(lèi)的層結(jié)構(gòu)。A、卷積神經(jīng)網(wǎng)絡(luò)B、網(wǎng)絡(luò)神經(jīng)C、識(shí)別神經(jīng)D、圖像神經(jīng)答案:A79、下面關(guān)于RandomForest和GradientBoostingTrees說(shuō)法正確的是?()A、RndomForest的中間樹(shù)不是相互獨(dú)立的,而GrdientBoostingTrees的中間樹(shù)是相互獨(dú)立的B、兩者都使用隨機(jī)特征子集來(lái)創(chuàng)建中間樹(shù)C、在GradientBoostingTrees中可以生成并行樹(shù),因?yàn)樗鼈兪窍嗷オ?dú)立的D、無(wú)論任何數(shù)據(jù),GraientBoostingTrees總是優(yōu)于RanomFores答案:B80、1956年之前,人工智能領(lǐng)域的三論不包括().A、控制論B、數(shù)據(jù)論C、信息論D、系統(tǒng)論答案:B81、算法性能顯著不同時(shí),需要進(jìn)行(___)來(lái)進(jìn)一步區(qū)分各算法。A、后續(xù)檢驗(yàn)B、Friedman檢驗(yàn)C、交叉驗(yàn)證t檢驗(yàn)D、McNemar檢驗(yàn)答案:A82、下列關(guān)于建模流程描述中,錯(cuò)誤的是A、業(yè)務(wù)需求邊界的確認(rèn)十分關(guān)鍵B、特征工程階段結(jié)束后就不需要再進(jìn)行數(shù)據(jù)處理了C、應(yīng)該根據(jù)實(shí)際情況選擇合適的算法D、模型效果不好需要從多個(gè)環(huán)節(jié)進(jìn)行綜合考察迭代答案:B83、一對(duì)一分類(lèi)器,k個(gè)類(lèi)別需要多少個(gè)SVM?A、kk-1/2B、kk-1C、kk-2D、k-1k-2答案:A84、為應(yīng)對(duì)卷積網(wǎng)絡(luò)模型中大量的權(quán)重存儲(chǔ)問(wèn)題,研究人員在適量犧牲精度的基礎(chǔ)上設(shè)計(jì)出一款超輕量化模型()A、KNNB、RNNC、BNND、VGG答案:C85、使用一個(gè)滑動(dòng)窗口對(duì)語(yǔ)料()掃描,在每個(gè)窗口內(nèi),中心詞需要預(yù)測(cè)它的上下文,并形成訓(xùn)練數(shù)據(jù)A、從左到右B、從上到下C、從右到左D、從下到上答案:A86、faster-rcnn回歸分支采用()lossA、L1B、L2C、SmoothL1D、nan答案:C87、關(guān)于學(xué)習(xí)率的描述正確的是:A、學(xué)習(xí)率和w、b一樣是參數(shù),是系統(tǒng)自己學(xué)習(xí)得到的B、學(xué)習(xí)率越大系統(tǒng)運(yùn)行速度越快C、學(xué)習(xí)率越小系統(tǒng)一定精度越高D、學(xué)習(xí)率的大小是根據(jù)不同場(chǎng)景程序員自己設(shè)定的,不宜太大或者太小答案:D88、設(shè)矩陣A=[3,-1,-2;1,0,-1;-2,1,4],則A的伴隨矩陣(1,2)位置的元素是()。A、-6B、6C、-2D、$2答案:B89、Python使用()符號(hào)標(biāo)示注釋。A、&B、*C、#D、//答案:C90、下面關(guān)于最小二乘法(OrdinaryLeastSquares)的說(shuō)法,正確的是:A、最小二乘
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 如何獲取期刊論文格式
- 入團(tuán)申請(qǐng)書(shū)高中1000字
- 大學(xué)生創(chuàng)業(yè)項(xiàng)目訓(xùn)練計(jì)劃
- 上海大學(xué)生餐飲創(chuàng)業(yè)項(xiàng)目
- ktv雙十一活動(dòng)策劃書(shū)(第二稿)
- 第5章 一元一次方程單元測(cè)試(含解析)-七年級(jí)數(shù)學(xué)下冊(cè)(華師大版)
- 音樂(lè)的本質(zhì)探索
- 藝術(shù)與生活模板
- 聘任申請(qǐng)書(shū)養(yǎng)護(hù)工
- 初級(jí)銀行業(yè)法律法規(guī)與綜合能力-初級(jí)銀行從業(yè)資格考試《法律法規(guī)與綜合能力》押題密卷4
- 地震應(yīng)急救援培訓(xùn)課件
- 《汽車(chē)電氣設(shè)備構(gòu)造與維修》 第4版 課件 第3、4章 電源系統(tǒng)、發(fā)動(dòng)機(jī)電器
- 《南京瞻園賞析》課件2
- 2023年南京市鼓樓區(qū)建寧路街道安監(jiān)辦招聘專(zhuān)職安全員考試真題及答案
- 《有責(zé)任有擔(dān)當(dāng)青春才會(huì)閃光》教學(xué)課件-2023-2024學(xué)年高一下學(xué)期愛(ài)國(guó)主義教育主題班會(huì)
- 幼兒中班故事《豬太太生寶寶》課件
- 2021年湖南省公務(wù)員考試行政職業(yè)能力測(cè)驗(yàn)真題
- 井工煤礦中長(zhǎng)期防治水規(guī)劃編制細(xì)則
- 高等數(shù)學(xué)課件第一章函數(shù)與極限
- 設(shè)備使用手冊(cè)(范例模板)
- 轉(zhuǎn)讓店鋪定金合同范文
評(píng)論
0/150
提交評(píng)論