版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
試卷科目:人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷6)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)第1部分:?jiǎn)雾?xiàng)選擇題,共155題,每題只有一個(gè)正確答案,多選或少選均不得分。[單選題]1.SVM在()情況下表現(xiàn)糟糕。A)線性可分?jǐn)?shù)據(jù)B)清洗過(guò)的數(shù)據(jù)C)含噪聲數(shù)據(jù)與重疊數(shù)據(jù)點(diǎn)答案:C解析:[單選題]2.我們常用()版。A)apache版B)cdh版C)Hortonworks版本答案:B解析:[單選題]3.最佳分類(lèi)是曲線下區(qū)域面積最大者,而黃線在曲線下面積最大.2、假設(shè)你在測(cè)試邏輯回歸分類(lèi)器,設(shè)函數(shù)H為style="width:211px;"class="fr-ficfr-filfr-dibcursor-hover">下圖中的哪一個(gè)代表上述分類(lèi)器給出的決策邊界?A)style="width:auto;"class="fr-ficfr-filfr-dib">B)style="width:auto;"class="fr-ficfr-filfr-dib">C)style="width:auto;"class="fr-ficfr-filfr-dib">答案:B解析:選項(xiàng)B正確。雖然我們的式子由選項(xiàng)A和選項(xiàng)B所示的y=g(-6+x2)表示,但是選項(xiàng)B才是正確的答案,因?yàn)楫?dāng)將x2=6的值放在等式中時(shí),要使y=g(0)就意味著y=0.5將在線上,如果你將x2的值增加到大于6,你會(huì)得到負(fù)值,所以輸出將是區(qū)域y=0。[單選題]4.基于二次準(zhǔn)則函數(shù)的H-K算法較之于感知器算法的優(yōu)點(diǎn)是()?A)計(jì)算量小B)可以判別問(wèn)題是否線性可分C)其解完全適用于非線性可分的情況答案:B解析:[單選題]5.屬于常見(jiàn)問(wèn)題解答模塊的主要技術(shù)的是()。[]*A問(wèn)句相似度計(jì)算A)語(yǔ)料庫(kù)的構(gòu)建B)查詢擴(kuò)展C)模式匹配答案:A解析:[單選題]6.已知表test(name)的記錄如下,TomTom_greenTomlyLily代碼select*fromtestwherenamerlike'tom.*'的結(jié)果有幾條記錄A)1B)2C)3D)0答案:C解析:[單選題]7.假定你在神經(jīng)網(wǎng)絡(luò)中的隱藏層中使用激活函數(shù)X。在特定神經(jīng)元給定任意輸入,你會(huì)得到輸出-0.01。X可能是以下哪一個(gè)激活函數(shù)?A)ReLUB)tanhC)SigmoidD)以上都有可能答案:B解析:ReLU的輸出范圍是[0,+∞),tanh的輸出范圍是(-1,+1),Sigmoid的輸出范圍是(0,+1)。[單選題]8.代碼selectbin(17)與下面結(jié)果一致:A)selectconv(17,10,2)B)selectconv(17,2,10)C)selectconv(17,2,16)D)selectconv(17,10,16)答案:A解析:[單選題]9.K-搖臂賭博機(jī)屬于(__)算法。A)機(jī)器學(xué)習(xí)B)深度學(xué)習(xí)C)強(qiáng)化學(xué)習(xí)D)有監(jiān)督學(xué)習(xí)答案:C解析:[單選題]10.梯度下降算法的正確步驟是(1計(jì)算預(yù)測(cè)值和真實(shí)值之間的誤差2迭代更新,直到找到最佳權(quán)重參數(shù)3把輸入傳入網(wǎng)絡(luò),得到輸出值4初始化權(quán)重和偏差⑤對(duì)每個(gè)產(chǎn)生誤差的神經(jīng)元,改變對(duì)應(yīng)的權(quán)重值以減小誤差A(yù))1234⑤B)54321C)431⑤②D)321⑤4答案:C解析:[單選題]11.有如下數(shù)據(jù)集,則頻繁3-項(xiàng)集為:class="fr-ficfr-dibcursor-hover"A){O,K,E}B){M,U,E}C){N,K,O}D){Y,U,E}答案:A解析:[單選題]12.如右圖所示無(wú)向圖,節(jié)點(diǎn)G的馬爾可夫毯為()A){D,E}B){I,J}C){D,E,I,J}D){D,E,F,H,I,J}答案:C解析:[單選題]13.下面不屬于臟數(shù)據(jù)的是(__)。A)有缺失值B)冗余數(shù)據(jù)C)噪聲數(shù)據(jù)D)無(wú)序數(shù)據(jù)答案:D解析:[單選題]14.對(duì)于一個(gè)分類(lèi)任務(wù),如果開(kāi)始時(shí)神經(jīng)網(wǎng)絡(luò)的權(quán)重不是隨機(jī)賦值的,二是都設(shè)成0,下面哪個(gè)敘述是正確的?A)其他選項(xiàng)都不對(duì)B)沒(méi)啥問(wèn)題,神經(jīng)網(wǎng)絡(luò)會(huì)正常開(kāi)始訓(xùn)練C)神經(jīng)網(wǎng)絡(luò)可以訓(xùn)練,但是所有的神經(jīng)元最后都會(huì)變成識(shí)別同樣的東西D)神經(jīng)網(wǎng)絡(luò)不會(huì)開(kāi)始訓(xùn)練,因?yàn)闆](méi)有梯度改變答案:C解析:令所有權(quán)重都初始化為0這個(gè)一個(gè)聽(tīng)起來(lái)還蠻合理的想法也許是一個(gè)我們假設(shè)中最好的一個(gè)假設(shè)了,但結(jié)果是錯(cuò)誤的,因?yàn)槿绻窠?jīng)網(wǎng)絡(luò)計(jì)算出來(lái)的輸出值都一個(gè)樣,那么反向傳播算法計(jì)算出來(lái)的梯度值一樣,并且參數(shù)更新值也一樣(w=w?α?dw)。更一般地說(shuō),如果權(quán)重初始化為同一個(gè)值,網(wǎng)絡(luò)即是對(duì)稱的,最終所有的神經(jīng)元最后都會(huì)變成識(shí)別同樣的東西。[單選題]15.極大似然估計(jì)中參數(shù)是()A)確定且已知的量B)確定且未知的量C)已知的隨機(jī)變量D)未知的隨機(jī)變量答案:B解析:[單選題]16.下列說(shuō)法錯(cuò)誤的是?A)當(dāng)目標(biāo)函數(shù)是凸函數(shù)時(shí),梯度下降算法的解一般就是全局最優(yōu)解B)進(jìn)行PCA降維時(shí),需要計(jì)算協(xié)方差矩陣C)沿負(fù)梯度的方向一定是最優(yōu)的方向D)利用拉格朗日函數(shù)能解帶約束的優(yōu)化問(wèn)題答案:C解析:沿負(fù)梯度的方向是函數(shù)值減少最快的方向但不一定就是最優(yōu)方向。[單選題]17.定義域?yàn)閧飛機(jī),火車(chē),輪船}的離散屬性也可稱為稱為(__)。A)無(wú)序?qū)傩訠)有序?qū)傩訡)連續(xù)屬性D)離散屬性答案:A解析:[單選題]18.分詞中的正向最大匹配算法是(__)掃描字符串。A)從左到右B)從右到左C)兩邊同時(shí)進(jìn)行D)從一個(gè)指定的字符發(fā)散答案:A解析:[單選題]19.將源程序(高級(jí)語(yǔ)言編寫(xiě))翻譯成計(jì)算機(jī)可執(zhí)行的目標(biāo)程序,其處理方法是()A)編譯B)連接C)匯編D)掃描答案:A解析:[單選題]20.以下哪些不屬于數(shù)據(jù)產(chǎn)品的特點(diǎn)A)具有概率的準(zhǔn)確性B)自適應(yīng)性C)嚴(yán)格性D)閉環(huán)性答案:C解析:[單選題]21.高頻增強(qiáng)濾波器由于相對(duì)削弱了低頻成分,因而濾波所得的圖像往往偏暗,對(duì)比度差,所以常常需要在濾波后進(jìn)行?A)直方圖均衡化;B)低頻加強(qiáng);C)圖像均勻加亮;D)中值濾波;答案:A解析:[單選題]22.以下表達(dá)式書(shū)寫(xiě)錯(cuò)誤的是A)year('2015-12-3112:21')B)month(2015-10-31)C)day('2015-12-11')D)date_sub('2015-12-01',3)答案:B解析:[單選題]23.tensorflow中的tf.nn.conv2d()的函數(shù),其作用是()。A)圖像輸入B)進(jìn)行卷積C)進(jìn)行池化D)圖像輸出答案:B解析:[單選題]24.()和假設(shè)檢驗(yàn)又可歸結(jié)為統(tǒng)計(jì)推斷的范疇,即對(duì)總體的數(shù)量特征做出具有一定可靠程度的估計(jì)和判斷。A)參數(shù)估計(jì)B)邏輯分析C)方差分析D)回歸分析答案:A解析:推斷統(tǒng)計(jì)包括參數(shù)估計(jì)和假設(shè)檢驗(yàn)兩方面的內(nèi)容。[單選題]25.關(guān)于創(chuàng)建ndarray對(duì)象。下列描述錯(cuò)誤的是()。A)使用list()函數(shù)可以創(chuàng)建一個(gè)ndarray對(duì)象B)通過(guò)ones()函數(shù)創(chuàng)建元素值都為1的數(shù)組C)ndarray對(duì)象可以使用array()函數(shù)創(chuàng)建D)通過(guò)zeros()函數(shù)創(chuàng)建元素值都是0的數(shù)組答案:A解析:list()函數(shù)不可以創(chuàng)建一個(gè)ndarry對(duì)象,不過(guò)可以將一個(gè)列表做為參數(shù)傳入array()函數(shù)中創(chuàng)建一個(gè)ndarray對(duì)象[單選題]26.抖動(dòng)技術(shù)可以?A)改善圖像的空間分辨率;B)改善圖像的幅度分辨率;C)利用半輸出技術(shù)實(shí)現(xiàn);D)消除虛假輪廓現(xiàn)象;答案:D解析:[單選題]27.Relief是為(__)問(wèn)題設(shè)計(jì)的。A)二分類(lèi)B)多分類(lèi)C)回歸D)降維答案:A解析:[單選題]28.下列關(guān)于Boosting和Bagging的描述正確的是:A)Boosting主要關(guān)注降低方差B)Boosting的代表算法有隨機(jī)森林C)Bagging基于自助采樣法D)Bagging主要關(guān)注降低偏差答案:C解析:[單選題]29.樸素貝葉斯分類(lèi)器的樸素之處在于()A)只能處理低維屬性B)只能處理離散型屬性C)分類(lèi)效果一般D)屬性之間的條件獨(dú)立性假設(shè)答案:D解析:[單選題]30.利用平滑濾波器可對(duì)圖像進(jìn)行低通濾波,消除噪聲,但同時(shí)模糊了細(xì)節(jié)。一下哪項(xiàng)措施不能減小圖像的模糊程度?A)增加對(duì)平滑濾波器輸出的或值處理(即僅保留大于或值的輸出);B)采用中值濾波的方法;C)采用領(lǐng)域平均處理;D)適當(dāng)減小平滑濾波器的領(lǐng)域操作模板;答案:C解析:[單選題]31.已知數(shù)組trans_cnt[1,2,3,4],以下哪一個(gè)表達(dá)式是求數(shù)組的元素?cái)?shù)量:A)type(trans_cnt)B)length(trans_cnt)C)coalesce(trans_cnt)D)size(trans_cnt)答案:D解析:[單選題]32.以下哪一個(gè)不是長(zhǎng)短時(shí)記憶神經(jīng)網(wǎng)絡(luò)三個(gè)門(mén)中中的一個(gè)門(mén)?()A)輸入門(mén)B)輸出門(mén)C)遺忘門(mén)D)進(jìn)化門(mén)答案:D解析:[單選題]33.下列屬于非線性分類(lèi)方法的是()A)最小距離分類(lèi)器B)線性鑒別分析C)感知機(jī)D)核SVM答案:D解析:[單選題]34.關(guān)于降維算法中的主成分分析,()是錯(cuò)誤的。A)有監(jiān)督算法B)可以指定降維的維度C)基于方差來(lái)計(jì)算D)根據(jù)特征值大小來(lái)篩選特征答案:A解析:主成分分析法屬于無(wú)監(jiān)督算法。[單選題]35.有兩個(gè)樣本點(diǎn),第一個(gè)點(diǎn)為正樣本,它的特征向量是(0,-1);第二個(gè)點(diǎn)為負(fù)樣本,它的特征向量是(2,3),從這兩個(gè)樣本點(diǎn)組成的訓(xùn)練集構(gòu)建一個(gè)線性SVM分類(lèi)器的分類(lèi)面方程是()A)2x+y=4B)x+2y=5C)x+2y=3D)以上都不對(duì)答案:C解析:[單選題]36.對(duì)一幅100'100像元的圖象,若每像元用8bit表示其灰度值,經(jīng)霍夫曼編碼后壓縮圖象的數(shù)據(jù)量為40000bit,則圖象的壓縮比為?A)2:1B)3:1C)4:1D)1:2答案:A解析:[單選題]37.為了允許支持向量機(jī)在一些樣本上出錯(cuò),引入()的概念。A)軟間隔B)硬間隔C)間隔D)誤差答案:A解析:[單選題]38.關(guān)于廣播變量,下面哪個(gè)是錯(cuò)誤的()。A)任何函數(shù)調(diào)用B)是只讀的C)存儲(chǔ)在各個(gè)節(jié)點(diǎn)D)存儲(chǔ)在磁盤(pán)或HDFS答案:D解析:[單選題]39.pandas中,Series使用切片查詢代碼如下:data=[1,2,3,4,5]res=pd.Series(data,index=["a","b","c","d","e"])print(res[3])輸出結(jié)果為:()A)4B)3C)cD)d答案:A解析:[單選題]40.()是一種處理時(shí)序數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò),常用于語(yǔ)音識(shí)別,機(jī)器翻譯等領(lǐng)域。A)前饋神經(jīng)網(wǎng)絡(luò)B)卷積神經(jīng)網(wǎng)絡(luò)C)循環(huán)神經(jīng)網(wǎng)絡(luò)D)對(duì)抗神經(jīng)網(wǎng)絡(luò)答案:C解析:[單選題]41.下列關(guān)于TF-IDF說(shuō)法正確的是?A)該值與特征項(xiàng)在文檔中出現(xiàn)的頻率成反比B)該值與特征項(xiàng)在文檔中出現(xiàn)的頻率成正比C)該值與在整個(gè)語(yǔ)料庫(kù)中出現(xiàn)該特征項(xiàng)的文檔庫(kù)成正比D)該值與特征項(xiàng)在文檔中出現(xiàn)的頻率無(wú)關(guān)答案:B解析:[單選題]42.Python的基本語(yǔ)法僅支持整型、浮點(diǎn)型和復(fù)數(shù)類(lèi)型,而NumPy和Pandas包支持int64/int32/int16/int8等20余種數(shù)字類(lèi)型,下列選項(xiàng)中,()說(shuō)法是不正確的。A)科學(xué)計(jì)算可能涉及很多數(shù)據(jù),對(duì)存儲(chǔ)和性能有較高要求,因此支持多種數(shù)字類(lèi)型B)NumPy包底層是采用C語(yǔ)言實(shí)現(xiàn)的,因此,天然支持了多種數(shù)字類(lèi)型C)程序員必須精確指定數(shù)字類(lèi)型,因此,會(huì)給編程帶來(lái)一定負(fù)擔(dān)D)對(duì)元素類(lèi)型進(jìn)行精確定義,有助于NumPy和Pandas包更合理地優(yōu)化存儲(chǔ)空間答案:C解析:[單選題]43.在一個(gè)線性回歸問(wèn)題中,我們使用R平方(R-Squared)來(lái)判斷擬合度。此時(shí),如果增加一個(gè)特征,模型不變,則下面說(shuō)法正確的是?A)如果R-Squared增加,則這個(gè)特征有意義B)如果R-Squared減小,則這個(gè)特征沒(méi)有意義C)僅看R-Squared單一變量,無(wú)法確定這個(gè)特征是否有意義。D)以上說(shuō)法都不對(duì)答案:C解析:[單選題]44.假設(shè)你有以下數(shù)據(jù):輸入和輸出都只有一個(gè)變量。使用線性回歸模型(y=wx+b)來(lái)擬合數(shù)據(jù)。那么使用留一法(Leave-OneOut)交叉驗(yàn)證得到的均方誤差是多少?X(independentvariable)023Y(dependentvariable)221A)10/27B)39/27C)49/27D)55/27答案:C解析:[單選題]45.軟間隔SVM的閾值趨于無(wú)窮,下面哪種說(shuō)法正確()A)只要最佳分類(lèi)超平面存在,它就能將所有數(shù)據(jù)全部正確分類(lèi)B)軟間隔SVM分類(lèi)器將正確分類(lèi)數(shù)據(jù)C)會(huì)發(fā)生誤分類(lèi)現(xiàn)象D)以上都不對(duì)答案:A解析:[單選題]46.KNN算法屬于一種典型的()算法A)監(jiān)督學(xué)習(xí)B)無(wú)監(jiān)督學(xué)習(xí)C)半監(jiān)督學(xué)習(xí)D)弱監(jiān)督學(xué)習(xí)答案:A解析:[單選題]47.下列不是距離度量需要滿足的基本性質(zhì)的是(__)。A)非負(fù)性B)同一性C)對(duì)稱性D)傳遞性答案:D解析:[單選題]48.在t-SNE算法中,可以調(diào)整以下哪些超參數(shù)?A)維度數(shù)量B)平穩(wěn)測(cè)量有效數(shù)量的鄰居C)最大迭代次數(shù)D)以上所有答案:D解析:[單選題]49.在一個(gè)神經(jīng)網(wǎng)絡(luò)里,確定每一個(gè)神經(jīng)元的權(quán)重和偏差是模型擬合訓(xùn)練樣本的目標(biāo),比較有效的辦法是什么()A)根據(jù)人工經(jīng)驗(yàn)隨機(jī)賦值B)搜索所有權(quán)重和偏差的組合,直到得到最佳值C)賦予一個(gè)初始值,然后迭代更新權(quán)重,直至代價(jià)函數(shù)取得極小D)以上都不正確答案:C解析:[單選題]50.Spark的四大組件下面哪個(gè)不是A)SparkStreamingB)MlibC)GraphxD)SparkR答案:D解析:[單選題]51.進(jìn)行主成分分析的前提條件是各變量間()。A)高度相關(guān)B)低度相關(guān)C)相互獨(dú)立D)完全相關(guān)答案:B解析:[單選題]52.以下描述中,屬于決策樹(shù)策略的是()A)最優(yōu)投影方向B)梯度下降方法C)最大特征值D)最大信息增益答案:D解析:[單選題]53.假設(shè)我們對(duì)西瓜的色澤、根蒂和紋理等特征一無(wú)所知,按照常理來(lái)說(shuō),西瓜是好瓜的概率是60%。那么這個(gè)好瓜的概率P就被稱為()A)先驗(yàn)概率B)后驗(yàn)概率C)條件概率D)聯(lián)合概率答案:A解析:[單選題]54.關(guān)于?回歸(Regression)?和?相關(guān)(Correlation)?,下列說(shuō)法正確的是?注意:x是自變量,y是因變量。A)回歸和相關(guān)在x和y之間都是互為對(duì)稱的B)回歸和相關(guān)在x和y之間都是非對(duì)稱的C)回歸在x和y之間是非對(duì)稱的,相關(guān)在x和y之間是互為對(duì)稱的D)回歸在x和y之間是對(duì)稱的,相關(guān)在x和y之間是非對(duì)稱的答案:C解析:相關(guān)(Correlation)是計(jì)算兩個(gè)變量的線性相關(guān)程度,是對(duì)稱的。也就是說(shuō),x與y的相關(guān)系數(shù)和y與x的相關(guān)系數(shù)是一樣的,沒(méi)有差別?;貧w(Regression)一般是利用特征x預(yù)測(cè)輸出y,是單向的、非對(duì)稱的。[單選題]55.關(guān)于機(jī)器學(xué)習(xí)算法正確的是()A)LR模型在加入正則化項(xiàng)后Variance將增大B)線性SVM是尋找最小邊緣的超平面的一個(gè)分類(lèi)器C)xgboost和GDBT都是屬于boosting算法D)xgboost和隨機(jī)森林都是屬于bagging算法答案:C解析:[單選題]56.無(wú)人超市采用了()等多種智能技術(shù),消費(fèi)者在購(gòu)物流程中將依次體驗(yàn)自動(dòng)身份識(shí)別、自助導(dǎo)購(gòu)服務(wù)、互動(dòng)式營(yíng)銷(xiāo)、商品位置偵測(cè)、線上購(gòu)物車(chē)清單自動(dòng)生成和移動(dòng)支付A)計(jì)算機(jī)視覺(jué)、深度學(xué)習(xí)算法、傳感器定位、圖像分析B)虛擬技術(shù),傳感器定位、圖像分析C)聲紋識(shí)別技術(shù)、計(jì)算機(jī)視覺(jué)、深度學(xué)習(xí)算法D)圖像識(shí)別、人臉識(shí)別、物體檢測(cè)、圖像分析答案:A解析:[單選題]57.()選擇成為支持向量機(jī)的最大變數(shù)。A)核函數(shù)B)樣本空間C)模型D)算法答案:A解析:在不知道特征映射的形式時(shí),我們并不知道什么樣的核函數(shù)是合適的,而核函數(shù)也僅是隱式地定義了這個(gè)特征空間。于是,核函數(shù)選擇成為支持向量機(jī)的最大變數(shù)。[單選題]58.以下屬于生成式模型的是:()A)SVMB)隨機(jī)森林C)隱馬爾可夫模型HMMD)邏輯回歸答案:C解析:[單選題]59.設(shè)X={1,2,3}是頻繁項(xiàng)集,則可由X產(chǎn)生()個(gè)關(guān)聯(lián)規(guī)則A)4B)5C)6D)7答案:C解析:[單選題]60.有關(guān)機(jī)器學(xué)習(xí)工程師下面說(shuō)法正確的是()。A)不需要了解一定的相關(guān)業(yè)務(wù)知識(shí)B)不需要熟悉數(shù)據(jù)的提取和預(yù)處理C)需要一定的數(shù)據(jù)分析實(shí)際項(xiàng)目訓(xùn)練D)培訓(xùn)后就能勝任實(shí)際數(shù)據(jù)分析答案:C解析:[單選題]61.BP神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)規(guī)則是()A)梯度上升法B)梯度下降法C)梯度提升法D)梯度曲線法答案:B解析:[單選題]62.對(duì)于線性回歸模型,包括附加變量在內(nèi),以下可能正確的是()。1)R-Squared和AdjustedR-squared都是遞增的2)R-Squared是常量的,AdjustedR-squared是遞增的3)R-Squared是遞減的,AdjustedR-squared也是遞減的4)R-Squared是遞減的,AdjustedR-squared是遞增的A)1和2B)1和3C)2和4D)以上都不是答案:D解析:R-squared不能決定系數(shù)估計(jì)和預(yù)測(cè)偏差。每次在模型中加入預(yù)測(cè)器,R-squared遞增或不變。[單選題]63.如右圖所示有向圖,以下陳述正確的有()A)B和G關(guān)于{C,F}條件獨(dú)立B)B和C關(guān)于F條件獨(dú)立C)B和G關(guān)于F條件獨(dú)立D)B和G關(guān)于{C,F,H}條件獨(dú)立答案:A解析:[單選題]64.現(xiàn)在有一個(gè)tcp服務(wù)端監(jiān)聽(tīng)了80端口,問(wèn)最多同時(shí)能建立多少連接A)1023B)65534C)64511D)非常多基本和內(nèi)存大小相關(guān)答案:D解析:[單選題]65.SVM的原理的簡(jiǎn)單描述,可概括為()A)最小均方誤差分類(lèi)B)最小距離分類(lèi)C)最大間隔分類(lèi)D)最近鄰分類(lèi)答案:C解析:[單選題]66.關(guān)于引入模塊的方式,錯(cuò)誤的是()。A)importmathB)fromfibimportFibonacciC)frommathimport*D)from*importfib答案:D解析:[單選題]67.FOIL是()的學(xué)習(xí)算法A)命題規(guī)則B)剪枝優(yōu)化C)一階規(guī)則D)序貫覆蓋答案:C解析:[單選題]68.()的系數(shù)沒(méi)有封閉形式(closed-form)的解。A)Ridge回歸B)LassoC)Ridge回歸和LassoD)以上答案都不正確答案:B解析:Ridge回歸是一般的線性回歸再加上L2正則項(xiàng),它具有封閉形式的解,可以基于最小二乘法求解。[單選題]69.Zookeeper-Stat結(jié)構(gòu)體中numChildren是()A)znode數(shù)據(jù)變化號(hào)B)znode訪問(wèn)控制列表的變化號(hào)C)znode子節(jié)點(diǎn)數(shù)量D)znode的數(shù)據(jù)長(zhǎng)度答案:C解析:[單選題]70.下列選項(xiàng)中,關(guān)于Zookeeper可靠性含義說(shuō)法正確的是?()A)可靠性通過(guò)主備部署模式實(shí)現(xiàn)B)可靠性是指更新更新只能成功或者失敗,沒(méi)有中間狀態(tài)C)可靠性是指無(wú)論哪個(gè)server,對(duì)外展示的均是同一個(gè)視圖D)可靠性是指一個(gè)消息被一個(gè)Server接收,它將被所有的Server接受答案:D解析:[單選題]71.下面不屬于位置智能的有(__)。A)foursquareB)placeIQC)MapillaryD)bloomberg答案:D解析:[單選題]72.控制論學(xué)派屬于()。[]*A)符號(hào)主義B)認(rèn)知主義C)聯(lián)結(jié)主義D)行為主義答案:D解析:[單選題]73.采樣分析的精確性隨著采樣隨機(jī)性的增加而(),但與樣本數(shù)量的增加關(guān)系不大。A)降低B)不變C)提高D)無(wú)關(guān)答案:C解析:采樣分析的精確性隨著采樣隨機(jī)性的增加而提高,但與樣本數(shù)量的增加關(guān)系不大。當(dāng)樣本數(shù)量達(dá)到某個(gè)值后,我們從新個(gè)體上得到的信息會(huì)越來(lái)越少。[單選題]74.正常建立一條TCP連接需要()個(gè)步驟,正常關(guān)閉一個(gè)TCP連接需要()個(gè)步驟A)3,3B)3,4C)4,4D)4,3答案:B解析:[單選題]75.(__)試圖學(xué)得一個(gè)線性模型以盡可能準(zhǔn)確地預(yù)測(cè)實(shí)值輸出標(biāo)記。A)決策樹(shù)B)線性回歸C)貝葉斯分類(lèi)器D)神經(jīng)網(wǎng)絡(luò)答案:B解析:[單選題]76.下面屬于Bagging方法的特點(diǎn)是()A)構(gòu)造訓(xùn)練集時(shí)采用Bootstraping的方式B)每一輪訓(xùn)練時(shí)樣本權(quán)重不同C)分類(lèi)器必須按順序訓(xùn)練D)預(yù)測(cè)結(jié)果時(shí),分類(lèi)器的比重不同答案:A解析:[單選題]77.設(shè)q(n,m)是將正整數(shù)n劃分成最大加數(shù)不大于m的若干不同正整數(shù)之和的劃分?jǐn)?shù),則q(n,m)為()。class="fr-ficfr-dibcursor-hover"A)①B)②C)③D)④答案:B解析:[單選題]78.以下幾種優(yōu)化算法中,哪一種最快()A)梯度下降法B)牛頓法C)BFGSD)Adam答案:C解析:[單選題]79.下圖是一個(gè)利用sigmoid函數(shù)作為激活函數(shù)的含四個(gè)隱藏層的神經(jīng)網(wǎng)絡(luò)訓(xùn)練的梯度下降圖。這個(gè)神經(jīng)網(wǎng)絡(luò)遇到了梯度消失的問(wèn)題。下面哪個(gè)敘述是正確的?class="fr-ficfr-dibcursor-hover"A)第一隱藏層對(duì)應(yīng)D,第二隱藏層對(duì)應(yīng)C,第三隱藏層對(duì)應(yīng)B,第四隱藏層對(duì)應(yīng)AB)第一隱藏層對(duì)應(yīng)A,第二隱藏層對(duì)應(yīng)C,第三隱藏層對(duì)應(yīng)B,第四隱藏層對(duì)應(yīng)DC)第一隱藏層對(duì)應(yīng)A,第二隱藏層對(duì)應(yīng)B,第三隱藏層對(duì)應(yīng)C,第四隱藏層對(duì)應(yīng)DD)第一隱藏層對(duì)應(yīng)B,第二隱藏層對(duì)應(yīng)D,第三隱藏層對(duì)應(yīng)C,第四隱藏層對(duì)應(yīng)A答案:A解析:[單選題]80.以下哪些方法不可以直接來(lái)對(duì)文本分類(lèi)?A)K-MeansB)決策樹(shù)C)支持向量機(jī)D)kNN答案:A解析:K-Means是無(wú)監(jiān)督算法,它之所以不能稱為分類(lèi)是因?yàn)樗安](méi)有類(lèi)別標(biāo)簽,因此只能聚類(lèi)。[單選題]81.有兩個(gè)樣本點(diǎn),第一個(gè)點(diǎn)為正樣本,它的特征向量是(0,-1);第二個(gè)點(diǎn)為負(fù)樣本,它的特征向量是(2,3),從這兩個(gè)樣本點(diǎn)組成的訓(xùn)練集構(gòu)建一個(gè)線性SVM分類(lèi)器的分類(lèi)面方程是()A)2x+y=4B)x+2y=5C)x+2y=3D)以上都不對(duì)答案:C解析:[單選題]82.當(dāng)圖像通過(guò)信道傳輸時(shí),噪聲一般與()無(wú)關(guān)。A)信道傳輸?shù)馁|(zhì)量B)出現(xiàn)的圖像信號(hào)C)是否有中轉(zhuǎn)信道的過(guò)程D)圖像在信道前后的處理答案:B解析:[單選題]83.如下邏輯回歸圖顯示了3種不同學(xué)習(xí)速率值的代價(jià)函數(shù)和迭代次數(shù)之間的關(guān)系(不同的顏色在不同的學(xué)習(xí)速率下顯示不同的曲線)。為了參考而保存圖表后,忘記其中不同學(xué)習(xí)速率的值?,F(xiàn)在需要曲線的傾斜率值之間的關(guān)系。以下哪一個(gè)是正確的?注:1藍(lán)色的學(xué)習(xí)率是L12紅色的學(xué)習(xí)率是L23綠色學(xué)習(xí)率為lL3alt="">A)L1>L2>L3B)L1=L2=L3C)L1D)都不是答案:C解析:如果學(xué)習(xí)速率低下,代價(jià)函數(shù)將緩慢下降,學(xué)習(xí)速度過(guò)高,則其代價(jià)函數(shù)會(huì)迅速下降。[單選題]84.下列表示設(shè)置繪制圖像大小正確的是()。A)plt.figure(figsize=(10,6))B)plt.figure(figsize={10,6})C)plt.figure(10,6)D)plt.figure(figsize=[10,6])答案:A解析:[單選題]85.下面關(guān)于數(shù)據(jù)科學(xué)與統(tǒng)計(jì)學(xué)的關(guān)系描述不正確的有(__)。A)數(shù)據(jù)科學(xué)是統(tǒng)計(jì)學(xué)的主要基礎(chǔ)理論之一B)數(shù)據(jù)科學(xué)的工具往往來(lái)自于統(tǒng)計(jì)學(xué)C)統(tǒng)計(jì)學(xué)家在數(shù)據(jù)科學(xué)的發(fā)展中做出過(guò)突出貢獻(xiàn)D)第一篇以?數(shù)據(jù)科學(xué)?為標(biāo)題的論文是由統(tǒng)計(jì)學(xué)家完成的答案:A解析:[單選題]86.決策樹(shù)的基本流程遵循()的策略。A)貪心B)最優(yōu)化C)分而治之D)順序答案:C解析:[單選題]87.關(guān)于支持向量機(jī)SVM,下列說(shuō)法錯(cuò)誤的是()A)L2正則項(xiàng),作用是最大化分類(lèi)間隔,使得分類(lèi)器擁有更強(qiáng)的泛化能力B)Hinge損失函數(shù),作用是最小化經(jīng)驗(yàn)分類(lèi)錯(cuò)誤C)分類(lèi)間隔為1/||w||,||w||代表向量的模D)當(dāng)參數(shù)C越小時(shí),分類(lèi)間隔越大,分類(lèi)錯(cuò)誤越多,趨于欠學(xué)習(xí)答案:C解析:A正確??紤]加入正則化項(xiàng)的原因:想象一個(gè)完美的數(shù)據(jù)集,y>1是正類(lèi),y<-1是負(fù)類(lèi),決策面y=0,加入一個(gè)y=-30的正類(lèi)噪聲樣本,那么決策面將會(huì)變?歪?很多,分類(lèi)間隔變小,泛化能力減小。加入正則項(xiàng)之后,對(duì)噪聲樣本的容錯(cuò)能力增強(qiáng),前面提到的例子里面,決策面就會(huì)沒(méi)那么?歪?了,使得分類(lèi)間隔變大,提高了泛化能力。B正確。C錯(cuò)誤。間隔應(yīng)該是2/||w||才對(duì),后半句應(yīng)該沒(méi)錯(cuò),向量的模通常指的就是其二范數(shù)。D正確??紤]軟間隔的時(shí)候,C對(duì)優(yōu)化問(wèn)題的影響就在于把a(bǔ)的范圍從[0,+inf]限制到了[0,C]。C越小,那么a就會(huì)越小,目標(biāo)函數(shù)拉格朗日函數(shù)導(dǎo)數(shù)為0可以求出w=求和,a變小使得w變小,因此間隔2/||w||變大[單選題]88.字符串"http://^▽^//\n"的長(zhǎng)度是A)6B)7C)8D)9答案:C解析:[單選題]89.假設(shè)一個(gè)線性回歸模型完美適合訓(xùn)練數(shù)據(jù)(訓(xùn)練誤差為0),下面那個(gè)說(shuō)法是正確的()。A)測(cè)試集誤差一直為0B)測(cè)試集誤差可能為0C)測(cè)試集誤差不會(huì)為0D)以上都不對(duì)答案:B解析:測(cè)試誤差有可能為0,假如測(cè)試數(shù)據(jù)里面沒(méi)有噪聲數(shù)據(jù)?;蛘哒f(shuō),如果測(cè)試數(shù)據(jù)能夠完美表征訓(xùn)練數(shù)據(jù)集,測(cè)試誤差即可為0,但測(cè)試數(shù)據(jù)不會(huì)總這樣。[單選題]90.在線性模型y=w1x1+w2x2+…+wnxn中,[w1,w2,…,wn]值代表()A)預(yù)測(cè)值B)特征值C)輸入值D)模型參數(shù)答案:D解析:[單選題]91.下圖中,主成分的最佳數(shù)目是多少?A)10B)20C)30D)無(wú)法確定答案:C解析:本題考查的是PCA的基本概念。顯然,當(dāng)主成分?jǐn)?shù)目為30的時(shí)候,積累的方差比例最大。[單選題]92.決策樹(shù)依據(jù)切分特征來(lái)切分?jǐn)?shù)據(jù)集。選擇切分特征時(shí),我們可以以每個(gè)特征的信息增益作為判斷標(biāo)準(zhǔn)。A)選擇信息增益最大的特征作為切分特征。B)選擇信息增益最小的特征作為切分特征。C)選擇信息增益不大不小、即適中的特征作為切分特征。D)選擇信息增益較大的多個(gè)特征同時(shí)作為切分特征。答案:A解析:[單選題]93.(__)是常用的估計(jì)參數(shù)隱變量的利器,它是一種迭代的方法。A)邊際似然B)EM算法C)貝葉斯決策D)貝葉斯分類(lèi)器答案:B解析:[單選題]94.一般,k-NN最近鄰方法在()的情況下效果較好A)樣本較多但典型性不好B)樣本較少但典型性好C)樣本呈團(tuán)狀分布D)樣本呈鏈狀分布答案:B解析:[單選題]95.數(shù)據(jù)科學(xué)家可能會(huì)同時(shí)使用多個(gè)算法(模型)進(jìn)行預(yù)測(cè),并且最后把這些算法的結(jié)果集成起來(lái)進(jìn)行最后的預(yù)測(cè)(集成學(xué)習(xí)),以下對(duì)集成學(xué)習(xí)說(shuō)法正確的是:A)單個(gè)模型之間有高相關(guān)性B)單個(gè)模型之間有低相關(guān)性C)在集成學(xué)習(xí)中使用?平均權(quán)重?而不是?投票?會(huì)比較好D)單個(gè)模型都是用的一個(gè)算法答案:B解析:[單選題]96.交叉驗(yàn)證法將數(shù)據(jù)集劃分為k個(gè)大小相似的互斥子集,進(jìn)行__次訓(xùn)練和測(cè)試。A)k+1B)kC)k-1D)k-2答案:B解析:[單選題]97.以下開(kāi)源軟件中經(jīng)常被用作消息隊(duì)列的是哪個(gè)A)KafkaB)MongoDBC)HadoopD)Spark答案:A解析:[單選題]98.()表達(dá)了在當(dāng)前任務(wù)上任何學(xué)習(xí)算法所能達(dá)到的期望泛化誤差的下界,即刻畫(huà)了學(xué)習(xí)問(wèn)題本身的難度。A)偏差B)方差C)噪聲D)泛化誤差答案:C解析:泛化誤差可分解為偏差、方差與噪聲之和。偏差度量了學(xué)習(xí)算法的期望預(yù)測(cè)與真實(shí)結(jié)果的偏離程度,即刻畫(huà)了學(xué)習(xí)算法本身的擬合能力;方差度量了同樣大小的訓(xùn)練集的變動(dòng)所導(dǎo)致的學(xué)習(xí)性能的變化,即刻畫(huà)了數(shù)據(jù)擾動(dòng)所造成的影響;噪聲則表達(dá)了在當(dāng)前任務(wù)上任何學(xué)習(xí)算法所能達(dá)到的期望泛化誤差的F界,即刻畫(huà)了學(xué)習(xí)問(wèn)題本身的難度。[單選題]99.以下兩種描述分別對(duì)應(yīng)哪兩種對(duì)分類(lèi)算法的評(píng)價(jià)標(biāo)準(zhǔn)?(a)警察抓小偷,描述警察抓的人中有多少個(gè)是小偷的標(biāo)準(zhǔn)。(b)描述有多少比例的小偷給警察抓了的標(biāo)準(zhǔn)。A)Precision,RecallB)Recall,PrecisionC)Precision,ROCD)Recall,ROC答案:A解析:[單選題]100.歸納推理是()推理。[]*A)從一般到個(gè)別B)從個(gè)別到一般C)從個(gè)別到個(gè)別D)從一般到一般答案:B解析:[單選題]101.下列方法不受數(shù)據(jù)歸一化影響的是()A)SVMB)神經(jīng)網(wǎng)絡(luò)C)Logistic回歸D)決策樹(shù)答案:D解析:[單選題]102.下列函數(shù)中,用于沿著軸方向堆疊Pandas對(duì)象的是()。A)concat()B)join()C)merge()D)combine_first()答案:A解析:[單選題]103.下方法中屬于無(wú)監(jiān)督學(xué)習(xí)算法的是()A)線性回歸B)支持向量機(jī)C)決策樹(shù)D)K-Means聚類(lèi)答案:D解析:[單選題]104.以下哪種激活函數(shù)可以導(dǎo)致梯度消失()A)ReLUB)TanhC)LeakyReLUD)其他都不是答案:B解析:[單選題]105.關(guān)于Boltzmann描述錯(cuò)誤的是A)基于能量的模型;B)優(yōu)化目標(biāo)函數(shù)為最小化能力函數(shù);C)分為顯層和隱層;D)神經(jīng)元都是數(shù)值型;答案:D解析:[單選題]106.在移動(dòng)設(shè)備息屏?xí)r,以下哪種情況不一定導(dǎo)致大量耗電A)使用gps導(dǎo)航B)信號(hào)特別弱C)電話通話中D)打開(kāi)過(guò)大量應(yīng)用答案:D解析:[單選題]107.對(duì)決策樹(shù)進(jìn)行剪枝處理的主要目的是什么A)避免欠擬合B)提高對(duì)訓(xùn)練集的學(xué)習(xí)能力C)避免過(guò)擬合,降低泛化能力D)避免過(guò)擬合,提升泛化能力答案:D解析:[單選題]108.已知均值和方差,下面哪種分布的熵最大()A)幾何分布B)指數(shù)分布C)高斯分布D)均勻分布答案:C解析:[單選題]109.從宏觀角度來(lái)看,數(shù)據(jù)可視化的功能不包括()。A)信息記錄B)信息的推理分析C)信息清洗D)信息傳播答案:C解析:[單選題]110.Spark支持的分布式部署方式中哪個(gè)是錯(cuò)誤的()。A)standaloneB)sparkonmesosC)sparkonYARND)Sparkonlocal答案:D解析:[單選題]111.一個(gè)棧的入棧序列為ABCDE,則棧的不可能的輸出序列為A)DCBEAB)ACBEDC)DCEBAD)DEBCA答案:D解析:[單選題]112.OpenCV提供圖像文件讀寫(xiě)的模塊是()。A)coreB)imgcodecsC)imgprocD)highgui答案:B解析:[單選題]113.影響深度卷積神經(jīng)網(wǎng)絡(luò)算法的關(guān)鍵參數(shù)是()A)網(wǎng)站數(shù)量B)網(wǎng)絡(luò)深度C)網(wǎng)絡(luò)結(jié)構(gòu)D)網(wǎng)絡(luò)主體答案:B解析:[單選題]114.下列哪項(xiàng)不是目前深度學(xué)習(xí)的必備技術(shù)()A)卷積可視化解釋B)反向傳播算法C)非線性激活函數(shù)D)深度神經(jīng)網(wǎng)絡(luò)答案:A解析:[單選題]115.(___)是對(duì)象的性質(zhì)或特性。A)變量B)維度C)樣本D)屬性答案:D解析:[單選題]116.(__)不屬于基于實(shí)例學(xué)習(xí)方法。A)KNNB)局部加權(quán)回歸算法C)基于案例的推理D)決策樹(shù)算法答案:D解析:[單選題]117.在訓(xùn)練集上每學(xué)到一條規(guī)則,就將該規(guī)則覆蓋的訓(xùn)練樣例去除,然后以剩下的訓(xùn)練樣例組成訓(xùn)練集重復(fù)上述過(guò)程的方法稱為A)缺省規(guī)則B)序貫覆蓋C)不放回學(xué)習(xí)D)一階規(guī)則答案:B解析:[單選題]118.計(jì)算Numpy中元素個(gè)數(shù)的方法是()。A)np.sqrt()B)np.size()C)np.identity()D)np.nid()答案:B解析:[單選題]119.決策樹(shù)除了ID3算法,還有另一個(gè)著名算法CART。關(guān)于這兩種算法,正確的說(shuō)法是:A)ID3算法能用于回歸問(wèn)題,不能用于分類(lèi)問(wèn)題B)ID3算法既能用于分類(lèi)問(wèn)題,又能用于回歸問(wèn)題C)CART算法既能用于分類(lèi)問(wèn)題,又能用于回歸問(wèn)題D)CART算法能用于回歸問(wèn)題,不能用于分類(lèi)問(wèn)題答案:C解析:[單選題]120.下面不屬于數(shù)據(jù)轉(zhuǎn)換的有(__)。A)talendB)alteryxC)streamsetsD)stitch答案:D解析:[單選題]121.關(guān)于累加器,下面哪個(gè)是錯(cuò)誤的()。A)支持加法B)支持?jǐn)?shù)值類(lèi)型C)可并行D)不支持自定義類(lèi)型答案:D解析:[單選題]122.池化層的作用是()。A)標(biāo)準(zhǔn)化處理輸入特征B)對(duì)特征圖進(jìn)行特征選擇和信息過(guò)濾C)對(duì)提取的特征進(jìn)行非線性組合以得到輸出D)直接輸出每個(gè)像素的分類(lèi)結(jié)果答案:B解析:[單選題]123.下列關(guān)于線性回歸分析中的殘差(Residuals)說(shuō)法正確的是?A)殘差均值總是為零B)殘差均值總是小于零C)殘差均值總是大于零D)以上說(shuō)法都不對(duì)答案:A解析:線性回歸分析中,目標(biāo)是殘差最小化。殘差平方和是關(guān)于參數(shù)的函數(shù),為了求殘差極小值,令殘差關(guān)于參數(shù)的偏導(dǎo)數(shù)為零,會(huì)得到殘差和為零,即殘差均值為零。[單選題]124.以下場(chǎng)景中,屬于機(jī)器學(xué)習(xí)的是?A)讓機(jī)器檢測(cè)地震活動(dòng)B)電腦運(yùn)行仿生程序C)電腦作為計(jì)算器使用D)通過(guò)對(duì)不同階段的西瓜照片進(jìn)行識(shí)別,讓機(jī)器能辨別熟西瓜答案:D解析:[單選題]125.(__)不屬于機(jī)器學(xué)習(xí)理論基礎(chǔ)。A)數(shù)據(jù)科學(xué)B)哲學(xué)C)心理學(xué)D)人工智能答案:A解析:[單選題]126.排列語(yǔ)言模型(PermutationLanguageModels)是下列哪項(xiàng)的特點(diǎn)?A)BERTB)EMMoC)GPTD)XLNET答案:D解析:[單選題]127.未來(lái)房?jī)r(jià)的預(yù)測(cè),這種屬于數(shù)據(jù)挖掘的哪類(lèi)問(wèn)題?()A)分類(lèi)B)聚類(lèi)C)關(guān)聯(lián)規(guī)則D)回歸分析答案:D解析:[單選題]128.與PCA相比,t-SNE的以下說(shuō)明哪個(gè)正確?A)數(shù)據(jù)巨大(大小)時(shí),t-SNE可能無(wú)法產(chǎn)生更好的結(jié)果。B)無(wú)論數(shù)據(jù)的大小如何,T-NSE總是產(chǎn)生更好的結(jié)果。C)對(duì)于較小尺寸的數(shù)據(jù),PCA總是比t-SNE更好。D)都不是答案:A解析:[單選題]129.下面能實(shí)現(xiàn)人工智能算法的開(kāi)發(fā)環(huán)境有A)C語(yǔ)言B)Java語(yǔ)言C)Python語(yǔ)言D)以上都可以答案:D解析:[單選題]130.你在20K文檔的輸入數(shù)據(jù)上為機(jī)器學(xué)習(xí)模型創(chuàng)建了文檔-詞矩陣(document-termmatrix)。以下哪項(xiàng)可用于減少數(shù)據(jù)維度?(1)關(guān)鍵詞歸一化(KeywordNormalization);(2)潛在語(yǔ)義索引(LatentSemanticIndexing);(3)隱狄利克雷分布(LatentDirichletAllocation).A)只有(1)B)(2)(3)C)(1)(3)D)(1)(2)(3)答案:D解析:[單選題]131.由于不同類(lèi)別的關(guān)鍵詞對(duì)排序的貢獻(xiàn)不同,檢索算法一般把查詢關(guān)鍵詞分為幾類(lèi),以下哪一類(lèi)不屬于此關(guān)鍵詞類(lèi)型的是()。A)引用詞B)普通關(guān)鍵詞C)高頻詞匯D)擴(kuò)展關(guān)鍵詞答案:C解析:[單選題]132.關(guān)于sklearn中的LabelEncoder函數(shù)的功能,下面說(shuō)法正確的是:A)LabelEncoder可將原為0到n-1之間的數(shù)字(int)值轉(zhuǎn)換為字符串(str)B)LabelEncoder是將原字符串(str)值轉(zhuǎn)換為0或1的布爾值C)LabelEncoder可將原字符串(str)值轉(zhuǎn)換為0到n-1之間的數(shù)字(int)D)LabelEncoder是將原為0或1的布爾值轉(zhuǎn)換為字符串(str)答案:C解析:[單選題]133.已知一個(gè)數(shù)據(jù)集,n為特征數(shù),m為訓(xùn)練樣本數(shù),如果n較小,而且m大小中等(例如n為1~1000,而m為10~10000),則一般選擇()。A)邏輯回歸模型B)不帶核的支持向量機(jī)C)高斯核的支持向量機(jī)D)多項(xiàng)式核的支持向量機(jī)答案:C解析:高斯核函數(shù)需要選擇合適的sigma2參數(shù),適用于少量特征,大量樣本的情況,可以擬合出非常復(fù)雜的非線性決策邊界。[單選題]134.下列說(shuō)法錯(cuò)誤的是()A)kNN算法的訓(xùn)練階段需要構(gòu)建模型B)kNN算法中k這個(gè)參數(shù)可以根據(jù)實(shí)際情況來(lái)調(diào)整C)kNN算法支持多分類(lèi)D)kNN算法不屬于無(wú)監(jiān)督學(xué)習(xí)答案:A解析:[單選題]135.()不屬于特征選擇的標(biāo)準(zhǔn)方法。A)散入B)過(guò)濾C)包裹D)抽樣答案:D解析:特征選擇的三種方法分別是過(guò)濾式(filter)、包裹式(wrapper)和嵌入式(embedded)。[單選題]136.下列對(duì)于錯(cuò)誤率的公式,解釋正確的是(__)。A)統(tǒng)計(jì)分類(lèi)器預(yù)測(cè)出來(lái)的結(jié)果與真實(shí)結(jié)果不相同的個(gè)數(shù),然后除以總的樣例集D的個(gè)數(shù)。B)先統(tǒng)計(jì)分類(lèi)正確的樣本數(shù),然后除以總的樣例集D的個(gè)數(shù)。C)預(yù)測(cè)為正的樣例中有多少是真正的正樣例D)樣本中的正例有多少被預(yù)測(cè)正確答案:A解析:[單選題]137.Zookeeper在config命名空間下,每個(gè)znode最多能存儲(chǔ)()數(shù)據(jù)?A)1MB)16MC)512KD)64K答案:A解析:[單選題]138.關(guān)于隨機(jī)森林,說(shuō)法錯(cuò)誤的是:A)相對(duì)于Boosting系列的Adaboost和GBDT,RF實(shí)現(xiàn)比較簡(jiǎn)單。B)在訓(xùn)練后,可以給出各個(gè)特征對(duì)于輸出的重要性C)訓(xùn)練高度串行化D)隨機(jī)采樣,訓(xùn)練出的模型的方差小,泛化能力強(qiáng)答案:C解析:[單選題]139.(__)采用概率模型來(lái)表達(dá)聚類(lèi)原型。A)k均值算法B)學(xué)習(xí)向量量化C)高斯混合聚類(lèi)密度聚類(lèi)D)密度聚類(lèi)答案:C解析:[單選題]140.機(jī)器學(xué)習(xí)的簡(jiǎn)稱是(A)AlB)MLC)DLD)NN答案:B解析:[單選題]141.在支持向量機(jī)中,()允許支持向量機(jī)在一些樣本上出錯(cuò)。A)硬間隔B)軟間隔C)核函數(shù)D)拉格朗日乘子法答案:B解析:在支持向量機(jī)中,軟間隔允許支持向量機(jī)在一些樣本上出錯(cuò)。[單選題]142.以下()是Python中的二維圖形包。A)MatplotlibB)PandasC)NumPyD)BoKeh答案:A解析:[單選題]143.以下不屬于數(shù)據(jù)科學(xué)的研究目的的是()。A)大數(shù)據(jù)及其運(yùn)動(dòng)規(guī)律的揭示B)從數(shù)據(jù)到智慧的轉(zhuǎn)化C)數(shù)據(jù)解釋D)數(shù)據(jù)驅(qū)動(dòng)型決策支持答案:C解析:[單選題]144.下列關(guān)于主成分分析的表述錯(cuò)誤的是A)主成分分析方法一種數(shù)據(jù)降維的方法B)通過(guò)主成分分析,可以將多個(gè)變量縮減為少數(shù)幾個(gè)新的變量,而信息并沒(méi)有損失,或者說(shuō)信息損失很少C)通過(guò)主成分分析,可以用較少的新的指標(biāo)來(lái)代替原來(lái)較多的指標(biāo)反映的信息,并且新的指標(biāo)之間是相互獨(dú)立的D)主成分分析是數(shù)據(jù)增維的方法答案:D解析:[單選題]145.點(diǎn)擊率預(yù)測(cè)是一個(gè)正負(fù)樣本不平衡問(wèn)題(例如99%的沒(méi)有點(diǎn)擊,只有1%點(diǎn)擊)。假如在這個(gè)非平衡的數(shù)據(jù)集上建立一個(gè)模型,得到訓(xùn)練樣本的正確率是99%,則下列說(shuō)法正確的是?A)模型正確率很高,不需要優(yōu)化模型了B)模型正確率并不高,應(yīng)該建立更好的模型C)無(wú)法對(duì)模型做出好壞評(píng)價(jià)D)以上說(shuō)法都不對(duì)答案:B解析:這一題延續(xù)了上題中準(zhǔn)確率和召回率的知識(shí)點(diǎn),考查了正負(fù)樣本分布不均問(wèn)題。模型訓(xùn)練過(guò)程中正負(fù)樣本分布不均是常見(jiàn)的問(wèn)題。這時(shí)候不能單獨(dú)只看預(yù)測(cè)正確率。對(duì)于此題來(lái)說(shuō),如果我們預(yù)測(cè)的結(jié)果是100%沒(méi)有點(diǎn)擊,0%點(diǎn)擊,那么可以說(shuō)正確率是99%,因?yàn)橹挥?%的點(diǎn)擊預(yù)測(cè)錯(cuò)誤。但是,我們其實(shí)更關(guān)心的那1%的點(diǎn)擊率并沒(méi)有預(yù)測(cè)出來(lái)。可以說(shuō)這樣的模型是沒(méi)有任何意義的。對(duì)應(yīng)正負(fù)樣本不平衡的情況需要做一些數(shù)據(jù)處理,主要包括:采樣、數(shù)據(jù)合成、懲罰因子加權(quán)、一分類(lèi)。其中,一分類(lèi)即是在正負(fù)樣本分布極不平衡的時(shí)候,把它看做一分類(lèi)(OneClassLearning)或異常檢測(cè)(NoveltyDetection)問(wèn)題。這類(lèi)方法的重點(diǎn)不在于捕捉類(lèi)間的差別,而是為其中一類(lèi)進(jìn)行建模,經(jīng)典的工作包括One-classSVM等。[單選題]146.從sd卡加載一張圖片為bitmap并顯示到屏幕上的一個(gè)view,該view占用的內(nèi)存主要和什么因素有關(guān)。A)圖片文件大小及壓縮格式B)圖片原始分辨率C)view的尺寸D)bitmap分辨率和顏色位數(shù)答案:D解析:[單選題]147.以下哪項(xiàng)關(guān)于決策樹(shù)的說(shuō)法是錯(cuò)誤的()。A)冗余屬性不會(huì)對(duì)決策樹(shù)的準(zhǔn)確率造成不利的影響B(tài))子樹(shù)可能在決策樹(shù)中重復(fù)多次C)決策樹(shù)算法對(duì)于噪聲的干擾非常敏感D)尋找最佳決策樹(shù)是NP完全問(wèn)題答案:C解析:決策樹(shù)算法對(duì)于噪聲的干擾具有相當(dāng)好的魯棒性。[單選題]148.留出法直接將數(shù)據(jù)集劃分為()個(gè)互斥的集合。A)一B)二C)三D)四答案:B解析:留出法(hold-out)直接將數(shù)據(jù)集D劃分為兩個(gè)互斥的集合,其中一個(gè)集合作為訓(xùn)練集,另一個(gè)作為測(cè)試集T。[單選題]149.以下描述正確的是(__)。A)描述性分析等價(jià)于探索性數(shù)據(jù)分析B)相關(guān)關(guān)系等價(jià)于因果關(guān)系C)描述性分析是數(shù)據(jù)分析的第一步D)描述性分析是診斷性分析的進(jìn)一步理解答案:C解析:[單選題]150.()可以用衡量真來(lái)實(shí)值與預(yù)測(cè)值之間的差異A)權(quán)重值B)損失函數(shù)C)特征值D)輸出值答案:B解析:[單選題]151.下面的顏色空間表示中,能較好的分離圖像亮度和色度信息的是()?A)LabB)RGBC)HSVD)CMY答案:A解析:[單選題]152.(假設(shè)precision=TP/(TP+FP),recall=TP/(TP+FN)。)在二分類(lèi)問(wèn)題中,當(dāng)測(cè)試集的正例和負(fù)例數(shù)量不均衡時(shí),以下評(píng)價(jià)方案哪個(gè)是相對(duì)不合理的()A)Accuracy:(TP+TN)/allB)F-value:2recallprecision/(recall+precision)C)G-mean:sqrt(precision*recall)D)AUC:曲線下面積答案:A解析:題目提到測(cè)試集正例和負(fù)例數(shù)量不均衡,那么假設(shè)正例數(shù)量很少占10%,負(fù)例數(shù)量占大部分90%。而且算法能正確識(shí)別所有負(fù)例,但正例只有一半能正確判別。那么TP=0.05×all,TN=0.9×all,Accuracy=95%。雖然Accuracy很高,precision是100%,但正例recall只有50%[單選題]153.行業(yè)應(yīng)用解決的是行業(yè)()問(wèn)題,并為企業(yè)應(yīng)用提供基礎(chǔ)平臺(tái)。A)單一B)共性C)基礎(chǔ)D)根本答案:B解析:[單選題]154.RGB色彩空間轉(zhuǎn)到GRAY色彩空間的方法為()A)cv2.cvtColor()B)cv2.CvtColor()C)cv2.CVTColor()D)cv2.cvtcolor()答案:A解析:[單選題]155.機(jī)器學(xué)習(xí)中做特征選擇時(shí),可能用到的方法有()。A)卡方B)信息增益C)平均互信息D)期望交叉熵E)以上答案都正確答案:E解析:第2部分:多項(xiàng)選擇題,共49題,每題至少兩個(gè)正確答案,多選或少選均不得分。[多選題]156.在統(tǒng)計(jì)模式識(shí)分類(lèi)問(wèn)題中,當(dāng)先驗(yàn)概率未知時(shí),可以使用()?A)最小損失準(zhǔn)則B)N-P判決C)最小最大損失準(zhǔn)則D)最小誤判概率準(zhǔn)則答案:BC解析:[多選題]157.下列屬于無(wú)監(jiān)督學(xué)習(xí)的有()A)聚類(lèi)B)分類(lèi)C)回歸D)降維答案:AD解析:[多選題]158.聚類(lèi)性能度量大致有兩類(lèi),一類(lèi)是(__),另一類(lèi)是(__)。A)外部指標(biāo)B)內(nèi)部指標(biāo)C)簇內(nèi)相似度D)簇間相似度答案:AB解析:[多選題]159.支持向量機(jī)是一類(lèi)模型的統(tǒng)稱,通常包括A)線性支持向量機(jī)B)線性非可分向量機(jī)C)線性可分支持向量機(jī)D)非線性支持向量機(jī)答案:ACD解析:[多選題]160.以下哪些濾波器能在卷積窗口的邊界上使卷積掩膜中心像素和它的4-鄰接點(diǎn)的系數(shù)降至0附近。A)同態(tài)濾波B)高斯濾波C)巴特沃斯濾波D)中值濾波答案:BC解析:[多選題]161.某服務(wù)請(qǐng)求經(jīng)負(fù)載均衡設(shè)備分配到集群A、B、C、D進(jìn)行處理響應(yīng)的概率分別是10%、20%、30%和40%。已知測(cè)試集群所得的穩(wěn)定性指標(biāo)分別是90%、95%、99%和99.9%。現(xiàn)在該服務(wù)器請(qǐng)求處理失敗,且已排除穩(wěn)定性以外的問(wèn)題,那么最有可能在處理該服務(wù)請(qǐng)求的集群是________。A)AB)BC)CD)D答案:AB解析:[多選題]162.下列方法中,可以用于特征降維的方法包括()。A)主成分分析PCAB)線性判別分析LDAC)深度學(xué)習(xí)SparseAutoEncoderD)矩陣奇異值分解SVD答案:ABD解析:[多選題]163.下面關(guān)于集成學(xué)習(xí)的描述,正確的是()A)Bagging方法可以并行訓(xùn)練B)Bagging方法基學(xué)習(xí)器的比重不同C)Boosting方法可以并行訓(xùn)練D)Boosting方法基學(xué)習(xí)器的比重不同答案:AD解析:[多選題]164.下面屬于數(shù)據(jù)分析基本類(lèi)型的是(__)。A)描述性分析B)預(yù)測(cè)性分析C)總結(jié)性分析D)規(guī)范性分析答案:ABD解析:[多選題]165.下列關(guān)于交叉驗(yàn)證法描述正確的是(__)。A)交叉驗(yàn)證法先將數(shù)據(jù)集劃分為k個(gè)大小相似的互斥子集B)交叉驗(yàn)證法將數(shù)據(jù)集劃分成的k個(gè)子集應(yīng)盡可能保持?jǐn)?shù)據(jù)分布的一致性C)通常把交叉驗(yàn)證法稱為k折交叉驗(yàn)證D)假定數(shù)據(jù)集D中包含m個(gè)樣本,若令交叉驗(yàn)證法中的系數(shù)k=m,則得到了交叉驗(yàn)證法的一個(gè)特例:自助法答案:ABC解析:[多選題]166.下列關(guān)于支持向量機(jī)的說(shuō)法正確的是(__)。A)支持向量機(jī)的學(xué)習(xí)策略是間隔最大化B)支持向量機(jī)的基本模型是特征空間上間隔最大的線性分類(lèi)器C)支持向量機(jī)只能對(duì)線性可分的樣本進(jìn)行分類(lèi)D)傳統(tǒng)支持向量機(jī)只能求解二分類(lèi)問(wèn)題答案:ABD解析:[多選題]167.下列名稱中,哪些屬于同一種方法(__)。A)可重復(fù)采樣B)自助采樣C)有放回采樣D)順序采樣答案:ABC解析:[多選題]168.下列關(guān)于支持向量回歸機(jī)說(shuō)法正確的是(__)。A)支持向量回歸機(jī)希望學(xué)得一個(gè)回歸模型,使得預(yù)測(cè)值f(x)與真實(shí)值x盡可能接近B)在傳統(tǒng)回歸模型中,當(dāng)且僅當(dāng)預(yù)測(cè)值f(x)與真實(shí)值x完全相同時(shí),損失才為0C)支持向量回歸假設(shè)我們能夠容忍預(yù)測(cè)值f(x)與真實(shí)值x之間最多有特定值的誤差D)支持向量回歸以決策函數(shù)為中心,構(gòu)建了一個(gè)特定寬度的間隔帶,若訓(xùn)練樣本落入此間隔帶,則認(rèn)為是被預(yù)測(cè)正確的答案:ABCD解析:[多選題]169.基因遺傳算法的組成部分包括()**A)初始化編碼B)適應(yīng)度函數(shù)C)選擇D)交叉和變異答案:ABCD解析:[多選題]170.對(duì)聚類(lèi)問(wèn)題描述不正確的()A)監(jiān)督學(xué)習(xí)B)無(wú)監(jiān)督學(xué)習(xí)C)線性決策D)增量學(xué)習(xí)答案:ACD解析:[多選題]171.做一個(gè)二分類(lèi)預(yù)測(cè)問(wèn)題,先設(shè)定閾值為0.5,概率不小于0.5的樣本歸入正例類(lèi)(即1),小于0.5的樣本歸入反例類(lèi)(即0)。然后,用閾值n(n>0.5)重新劃分樣本到正例類(lèi)和反例類(lèi),下面說(shuō)法正確的是()。A)增加閾值不會(huì)提高召回率B)增加閾值會(huì)提高召回率C)增加閾值不會(huì)降低查準(zhǔn)率D)增加閾值會(huì)降低查準(zhǔn)率答案:AC解析:召回率=TP/TP+FN,查準(zhǔn)率=TP/TP+FP。當(dāng)概率閾值增加時(shí),TP、FP減少或者持平,TP+FN不變,所以召回率不會(huì)增加。[多選題]172.回歸樹(shù)構(gòu)建過(guò)程是()A)考慮數(shù)據(jù)集R上的所有特征j,遍歷每一個(gè)特征下所有可能的取值或者切分點(diǎn)s,將數(shù)據(jù)集R劃分成兩部分R_1和R_2B)分別計(jì)算多個(gè)子集劃分的平方誤差和,選擇最小的平方誤差對(duì)應(yīng)的特征與分割點(diǎn),生成兩個(gè)子節(jié)點(diǎn)C)在每個(gè)子節(jié)點(diǎn)再次進(jìn)行劃分計(jì)算D)葉結(jié)點(diǎn)的最大值視為葉結(jié)點(diǎn)的表征值答案:ABC解析:[多選題]173.關(guān)于Zookeeper可用性的說(shuō)法,正確的有()A)Follower宕機(jī):還有2臺(tái)服務(wù)器提供訪問(wèn),因?yàn)閆ookeeper上的數(shù)據(jù)是有多個(gè)副本的,數(shù)據(jù)并不會(huì)丟失B)Leader宕機(jī):Zookeeper會(huì)選舉出新的LeaderC)ZK集群的機(jī)制是只要超過(guò)半數(shù)的節(jié)點(diǎn)正常,集群就能正常提供服務(wù)D)Leader宕機(jī):Zookeeper無(wú)法使用答案:ABC解析:[多選題]174.大數(shù)據(jù)?涌現(xiàn)?現(xiàn)象有()。A)價(jià)值涌現(xiàn)B)質(zhì)量涌現(xiàn)C)隱私涌現(xiàn)D)數(shù)量涌現(xiàn)答案:ABC解析:[多選題]175.分析工具包括(__)和商務(wù)智能可視化、垂直分析、統(tǒng)計(jì)計(jì)算、數(shù)據(jù)服務(wù)、語(yǔ)音與自然語(yǔ)言理解、搜索等。A)數(shù)據(jù)分析平臺(tái)B)數(shù)據(jù)科學(xué)平臺(tái)C)機(jī)器學(xué)習(xí)D)人工智能答案:ABCD解析:[多選題]176.如右圖所示無(wú)向圖,它的團(tuán)包括()A){A}B){A,B}C){A,B,C}D){A,B,C,D}答案:ABC解析:[多選題]177.Spark組成部件包括()A)ResourceManagerB)ExecutorC)DriverD)RDD答案:BC解析:[多選題]178.在決策樹(shù)基本算法中,有三種情形會(huì)導(dǎo)致遞歸返回,這三種情形分別是(__)。A)當(dāng)前結(jié)點(diǎn)包含的樣本全屬于同一類(lèi)別,無(wú)需劃分B)當(dāng)前屬性集為空,或是所有樣本在所有屬性上取值相同,無(wú)法劃分C)當(dāng)前結(jié)點(diǎn)包含的樣本集合為空,不能劃分D)當(dāng)前結(jié)點(diǎn)包含的樣本不屬于同一類(lèi)別,不可劃分答案:ABC解析:[多選題]179.目前LSTM已經(jīng)應(yīng)用到()領(lǐng)域。A)自然語(yǔ)言處理B)語(yǔ)音識(shí)別C)圖像標(biāo)注D)發(fā)動(dòng)機(jī)答案:ABC解析:[多選題]180.Zookeeper的特性有()。A)實(shí)時(shí)性B)可靠性C)順序性D)原子性答案:ABCD解析:[多選題]181.根據(jù)邊的性質(zhì)不同,概率圖模型可大致分為兩類(lèi):第一類(lèi)是使用有向無(wú)環(huán)圖表示變量間的依賴關(guān)系,稱為();第二類(lèi)是使用無(wú)向圖表示變量間的相關(guān)關(guān)系,稱為()。A)有向圖模型B)貝葉斯網(wǎng)C)無(wú)向圖模型D)馬爾可夫網(wǎng)答案:ABCD解析:[多選題]182.機(jī)器學(xué)習(xí)按照功能大致可以分為以下哪幾類(lèi)()A)聚類(lèi)B)分類(lèi)C)回歸D)預(yù)測(cè)答案:ABC解析:[多選題]183.數(shù)據(jù)科學(xué)的(__)往往來(lái)自于統(tǒng)計(jì)學(xué)。A)理論B)方法C)技術(shù)D)工具答案:ABCD解析:[多選題]184.廣義不確定性可分為()**A)粗糙性B)模糊性C)不完全性D)時(shí)變性答案:BC解析:[多選題]185.在模型評(píng)估與度量的方法中,下列描述正確的是(__)。A)在留出法中,如果從采樣的角度來(lái)看待數(shù)據(jù)集劃分的過(guò)程,則保留類(lèi)別比例的采樣方式通常稱為分層采樣B)通常,我們可通過(guò)實(shí)驗(yàn)測(cè)試來(lái)對(duì)學(xué)習(xí)器的泛化誤差進(jìn)行評(píng)估并進(jìn)而做出選擇。C)我們需要一個(gè)測(cè)試集來(lái)測(cè)試學(xué)習(xí)器對(duì)新樣本的判別能力D)測(cè)試樣本不可從樣本真實(shí)分布中獨(dú)立同分布采樣而得答案:ABC解析:[多選題]186.數(shù)據(jù)戰(zhàn)略等于(__)之?和?。A)數(shù)據(jù)管理目標(biāo)B)行動(dòng)方案C)目標(biāo)管理D)動(dòng)態(tài)機(jī)制答案:ABC解析:[多選題]187.基于二次準(zhǔn)則函數(shù)的H-K算法較之于感知器算法的優(yōu)點(diǎn)是()?A)計(jì)算量小B)可以判別問(wèn)題是否線性可分C)其解完全適用于非線性可分的情況D)其解的適應(yīng)性更好答案:BD解析:[多選題]188.下列描述正確的為A)貝葉斯分類(lèi)器通過(guò)最大后驗(yàn)概率進(jìn)行單點(diǎn)估計(jì),貝葉斯學(xué)習(xí)通過(guò)分布估計(jì);B)貝葉斯學(xué)習(xí)分為參數(shù)學(xué)習(xí)和結(jié)構(gòu)學(xué)習(xí);C)貝葉斯網(wǎng)參數(shù)學(xué)習(xí)和結(jié)構(gòu)學(xué)習(xí)均較為簡(jiǎn)單;D)EM算法用于學(xué)習(xí)高斯混合模型的參數(shù);答案:ABD解析:[多選題]189.Bagging能不經(jīng)修改地用于____等任務(wù)。A)多分類(lèi)B)二分類(lèi)C)回歸D)聚類(lèi)答案:ABC解析:[多選題]190.下列關(guān)于PCA的說(shuō)法,正確的是()。A)在使用PCA之前,我們必須標(biāo)準(zhǔn)化數(shù)據(jù)B)應(yīng)該選擇具有最大方差的主成分C)應(yīng)該選擇具有最小方差的主成分D)可以使用PCA在低維空間中可視化數(shù)據(jù)答案:ABD解析:PCA對(duì)數(shù)據(jù)中變量的尺度非常敏感,因此需要對(duì)各個(gè)變量進(jìn)行標(biāo)準(zhǔn)化。方差越大,說(shuō)明在該特征上分布越廣泛,說(shuō)明該特征越有用,影響越大。PCA有時(shí)在較低維度上繪制數(shù)據(jù)是非常有用,可以提取前2個(gè)主要組成部分,在二維平面上使用散點(diǎn)圖可視化數(shù)據(jù)。[多選題]191.下列屬于聚類(lèi)性能度量外部指標(biāo)的是(__)。A)Jaccard系數(shù)B)FM系數(shù)C)Rand指數(shù)D)DB指數(shù)答案:ABC解析:[多選題]192.在ROC空間中,以(__)為橫軸,以(__)為縱軸。A)TPrateB)FNrateC)FPrateD)TNrate答案:AC解析:[多選題]193.下面哪些用卷積神經(jīng)網(wǎng)絡(luò)處理效果比較好()A)人臉識(shí)別B)手寫(xiě)數(shù)字識(shí)別C)自然語(yǔ)言處理D)機(jī)器翻譯答案:AB解析:[多選題]194.下列哪些現(xiàn)象屬于乘性噪聲。()A)電視光柵的退化B)二值圖像上的胡椒鹽噪聲C)信道傳輸受擾D)膠片材料的退化答案:AD解析:[多選題]195.數(shù)據(jù)戰(zhàn)略的影響因素(__)。A)當(dāng)前業(yè)務(wù)需求B)潛在風(fēng)險(xiǎn)C)數(shù)據(jù)戰(zhàn)略范疇D)未來(lái)需求答案:ABD解析:[多選題]196.下列關(guān)于神經(jīng)網(wǎng)絡(luò)描述正確的是(__)。A)我們?cè)跈C(jī)器學(xué)習(xí)中談?wù)撋窠?jīng)網(wǎng)絡(luò)是指的是生物學(xué)意義上的神經(jīng)網(wǎng)絡(luò)B)神經(jīng)網(wǎng)絡(luò)中最基本的成分是神經(jīng)元模型C)在MP神經(jīng)元模型中,神經(jīng)元接受來(lái)自n個(gè)其他神經(jīng)元傳遞過(guò)來(lái)的信號(hào)D)神經(jīng)元接收到的總輸入值將與神經(jīng)元的閾值進(jìn)行比較,然后通過(guò)激活函數(shù)處理以產(chǎn)生神經(jīng)元的輸出。答案:BCD解析:[多選題]197.如果希望減少數(shù)據(jù)集中的特征數(shù)量,則可以采取的措施是()。A)使用正向選擇法(ForwardSelection)B)使用反向消除法(BackwardElimination)C)逐步選擇消除法(Stepwise)D)計(jì)算不同特征之間的相關(guān)系數(shù),刪去相關(guān)系數(shù)高的特征之一答案:ABCD解析:正向選擇(ForwardSelection)是首先選擇一個(gè)特征,每個(gè)特征都試一遍,選擇對(duì)模型準(zhǔn)確率提升最高的那個(gè)特征;然后再在這個(gè)特征基礎(chǔ)上添加另外一個(gè)特征,方法類(lèi)似,直到模型準(zhǔn)確率不再提示為止。反向消除(BackwardElimination)是首先包含了所有的特征,然后嘗試刪除每個(gè)特征,最終刪掉對(duì)模型準(zhǔn)確率提升最高的一個(gè)特征(因?yàn)閯h除這個(gè)特征模型準(zhǔn)確率反而增加了,則說(shuō)明這個(gè)特征是無(wú)用特征)。如此類(lèi)推,直到刪除特征并不能提升模型為止。相對(duì)于ForwardSelection,BackwardElimination的優(yōu)點(diǎn)在于其允許一些低貢獻(xiàn)值的特征能夠進(jìn)到模型中去(有時(shí)候低貢獻(xiàn)值的特征能在組合中有更大的貢獻(xiàn)值,而ForwardSelection忽略了這種組合的可能性),因此BackwardElimination能夠避免受一兩個(gè)占主導(dǎo)地位的特征的干擾。另外還有一種特征選擇方法是逐步選擇消除法(Stepwise),該方法結(jié)合上述兩者的方法,新加入一個(gè)特征之后,再嘗試刪去一個(gè)特征,直至達(dá)到某個(gè)預(yù)設(shè)的標(biāo)準(zhǔn)。這種方法的缺點(diǎn)是預(yù)設(shè)的標(biāo)準(zhǔn)不好定,而且容易陷入到過(guò)擬合當(dāng)中。除此之外,也可以使用基于相關(guān)性的特征選擇,可以去除多重線性特征。[多選題]198.決策樹(shù)遞歸返回的條件為()。A)訓(xùn)練數(shù)據(jù)集使用完B)所有的類(lèi)標(biāo)簽完全相同C)特征用完D)遇到丟失值答案:BC解析:決策樹(shù)的生成是一個(gè)遞歸過(guò)程。在決策樹(shù)基本算法中,有三種情形會(huì)導(dǎo)致遞歸返回:①結(jié)點(diǎn)包含的樣本全屬于同一類(lèi)別,無(wú)須劃分;②當(dāng)前屬性集為空,或是所有樣本在所有屬性上取值相同,無(wú)法劃分;③當(dāng)前結(jié)點(diǎn)包含的樣本集合為空,不能劃分。[多選題]199.在某神經(jīng)網(wǎng)絡(luò)的隱層輸出中,包含-1.5,那么該神經(jīng)網(wǎng)絡(luò)采用的激活函數(shù)不可能是()A)SigmoidB)TanhC)ReluD)LeakyRelu答案:ABC解析:[多選題]200.關(guān)于神經(jīng)網(wǎng)絡(luò),下列說(shuō)法正確的是()。A)增加網(wǎng)絡(luò)層數(shù),可能會(huì)增加測(cè)試集分類(lèi)錯(cuò)誤率B)增加網(wǎng)絡(luò)層數(shù),一定會(huì)增加訓(xùn)練集分類(lèi)錯(cuò)誤率C)減少網(wǎng)絡(luò)層數(shù),可能會(huì)減少測(cè)試集分類(lèi)錯(cuò)誤率D)減少網(wǎng)絡(luò)層數(shù),一定會(huì)減少訓(xùn)練集分類(lèi)錯(cuò)誤率答案:AC解析:增加網(wǎng)絡(luò)層數(shù)可能造成訓(xùn)練誤差和測(cè)試誤差減小,但神經(jīng)網(wǎng)絡(luò)層數(shù)過(guò)多容易造成過(guò)擬合,訓(xùn)練誤差小,但是測(cè)試誤差很大。[多選題]201.隨機(jī)森林相比決策樹(shù)的優(yōu)點(diǎn)有()A)對(duì)離群點(diǎn)更加魯棒B)準(zhǔn)確率更高C)泛化誤差收斂D)大型數(shù)據(jù)集上更加有效答案:ABCD解析:[多選題]202.從形式語(yǔ)言表達(dá)能力而言,規(guī)則可分為兩類(lèi):(__)和(__)。A)命題規(guī)則B)一階規(guī)則C)原子命題D)邏輯連接詞答案:AB解析:[多選題]203.按照涉及自變量的多少,可以將回歸分析分為()。A)線性回歸分析B)非線性回歸分析C)一元回歸分析D)多元回歸分析E)綜合回歸分析答案:CD解析:按照涉及自變量的多少,可以將回歸分析分為一元回歸分析和多元回歸分析。[多選題]204.關(guān)于相關(guān)系數(shù),下列描述中正確的有:A)相關(guān)系數(shù)為0.8時(shí),說(shuō)明兩個(gè)變量之間呈正相關(guān)關(guān)系B)相關(guān)系數(shù)等于1相較于相關(guān)系數(shù)等于-1,前者的相關(guān)性更強(qiáng)C)相關(guān)性等于1相較于相關(guān)系數(shù)等于0,前者的相關(guān)性更強(qiáng)D)Pearson相關(guān)系數(shù)衡量了兩個(gè)定序變量之間的相關(guān)程度E)Spearman相關(guān)系數(shù)可以衡量?jī)蓚€(gè)定序變量之間的相關(guān)程度F)相關(guān)系數(shù)為0.2相較于-0.8,前者的相關(guān)性更強(qiáng)答案:ACE解析:第3部分:判斷題,共33題,請(qǐng)判斷題目是否正確。[判斷題]205.BP算法的反向傳播是為了對(duì)權(quán)值進(jìn)行調(diào)整。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]206.?L2正則化往往用于防止過(guò)擬合,而L1正則化往往用于特征選擇。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]207.K均值算法的E值越小則簇內(nèi)樣本相似度越低A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]208.算法做出的價(jià)格往往比人做出的市場(chǎng)價(jià)格要合理A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]209.ID3依據(jù)信息增益做特征選擇,而C4.5依據(jù)信息增益比做特征選擇A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]210.在Boosting的提升方法中,對(duì)于一個(gè)復(fù)雜任務(wù)來(lái)說(shuō),將多個(gè)專家的判斷進(jìn)行適當(dāng)?shù)木C合所得出的判斷,要比其中任何一個(gè)專家單獨(dú)的判斷好A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]211.梯度下降算法一定能收斂于全局最小值A(chǔ))正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]212.大小相等的數(shù)組之間的任何算術(shù)運(yùn)算都會(huì)將運(yùn)算應(yīng)用到元素級(jí)。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]213.conda是一個(gè)在Windows、MacOS、和Linux上運(yùn)行的開(kāi)源軟件包管理系統(tǒng)和環(huán)境管理系統(tǒng)。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]214.模型已知時(shí)強(qiáng)化學(xué)習(xí)任務(wù)能歸結(jié)為基于動(dòng)態(tài)規(guī)劃的尋優(yōu)問(wèn)題,涉及到泛化能力。A)正確B)錯(cuò)誤【】答案:錯(cuò)解析:[判斷題]215.CART算法能用于回歸問(wèn)題,不能用于分類(lèi)問(wèn)題A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]216.使用merge()函數(shù)進(jìn)行數(shù)據(jù)合并時(shí),不需要指定合并鍵。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]217.邏輯斯蒂(對(duì)數(shù)幾率)回歸是一種回歸學(xué)習(xí)方法。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]218.Pandas是一個(gè)基于NumPy的數(shù)據(jù)分析包,它是為了解決數(shù)據(jù)分析任務(wù)而創(chuàng)建的。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]219.學(xué)習(xí)能力是人具有智能的重要標(biāo)志,機(jī)器學(xué)習(xí)主要研究在機(jī)器(計(jì)算機(jī))上使用的學(xué)習(xí)方法A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]220.若按照屬性a劃分后獲得的信息增益越大,意味著使用屬性a劃分所獲得的純度提升越大。因此,可選擇獲得最大信息增益的屬性作為決策樹(shù)的最優(yōu)化分屬性。著名的ID3決策樹(shù)學(xué)習(xí)算法就是以信息增益為準(zhǔn)則來(lái)選擇劃分屬性的。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]221.DataFrame的結(jié)構(gòu)是由索引和數(shù)據(jù)組成的。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]222.密
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 人教部編版六年級(jí)語(yǔ)文上冊(cè)第25課《少年閏土》精美課件
- 2024年度智能校園班班通系統(tǒng)集成合同
- 2024年黑龍江客運(yùn)資格證技巧
- 2024年昆明客運(yùn)駕駛員技能測(cè)試題
- 人教部編版六年級(jí)語(yǔ)文上冊(cè)《語(yǔ)文園地七》精美課件
- 2024年黑龍江客運(yùn)從業(yè)資格證需要什么材料
- 2024年建筑工程施工標(biāo)準(zhǔn)合同范例
- 社區(qū)開(kāi)展幼兒園安全自查報(bào)告總結(jié)
- 《第19課 戰(zhàn)后資本主義的新變化》(同步訓(xùn)練)高中歷史必修2-人教版-2024-2025學(xué)年
- 架空線路安裝施工方案
- 腎內(nèi)科激素的用藥知識(shí)-健康科普知識(shí)講座課件
- 關(guān)于工商管理社會(huì)實(shí)踐報(bào)告
- 學(xué)校食堂調(diào)查方案
- 2024年航空職業(yè)技能鑒定考試-無(wú)人機(jī)AOPA駕駛證考試(視距內(nèi)駕駛員視距內(nèi)駕駛員)筆試歷年真題薈萃含答案
- 激勵(lì)理論-赫茨伯格的“雙因素理論”案例分析課件
- JC-T 738-2004水泥強(qiáng)度快速檢驗(yàn)方法
- 胸腔積液患者病例討論
- 第六章-冷凍真空干燥技術(shù)-wang
- 建設(shè)項(xiàng)目設(shè)計(jì)管理方案
- 2024年屆海南航空控股股份有限公司招聘筆試參考題庫(kù)含答案解析
- 前程無(wú)憂在線測(cè)試題庫(kù)及答案行測(cè)
評(píng)論
0/150
提交評(píng)論