人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷14)_第1頁(yè)
人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷14)_第2頁(yè)
人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷14)_第3頁(yè)
人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷14)_第4頁(yè)
人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷14)_第5頁(yè)
已閱讀5頁(yè),還剩20頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

試卷科目:人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷14)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)第1部分:?jiǎn)雾?xiàng)選擇題,共58題,每題只有一個(gè)正確答案,多選或少選均不得分。[單選題]1.一個(gè)SVM存在欠擬合問題,下面怎么做能提高模型的性能:A)增大懲罰參數(shù)CB)減小懲罰參數(shù)CC)減小核函數(shù)系數(shù)(gamma值)答案:A解析:C>0稱為懲罰參數(shù),是調(diào)和二者的系數(shù),C值大時(shí)對(duì)誤差分類的懲罰增大,C值小時(shí)對(duì)誤差分類的懲罰減小。當(dāng)C越大,趨近無(wú)窮的時(shí)候,表示不允許分類誤差的存在,margin越小,容易過(guò)擬合;當(dāng)C趨于0時(shí),表示我們不再關(guān)注分類是否正確,只要求margin越大,容易欠擬合。[單選題]2.分類問題的label是一個(gè)()值A(chǔ))數(shù)B)類別C)類別或者數(shù)答案:B解析:[單選題]3.如右圖所示有向圖,節(jié)點(diǎn)G的馬爾可夫毯為()A){D,E}B){I,J}C){D,E,I,J}D){D,E,F,H,I,J}答案:D解析:[單選題]4.邊界跟蹤技術(shù)技術(shù)屬于哪一類分割方法。()A)閾值分割法B)邊緣分割法C)區(qū)域分割法D)特征分區(qū)法答案:B解析:[單選題]5.k近鄰學(xué)習(xí)是一種(__)。A)監(jiān)督學(xué)習(xí)方法B)半監(jiān)督學(xué)習(xí)方法C)無(wú)監(jiān)督學(xué)習(xí)方法D)測(cè)試方法答案:A解析:[單選題]6.下列關(guān)于DataFrame說(shuō)法正確的是()。A)DataFrame結(jié)構(gòu)是由索引和數(shù)據(jù)組成B)DataFrame的行索引位于最右側(cè)C)創(chuàng)建一個(gè)DataFrame對(duì)象時(shí)需要指定索引D)DataFrame每列的數(shù)據(jù)類型必須是相同的答案:C解析:[單選題]7.關(guān)于EDA與統(tǒng)計(jì)學(xué)中驗(yàn)證性分析的相關(guān)描述不正確的有(__)。A)EDA無(wú)需事先假設(shè),驗(yàn)證性分析需要事先假設(shè)B)探索分析在后,驗(yàn)證性分析在前C)EDA中采取的方法往往比驗(yàn)證分析簡(jiǎn)單D)基于EDA是數(shù)據(jù)計(jì)算工作可以分為2個(gè)部分:探索性分析和驗(yàn)證性分析答案:B解析:[單選題]8.假設(shè)file是文本文件對(duì)象,下列選項(xiàng)中,哪個(gè)用于讀取一行內(nèi)容()。A)file.read()B)file.read(200)C)file.readline()D)file.readlines()答案:C解析:[單選題]9.關(guān)于常用評(píng)分函數(shù)描述錯(cuò)誤的為A)基于信息論準(zhǔn)則;B)學(xué)習(xí)問題看做為數(shù)據(jù)壓縮任務(wù);C)學(xué)習(xí)目標(biāo)為以最短編碼長(zhǎng)度描述訓(xùn)練數(shù)據(jù)模型;D)編碼位數(shù)僅為自身所需的編碼位數(shù);答案:D解析:[單選題]10.下面不屬于數(shù)據(jù)科學(xué)主要研究?jī)?nèi)容的有(__)。A)基礎(chǔ)理論B)數(shù)據(jù)管理C)數(shù)據(jù)分析D)數(shù)據(jù)商務(wù)答案:D解析:[單選題]11.關(guān)于隨機(jī)森林描述不正確的是()。A)隨機(jī)森林是一種集成學(xué)習(xí)方法B)隨機(jī)森林的隨機(jī)性主要體現(xiàn)在,當(dāng)訓(xùn)練單棵決策樹時(shí),對(duì)樣本和特征同時(shí)進(jìn)行采樣C)隨機(jī)森林可以高度并行化D)隨機(jī)森林在預(yù)測(cè)時(shí),根據(jù)單棵決策樹分類誤差進(jìn)行加權(quán)投票答案:D解析:[單選題]12.對(duì)數(shù)值型輸出,最常見的結(jié)合策略是(__)。A)投票法B)平均法C)學(xué)習(xí)法D)排序法答案:B解析:[單選題]13.(__)通過(guò)構(gòu)建并結(jié)合多個(gè)學(xué)習(xí)器來(lái)完成學(xué)習(xí)任務(wù)。A)支持向量機(jī)B)貝葉斯分類器C)神經(jīng)網(wǎng)絡(luò)D)集成學(xué)習(xí)答案:D解析:[單選題]14.spark.deploy.recoveryMode不支持那種()。A)ZooKeeperB)FileSystemC)NONED)hadoop答案:D解析:[單選題]15.一條規(guī)則形如:⊕←f1?f2?…?fL,其中?←"左邊的部分稱為A)規(guī)則長(zhǎng)度B)規(guī)則頭C)布爾表達(dá)式D)規(guī)則體答案:B解析:[單選題]16.利用平滑濾波器可對(duì)圖像進(jìn)行低通濾波,消除噪聲,但同時(shí)模糊了細(xì)節(jié)。一下哪項(xiàng)措施不能減小圖像的模糊程度?A)增加對(duì)平滑濾波器輸出的或值處理(即僅保留大于或值的輸出);B)采用中值濾波的方法;C)采用領(lǐng)域平均處理;D)適當(dāng)減小平滑濾波器的領(lǐng)域操作模板;答案:C解析:[單選題]17.(__)用于將非線性引入神經(jīng)網(wǎng)絡(luò)。它會(huì)將值縮小到較小的范圍內(nèi)。A)損失函數(shù)B)優(yōu)化函數(shù)C)激活函數(shù)D)目標(biāo)函數(shù)答案:C解析:[單選題]18.下面不屬于數(shù)據(jù)科學(xué)家的主要職責(zé)有(__)。A)制定?數(shù)據(jù)戰(zhàn)略?B)研發(fā)?數(shù)據(jù)產(chǎn)品?C)模擬?數(shù)據(jù)學(xué)習(xí)?D)構(gòu)建?數(shù)據(jù)生態(tài)系統(tǒng)?答案:C解析:[單選題]19.從學(xué)科定位來(lái)看,數(shù)據(jù)科學(xué)處于(__)三大領(lǐng)域的重疊之處。A)統(tǒng)計(jì)學(xué)B)黑客精神與技能C)數(shù)學(xué)與統(tǒng)計(jì)知識(shí)D)領(lǐng)域務(wù)實(shí)知識(shí)答案:A解析:[單選題]20.邏輯回歸與多元回歸分析有哪些不同之處?A)邏輯回歸用來(lái)預(yù)測(cè)事件發(fā)生的概率B)邏輯回歸用來(lái)計(jì)算擬合優(yōu)度指數(shù)C)邏輯回歸用來(lái)對(duì)回歸系數(shù)進(jìn)行估計(jì)D)以上都是答案:D解析:A選項(xiàng),邏輯回歸是用來(lái)解決分類問題的,可以用于預(yù)測(cè)事件發(fā)生的概率。B選項(xiàng),一般來(lái)說(shuō),為了測(cè)量真實(shí)樣本與模型的擬合程度,可以使用邏輯回歸來(lái)計(jì)算擬合優(yōu)度指數(shù)。C選項(xiàng),在擬合邏輯回歸模型之后,我們還可以根據(jù)系數(shù)值,來(lái)判斷各個(gè)獨(dú)立特征與目標(biāo)輸出的關(guān)系(正相關(guān)或負(fù)相關(guān))。[單選題]21.假設(shè)三個(gè)稠密矩陣(DenseMatrix)A,B,C的尺寸分別為m*n,n*q和p*q,且m<n<p<qm<n<p<q,一下計(jì)算順序會(huì)加速的是?A)(AB)CB)AC(B)C)A(BC)D)所有效率都相同答案:A解析:(AB)C要mp(2n-1)+mq(2p-1)次運(yùn)算;A(BC)要nq(2p-1)mq(2n-1)次運(yùn)算;又因?yàn)閙<n<p<q又因?yàn)閙<n<p<q;所以Mp(2n?1)<mq(2n?1);mp(2n?1)<mq(2n?1);Mq(2p?1)<nq(2p?1);mq(2p?1)<nq(2p?1);所以(AB)C運(yùn)算次數(shù)最少,效率最高;越小越要先乘[單選題]22.點(diǎn)擊率的預(yù)測(cè)是一個(gè)數(shù)據(jù)比例不平衡問題(如訓(xùn)練集中樣本呈陰性的比例為99%,陽(yáng)性的比例是1%),如果我們用這種數(shù)據(jù)建立模型并使得訓(xùn)練集的準(zhǔn)確率高達(dá)99%。我們可以得出結(jié)論是()。A)模型的準(zhǔn)確率非常高,我們不需要進(jìn)一步探索B)模型不好,我們應(yīng)建一個(gè)更好的模型C)無(wú)法評(píng)價(jià)模型D)以上答案都不正確答案:C解析:對(duì)于失衡數(shù)據(jù),模型的準(zhǔn)確率不能作為衡量模型效果的標(biāo)準(zhǔn)。因?yàn)槲覀冃枰剿鞯氖巧贁?shù)1%的數(shù)據(jù),為更好地評(píng)估模型效果,可以用靈敏度、特異度、F-measure來(lái)判斷。[單選題]23.可以從新聞文本數(shù)據(jù)中分析出名詞短語(yǔ),動(dòng)詞短語(yǔ),主語(yǔ)的技術(shù)是?A)詞性標(biāo)注B)依存分析和句法分析C)N-Gram抽取D)詞袋模型答案:B解析:[單選題]24.有如下兩組數(shù)據(jù){(-1,0),(-1,2),(1,2)}{(0,0),(1,0),(1,1)}我們?cè)谠摂?shù)據(jù)集上訓(xùn)練一個(gè)線性SVM模型,該模型中的支持向量是哪些?A)(?1,2),(1,1),(1,0)B)(?1,0),(?1,2),(1,1),(1,0)C)(?1,0),(1,2),(0,0),(1,1)D)(?1,0),(-1,2),(0,0),(1,0)答案:C解析:[單選題]25.不屬于KNN算法要素的是:A)k值的選擇B)距離度量C)分類決策的規(guī)則D)訓(xùn)練樣本的個(gè)數(shù)答案:D解析:[單選題]26.軟間隔SVM的閾值趨于無(wú)窮,下面哪種說(shuō)法正確()A)只要最佳分類超平面存在,它就能將所有數(shù)據(jù)全部正確分類B)軟間隔SVM分類器將正確分類數(shù)據(jù)C)會(huì)發(fā)生誤分類現(xiàn)象D)以上都不對(duì)答案:A解析:[單選題]27.采用模板[-11]主要檢測(cè)___方向的邊緣。A)水平B)45°C)垂直D)135°答案:C解析:[單選題]28.后剪枝是先從訓(xùn)練集生成一顆完整的決策樹,然后()對(duì)非葉結(jié)點(diǎn)進(jìn)行考察。A)自上而下B)在劃分前C)禁止分支展開D)自底向上答案:D解析:[單選題]29.()算法要求基學(xué)習(xí)器能對(duì)特定的數(shù)據(jù)分布進(jìn)行學(xué)習(xí),在訓(xùn)練過(guò)程的每一輪中,根據(jù)樣本分布為每個(gè)訓(xùn)練樣本重新賦予一個(gè)權(quán)重。A)BoostingB)支持向量機(jī)C)貝葉斯分類器D)神經(jīng)網(wǎng)絡(luò)答案:A解析:[單選題]30.OpenCV用于繪制橢圓的函數(shù)是()。A)line()B)circle()C)ellipse()D)polylines()答案:C解析:[單選題]31.Xi和Xj是較高維度表示中的兩個(gè)不同點(diǎn),其中Yi和Yj是較低維度中的Xi和Xj的表示。1數(shù)據(jù)點(diǎn)Xi與數(shù)據(jù)點(diǎn)Xj的相似度是條件概率p(j|i)。2數(shù)據(jù)點(diǎn)Yi與數(shù)據(jù)點(diǎn)Yj的相似度是條件概率q(j|i)。對(duì)于在較低維度空間中的Xi和Xj的完美表示,以下哪一項(xiàng)必須是正確的?A)p(j|i)=0,q(j|i)=1B)p(j|i)C)p(j|i)=q(j|i)D)P(j|i)>q(j|i)答案:C解析:兩點(diǎn)的相似性的條件概率必須相等,因?yàn)辄c(diǎn)之間的相似性必須在高維和低維中保持不變,以使它們成為完美的表示[單選題]32.移動(dòng)運(yùn)營(yíng)商對(duì)客戶進(jìn)行細(xì)分,設(shè)計(jì)套餐和營(yíng)銷活動(dòng)可以使用下面哪種機(jī)器學(xué)習(xí)方法()。A)貝葉斯分類器B)關(guān)聯(lián)方法C)聚類算法D)多層前饋網(wǎng)絡(luò)答案:C解析:[單選題]33.以下哪種不是Hive支持的數(shù)據(jù)類型?A)StructB)IntC)MapD)Long答案:D解析:[單選題]34.不是專家系統(tǒng)組成部分的是______A)用戶B)綜合數(shù)據(jù)庫(kù)C)推理機(jī)D)知識(shí)庫(kù)答案:A解析:[單選題]35.情感信息抽取不包括以下哪些方法?()A)基于命名實(shí)體識(shí)別的抽取方法B)基于重復(fù)段落的識(shí)別方法C)基于語(yǔ)義角色標(biāo)注的抽取方法D)基于監(jiān)督學(xué)習(xí)抽取的學(xué)習(xí)方法答案:B解析:[單選題]36.(__)是指捕獲人們的生活、業(yè)務(wù)或社會(huì)活動(dòng),并將其轉(zhuǎn)換為數(shù)據(jù)的過(guò)程。A)數(shù)據(jù)化B)數(shù)據(jù)可視化C)數(shù)據(jù)存儲(chǔ)D)數(shù)據(jù)加工答案:A解析:[單選題]37.卷積神經(jīng)網(wǎng)絡(luò)調(diào)整參數(shù)時(shí)信息的傳播方向是()。A)后向傳播B)前向傳播C)雙向傳播D)跳躍傳播答案:A解析:[單選題]38.多次?采樣?,然后求取平均累積獎(jiǎng)賞來(lái)作為期望積累獎(jiǎng)賞的近似,這稱為(__)。A)免模型學(xué)習(xí)B)機(jī)器學(xué)習(xí)C)深度學(xué)習(xí)D)蒙特卡羅強(qiáng)化學(xué)習(xí)答案:D解析:[單選題]39.在包含N個(gè)文檔的語(yǔ)料庫(kù)中,隨機(jī)選擇的一個(gè)文檔總共包含T個(gè)詞條,詞條?hello?出現(xiàn)K次。如果詞條?hello?出現(xiàn)在全部文檔的數(shù)量接近三分之一,則TF(詞頻)和IDF(逆文檔頻率)的乘積的正確值是多少?A)KT*Log(3)B)T*Log(3)/KC)K*Log(3)/TD)Log(3)/KT答案:C解析:[單選題]40.OLAP技術(shù)的核心是:()A)在線性B)對(duì)用戶的快速響應(yīng)C)互操作性D)多維分析答案:D解析:[單選題]41.下列有關(guān)KNN算法的流程順序,描述正確的是()①確定K的大小,和距離的計(jì)算方法②根據(jù)K個(gè)樣本的所屬類別,投票決定測(cè)試樣本的類別歸屬③計(jì)算訓(xùn)練集樣本與測(cè)試樣本的距離,選出K個(gè)與測(cè)試樣本最相似的樣本A)①②③B)③②①C)①③②D)②①③答案:C解析:[單選題]42.與科學(xué)可視化相比,(__)更關(guān)注抽象且應(yīng)用層次的可視化問題。A)信息可視化B)可視化理論C)可視分析學(xué)D)數(shù)據(jù)可視化答案:A解析:[單選題]43.極大似然估計(jì)是()A)與總體分布無(wú)關(guān)的統(tǒng)計(jì)量B)通過(guò)總體分布才能求出來(lái)的統(tǒng)計(jì)量C)似然方程的解D)對(duì)數(shù)似然方程的解答案:B解析:[單選題]44.機(jī)器學(xué)習(xí)訓(xùn)練時(shí),Mini-Batch的大小優(yōu)選為2個(gè)的冪,如256或512。它背后的原因是什么?A)Mini-Batch為偶數(shù)的時(shí)候,梯度下降算法訓(xùn)練的更快B)Mini-Batch設(shè)為2的冪,是為了符合CPU、GPU的內(nèi)存要求,利于并行化處理C)不使用偶數(shù)時(shí),損失函數(shù)是不穩(wěn)定的D)以上說(shuō)法都不對(duì)答案:B解析:[單選題]45.關(guān)于貝葉斯網(wǎng)描述錯(cuò)誤的是A)也稱為信念網(wǎng);B)借助有向無(wú)環(huán)圖刻畫屬性之間的關(guān)系;C)借助無(wú)向無(wú)環(huán)圖刻畫屬性之間的關(guān)系;D)用條件概率表來(lái)描述屬性的聯(lián)合概率分布;答案:C解析:[單選題]46.假設(shè)您已在數(shù)據(jù)集上擬合了一個(gè)復(fù)雜的回歸模型?,F(xiàn)在,您正在使用Ridge回歸,并調(diào)整參數(shù)λ以減少其復(fù)雜性。下面的描述哪個(gè)表達(dá)了偏差和方差與λ的關(guān)系()。A)在λ非常小的情況下,偏差低,方差低B)在λ非常小的情況下,偏差低,方差高C)在λ非常小的情況下,偏差高,方差低D)在λ非常小的情況下,偏差低,方差低答案:B解析:λ很小,則意味著模型比較復(fù)雜,在這種情況下,會(huì)產(chǎn)生偏差低且方差高的結(jié)果,模型會(huì)對(duì)數(shù)據(jù)過(guò)擬合。[單選題]47.在Numpy中創(chuàng)建全為0的矩陣使用()。A)zeros()B)ones()C)empty()D)arange()答案:A解析:[單選題]48.以等可能性為基礎(chǔ)的概率是()。A)古典概率B)經(jīng)驗(yàn)概率C)試驗(yàn)概率D)主觀概率答案:A解析:古典概率是以這樣的假設(shè)為基礎(chǔ)的,即隨機(jī)現(xiàn)象所能發(fā)生的事件是有限的、互不相容的,而且每個(gè)基本事件發(fā)生的可能性相等。根據(jù)大量的、重復(fù)的統(tǒng)計(jì)試驗(yàn)結(jié)果計(jì)算隨機(jī)事件中各種可能發(fā)生結(jié)果的概率,稱為試驗(yàn)概率或頻率概率。主觀概率,是指建立在過(guò)去的經(jīng)驗(yàn)與判斷的基礎(chǔ)上,根據(jù)對(duì)未來(lái)事態(tài)發(fā)展的預(yù)測(cè)和歷史統(tǒng)計(jì)資料的研究確定的概率,反映的只是一種主觀可能性。[單選題]49.數(shù)據(jù)戰(zhàn)略的側(cè)重點(diǎn)是(__)。A)數(shù)據(jù)密集型問題B)計(jì)算密集型問題C)人才密集型問題D)模型密集型問題答案:A解析:[單選題]50.以下哪個(gè)度量屬于數(shù)據(jù)散度的描述?()A)均值B)中位數(shù)C)標(biāo)準(zhǔn)差D)眾數(shù)答案:C解析:[單選題]51.以下剪枝算法中性能最好的是A)REPB)IREPC)RIPPERD)CN2答案:C解析:[單選題]52.下列哪些項(xiàng)所描述的相關(guān)技術(shù)是對(duì)的?A)AdaGrad和L-BFGS使用的都是一階差分B)AdaGrad和L-BFGS使用的都是二階差分C)Adagrad使用的是一階差分,L-BFGS使用的是二階差分D)Adagrad使用的是二階差分,L-BFGS使用的是一階差分答案:C解析:牛頓法不僅使用了一階導(dǎo)信息,同時(shí)還利用了二階導(dǎo)來(lái)更新參數(shù),L-BFGS算法是一種在牛頓法基礎(chǔ)上提出的一種求解函數(shù)根的算法[單選題]53.分析邏輯回歸表現(xiàn)的一個(gè)良好的方法是AIC,它與線性回歸中的R平方相似。有關(guān)AIC,以下哪項(xiàng)是正確的?A)具有最小AIC值的模型更好B)具有最大AIC值的模型更好C)視情況而定D)以上都不是答案:A解析:AIC信息準(zhǔn)則即Akaikeinformationcriterion,是衡量統(tǒng)計(jì)模型擬合優(yōu)良性的一種標(biāo)準(zhǔn),由于它為日本統(tǒng)計(jì)學(xué)家赤池弘次創(chuàng)立和發(fā)展的,因此又稱赤池信息量準(zhǔn)則??紤]到AIC=2k-2In(L),所以一般而言,當(dāng)模型復(fù)雜度提高(k增大)時(shí),似然函數(shù)L也會(huì)增大,從而使AIC變小,但是k過(guò)大時(shí),似然函數(shù)增速減緩,導(dǎo)致AIC增大,模型過(guò)于復(fù)雜容易造成過(guò)擬合現(xiàn)象。目標(biāo)是選取AIC最小的模型,AIC不僅要提高模型擬合度(極大似然),而且引入了懲罰項(xiàng),使模型參數(shù)盡可能少,有助于降低過(guò)擬合的可能性。綜上,我們一般選擇邏輯回歸中最少的AIC作為最佳模型。[單選題]54.關(guān)于Logistic回歸和SVM的描述,不正確的是()。A)Logistic回歸本質(zhì)上是一種根據(jù)樣本對(duì)權(quán)值進(jìn)行極大似然估計(jì)的方法,用先驗(yàn)概率的乘積代替后驗(yàn)概率B)Logistic回歸的輸出就是樣本屬于正類別的概率C)SVM的目標(biāo)是找到使得訓(xùn)練數(shù)據(jù)盡可能分開且分類間隔最大的超平面,屬于結(jié)構(gòu)風(fēng)險(xiǎn)最小化D)SVM可以通過(guò)正則化系數(shù)控制模型的復(fù)雜度,避免過(guò)擬合答案:A解析:Logistic回歸目標(biāo)函數(shù)是最小化后驗(yàn)概率,Logistic回歸可以用于預(yù)測(cè)事件發(fā)生概率的大小,SVM目標(biāo)是結(jié)構(gòu)風(fēng)險(xiǎn)最小化,SVM可以有效避免模型過(guò)擬合。[單選題]55.關(guān)于RBF神經(jīng)網(wǎng)絡(luò)描述錯(cuò)誤的是A)單隱層前饋神經(jīng)網(wǎng)絡(luò);B)隱層神經(jīng)元激活函數(shù)為徑向基函數(shù);C)輸出層是對(duì)隱層神經(jīng)元輸出的非線性組合;D)可利用BP算法來(lái)進(jìn)行參數(shù)優(yōu)化;答案:C解析:[單選題]56.在構(gòu)建一個(gè)基于決策樹模型時(shí),使用信息增益informationgain作為決策樹節(jié)點(diǎn)屬性選擇的標(biāo)準(zhǔn),以下圖片中哪一個(gè)屬性具信息增益最大:A)OutlookB)HumidityC)WindyD)Temperature答案:A解析:信息增益是劃分前樣本數(shù)據(jù)集的不純程度(熵)和劃分后數(shù)據(jù)集的不純程度(熵)的差值,計(jì)算各信息增益即可。[單選題]57.已知中國(guó)人的血型分布約為A型:30%,B型:20%,O型:40%,AB型:10%,則任選一批中國(guó)人作為用戶調(diào)研對(duì)象,希望他們中至少有一個(gè)是B型血的可能性不低于90%,那么最少需要選多少人?A)7B)9C)11D)13答案:C解析:[單選題]58.在有關(guān)數(shù)據(jù)倉(cāng)庫(kù)測(cè)試,下列說(shuō)法不正確的是:A)在完成數(shù)據(jù)倉(cāng)庫(kù)的實(shí)施過(guò)程中,需要對(duì)數(shù)據(jù)倉(cāng)庫(kù)進(jìn)行各種測(cè)試.測(cè)試工作中要包括單元測(cè)試和系統(tǒng)測(cè)試.B)當(dāng)數(shù)據(jù)倉(cāng)庫(kù)的每個(gè)單獨(dú)組件完成后,就需要對(duì)他們進(jìn)行單元測(cè)試.C)系統(tǒng)的集成測(cè)試需要對(duì)數(shù)據(jù)倉(cāng)庫(kù)的所有組件進(jìn)行大量的功能測(cè)試和回歸測(cè)試.D)在測(cè)試之前沒必要制定詳細(xì)的測(cè)試計(jì)劃.答案:D解析:第2部分:多項(xiàng)選擇題,共21題,每題至少兩個(gè)正確答案,多選或少選均不得分。[多選題]59.對(duì)于變換矩陣的平移矩陣,以下說(shuō)法正確的是()?A)平移矩陣屬于仿射變換B)平移矩陣可逆C)平移矩陣是正交矩陣D)平移矩陣屬于線性變換答案:AB解析:[多選題]60.有監(jiān)督機(jī)器學(xué)習(xí)方法可以被分為判別式模型和生成式模型,下面屬于生成式模型的有()A)SVM支持向量機(jī)B)樸素貝葉斯C)隱馬爾科夫D)logistic回歸答案:BC解析:[多選題]61.集成集成學(xué)習(xí)學(xué)習(xí)中投票法分為:____。A)絕對(duì)多數(shù)投票法B)相對(duì)多數(shù)投票法C)加權(quán)投票法D)快速投票法答案:ABC解析:[多選題]62.對(duì)于正交屬性空間中的樣本點(diǎn),若存在一個(gè)超平面對(duì)所有樣本進(jìn)行恰當(dāng)?shù)谋磉_(dá),則這樣的超平面應(yīng)具有(__)和(__)的性質(zhì)。A)最近重構(gòu)性B)最大可分性C)最遠(yuǎn)重構(gòu)性D)最小可分性答案:AB解析:[多選題]63.如果SVM模型欠擬合,以下方法哪些可以改進(jìn)模型()A)增大懲罰參數(shù)C的值B)減小懲罰參數(shù)C的值C)減小核系數(shù)(gamma參數(shù))D)增大核系數(shù)(gamma參數(shù))答案:AD解析:[多選題]64.ID3算法從功能上看有哪兩點(diǎn)明顯不足?A)實(shí)例各特征的取值必須是連續(xù)實(shí)數(shù)值,而不能是離散值B)實(shí)例各特征的取值必須是離散值,而不能是連續(xù)實(shí)數(shù)值C)預(yù)測(cè)目標(biāo)值只能為連續(xù)實(shí)數(shù)值,不能是離散值,因此只能處理回歸問題,不能處理分類問題D)預(yù)測(cè)目標(biāo)值只能為離散值,不能是連續(xù)實(shí)數(shù)值,因此只能處理分類問題,不能處理回歸問題答案:BD解析:[多選題]65.下列關(guān)于PCA和LDA的描述正確是()。A)PCA和LDA都可對(duì)高維數(shù)據(jù)進(jìn)行降維B)PCA可以保留類的信息C)LDA可以保留類的信息D)PCA一般選擇方差大的方向進(jìn)行投影答案:ACD解析:[多選題]66.半監(jiān)督支持向量機(jī)中最著名的是TSVM(TransductiveSupportVectorMachine)。與標(biāo)準(zhǔn)SVM一樣,TSVM不是針對(duì)()問題的學(xué)習(xí)方法?A)分類B)回歸C)聚類D)二分類答案:BC解析:[多選題]67.下列哪些技術(shù)能被用于計(jì)算兩個(gè)詞向量之間的距離?A)詞形還原(Lemmatization)B)歐氏距離(EuclideanDistance)C)余弦相似度(CosineSimilarity)D)N-grams答案:BC解析:[多選題]68.常見的行業(yè)應(yīng)用包括(__)和金融/借貸、保險(xiǎn)、健康醫(yī)療、生命科學(xué)等。A)廣告B)教育C)政府D)農(nóng)業(yè)答案:ABCD解析:[多選題]69.圖像間的算術(shù)運(yùn)算?A)可以?原地完成?是因?yàn)槊看芜\(yùn)算只涉及1個(gè)空間位置;B)加法運(yùn)算和減法運(yùn)算互為逆運(yùn)算,所以用加法運(yùn)算實(shí)現(xiàn)的功能也可用減法運(yùn)算實(shí)現(xiàn);C)與邏輯運(yùn)算類似,也可用于二值圖像;D)與邏輯運(yùn)算類似,既可對(duì)一副圖像進(jìn)行,也可以對(duì)兩幅圖像進(jìn)行;答案:AC解析:[多選題]70.Apriori算法是一種最有影響的挖掘布爾關(guān)聯(lián)規(guī)則頻繁項(xiàng)集的算法。其核心是基于兩階段頻集思想的遞推算法。該關(guān)聯(lián)規(guī)則在分類上屬于(__)、(__)、(__)規(guī)則。A)邏輯關(guān)聯(lián)B)布爾關(guān)聯(lián)C)單維D)單層答案:BCD解析:[多選題]71.同題15所示無(wú)向圖,它的極大團(tuán)包括()A){B,C,D}B){A,B}C){A,B,C}D){A,B,C,D}答案:AC解析:[多選題]72.數(shù)據(jù)可視化狹義上與(__)概念平行,廣義上包含這些概念。A)信息可視化B)科學(xué)可視化C)可視分析學(xué)D)可視化理論答案:ABC解析:[多選題]73.數(shù)據(jù)源和APPs提供的數(shù)據(jù)內(nèi)容包括(__)和物聯(lián)網(wǎng),金融,人/實(shí)體,位置智能等數(shù)據(jù)。A)健康B)經(jīng)濟(jì)C)空氣D)海洋答案:ABCD解析:[多選題]74.Feigenbaum等人在著名的《人工智能手冊(cè)》中將機(jī)器學(xué)習(xí)劃分為機(jī)械學(xué)習(xí)和(_)四種。A)深度學(xué)習(xí)B)示教學(xué)習(xí)C)類比學(xué)習(xí)D)歸納學(xué)習(xí)答案:BCD解析:[多選題]75.隨機(jī)森林中進(jìn)行投票時(shí),采用()A)平等投票B)權(quán)重投票C)隨機(jī)投票D)不投票答案:AB解析:第3部分:判斷題,共12題,請(qǐng)判斷題目是否正確。[判斷題]76.貝葉斯網(wǎng)不是因果關(guān)系網(wǎng)絡(luò)圖A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]77.決策樹的適用面較廣,對(duì)于分類應(yīng)用和回歸應(yīng)用,決策樹都可以被用來(lái)構(gòu)建模型。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]78.神經(jīng)網(wǎng)絡(luò)中各個(gè)隱藏層能提取出和人類看到的一樣的特征A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]79.Bagging是并行式集成學(xué)習(xí)方法最著名的代表A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]80.K近鄰算法比較適合于小數(shù)據(jù)樣本A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]81.若按照屬性a劃分后獲得的信息增益越大,意味著使用屬性a劃分所獲得的純度提升越大。因此,可選擇獲得最大信息增益的屬性作為決策樹的最優(yōu)化分屬性。著名的ID3決策樹學(xué)習(xí)算法就是以信息增益為準(zhǔn)則來(lái)選擇劃分屬性的。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]82.Lasso回歸是對(duì)線性回歸的優(yōu)化,在線性回歸的基礎(chǔ)上,對(duì)損失函數(shù)增加了一個(gè)L1正則項(xiàng),目的是降低方差,提高模型泛化能力。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]83.CART算法能用于回歸問題,不能用于分類問題A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]84.精確率、查全率、準(zhǔn)確率、F1分?jǐn)?shù)四種指標(biāo)各有側(cè)重,指標(biāo)值都是越高越好,最佳值均為1,最差值均為0。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]85.線性模型形式簡(jiǎn)單、易于建模,有很好的可解釋性、可理解性。__A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]86.決策樹學(xué)習(xí)是一種逼近離散值目標(biāo)函數(shù)的方法,學(xué)習(xí)到的函數(shù)被表現(xiàn)為一棵決策樹。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]87.訓(xùn)練集與驗(yàn)證集的樣本是不同的。A)正確B)錯(cuò)誤答案:對(duì)解析:第4部分:?jiǎn)柎痤},共9題,請(qǐng)?jiān)诳瞻滋幪顚懻_答案。[問答題]88.隨機(jī)森林(RandomForest)就屬于()答案:Bagging解析:[問答題]89.硬投票分類器和軟投票分類器有什么區(qū)別?答案:硬投票分類器只是統(tǒng)計(jì)每個(gè)分類器的投票,然后挑選出得票最多的類別。軟投票分類器計(jì)算出每個(gè)類別的平均估算概率,然后選出

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論