人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷23)_第1頁
人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷23)_第2頁
人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷23)_第3頁
人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷23)_第4頁
人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷23)_第5頁
已閱讀5頁,還剩19頁未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

試卷科目:人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷23)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)第1部分:單項(xiàng)選擇題,共58題,每題只有一個(gè)正確答案,多選或少選均不得分。[單選題]1.47910755872480A.分類方法A)回歸方法B)降維方法C)參數(shù)估計(jì)方法答案:C解析:[單選題]2.隨機(jī)森林算法用于回歸時(shí),單棵樹的分裂原則是()A)基尼指數(shù)B)方差C)信息增益率答案:B解析:[單選題]3.已知class="fr-ficfr-dibcursor-hover"A)-2,2B)3,-3C)-3,3D)2,-2答案:D解析:[單選題]4.1下列關(guān)于線性回歸說法錯(cuò)誤的是()A)在現(xiàn)有模型上,加入新的變量,所得到的R^2的值總會(huì)增加B)線性回歸的前提假設(shè)之一是殘差必須服從獨(dú)立正態(tài)分布C)殘差的方差無偏估計(jì)是SSE/(n-p)D)自變量和殘差不一定保持相互獨(dú)立答案:D解析:[單選題]5.最小二乘回歸方法的等效回歸方法()A)Logistic回歸B)多項(xiàng)式回歸C)非線性基函數(shù)回歸D)線性均值和正態(tài)誤差的最大似然回歸答案:D解析:[單選題]6.推薦系統(tǒng)為客戶推薦商品,自動(dòng)完成個(gè)性化選擇商品的過程,滿足客戶的個(gè)性化需求,推薦基于(),推測客戶將來可能的購買行為。A)客戶的朋友B)客戶的個(gè)人信息C)客戶的興趣愛好D)客戶過去的購買行為和購買記錄答案:D解析:[單選題]7.支持向量回歸與傳統(tǒng)回歸模型的差別是()。A)模型輸出與真實(shí)值相同B)模型輸出與真實(shí)值存在ε偏差C)模型輸出大于真實(shí)值D)模型輸出小于真實(shí)值答案:B解析:以線性回歸為例,通過模型輸出的f(x)與真實(shí)輸出的y之間的差別來計(jì)算損失。而SVR假設(shè)模型輸出f(x)與真實(shí)的y之間可以容忍有eps大小的偏差,也就意味只要樣本的預(yù)測值落在f(x)兩側(cè)在y軸方向上絕對值之差小于eps的間隔帶就是預(yù)測正確的。[單選題]8.以下哪項(xiàng)關(guān)于決策樹的說法是錯(cuò)誤的()。A)冗余屬性不會(huì)對決策樹的準(zhǔn)確率造成不利的影響B(tài))子樹可能在決策樹中重復(fù)多次C)決策樹算法對于噪聲的干擾非常敏感D)尋找最佳決策樹是NP完全問題答案:C解析:決策樹算法對于噪聲的干擾具有相當(dāng)好的魯棒性。[單選題]9.關(guān)于數(shù)據(jù)清洗,不正確的說法是()A)單數(shù)據(jù)源,主鍵取值不能重復(fù)B)多數(shù)據(jù)源會(huì)存在數(shù)據(jù)重復(fù),單位不一致的問題C)連續(xù)型數(shù)據(jù)不存在冗余問題D)缺失值可以采用刪除和填補(bǔ)等方法處理答案:C解析:[單選題]10.目標(biāo)變量在訓(xùn)練集上的7個(gè)實(shí)際值為[1,1,1,1,0,0,0],目標(biāo)變量的熵近似值是(log3/7=-0.847,log4/7=-0.560)()A)0.683B)-0.683C)0.724D)-0.243答案:A解析:[單選題]11.()是并行式集成學(xué)習(xí)方法最著名的代表A)隨機(jī)森林B)BoostingC)BaggingD)AdaBoost答案:C解析:[單選題]12.以下幾種優(yōu)化算法中,哪一種最快()A)梯度下降法B)牛頓法C)BFGSD)Adam答案:C解析:[單選題]13.某籃運(yùn)動(dòng)員在三分線投球的命中率是2(1),他投球10次,恰好投進(jìn)3個(gè)球的概率為()。A)128(15)B)16(3)C)8(5)D)16(7)答案:A解析:投籃只有兩種結(jié)果;進(jìn)或者不進(jìn),符合二項(xiàng)分布,二項(xiàng)分布概率的概率可以用公式P(X=k)=pk(1-p)n-k求得,其中n=10代表試驗(yàn)次數(shù),k=3代表事件連續(xù)發(fā)生的次數(shù),p=1/2代表事件發(fā)生的概率。[單選題]14.下面關(guān)于主成分分析PCA的描述中錯(cuò)誤的是()。A)PCA是從原空間中順序找一組相互正交的坐標(biāo)軸B)原始數(shù)據(jù)中方差最大的方向是第一個(gè)坐標(biāo)軸C)基于特征值分解協(xié)方差矩陣實(shí)現(xiàn)PCA算法D)奇異值分解只能適用于指定維數(shù)的矩陣分解答案:D解析:[單選題]15.過擬合現(xiàn)象中()A)訓(xùn)練樣本的測試誤差最小,測試樣本的正確識別率卻很低B)訓(xùn)練樣本的測試誤差最小,測試樣本的正確識別率也很高C)模型的泛化能力很高D)通常為線性模型答案:A解析:[單選題]16.若設(shè)1.啟動(dòng),2.診斷,3.建立,4.行動(dòng),5.學(xué)習(xí),則DMM模型中的順序?yàn)?__)。A)12345B)12354C)13254D)13245答案:A解析:[單選題]17.下列關(guān)于ZooKeeper集群原理的介紹,不正確的是()。A)由多個(gè)ZooKeeperSEVER組成的集群環(huán)境B)包含一個(gè)Leader和多個(gè)FollowerC)每個(gè)sever保存一個(gè)數(shù)據(jù)副本、全局?jǐn)?shù)據(jù)一致D)不采用分布式讀寫機(jī)制答案:D解析:[單選題]18.在HMM中,如果已知觀察序列和產(chǎn)生觀察序列的狀態(tài)序列,那么可用以下哪種方法直接進(jìn)行參數(shù)估計(jì)()A)EM算法B)維特比算法C)前向后向算法D)極大似然估計(jì)答案:D解析:[單選題]19.使用已訓(xùn)練好的模型對測試集中的實(shí)例進(jìn)行分類預(yù)測。如果要調(diào)用sklearn中的某個(gè)函數(shù)來評價(jià)預(yù)測的準(zhǔn)確率,應(yīng)該選擇:A)LabelEcoderB)StanderScalerC)fit_transformD)accuracy_score答案:D解析:[單選題]20.信息增益對可取值數(shù)目()的屬性有所偏好,增益率對可取值數(shù)目()的屬性有所偏好。A)較高,較高B)較高,較低C)較低,較高D)較低,較低答案:B解析:[單選題]21.歸結(jié)原理的特點(diǎn)是A)發(fā)明新的概念和關(guān)系B)發(fā)現(xiàn)更多的規(guī)則C)緩解過擬合的風(fēng)險(xiǎn)D)將復(fù)雜的邏輯規(guī)則與背景知識聯(lián)系起來化繁為簡答案:D解析:[單選題]22.(__)是廣義線性模型在g(·)=ln(·)時(shí)的特例。A)線性模型B)線性回歸C)線性判別分析D)對數(shù)線性回歸答案:D解析:[單選題]23.以下關(guān)于深度網(wǎng)絡(luò)訓(xùn)練的說法正確的是()A)訓(xùn)練過程需要用到梯度,梯度衡量了損失函數(shù)相對于模型參數(shù)的變化率B)損失函數(shù)衡量了模型預(yù)測結(jié)果與真實(shí)值之間的差異C)訓(xùn)練過程基于一種叫做反向傳播的技術(shù)D)其他選項(xiàng)都正確答案:D解析:[單選題]24.想像正在處理文本數(shù)據(jù),使用單詞嵌入(Word2vec)表示使用的單詞。在單詞嵌入中,最終會(huì)有1000維?,F(xiàn)在想減小這個(gè)高維數(shù)據(jù)的維度,這樣相似的詞應(yīng)該在最鄰近的空間中具有相似的含義。在這種情況下,您最有可能選擇以下哪種算法?A)t-SNEB)PCAC)LDAD)都不是答案:A解析:-SNE代表t分布隨機(jī)相鄰嵌入,它考慮最近的鄰居來減少數(shù)據(jù)。[單選題]25.移動(dòng)運(yùn)營商對客戶的流失進(jìn)行預(yù)測,可以使用下面哪種機(jī)器學(xué)習(xí)方法比較合適()。A)一元線性回歸分析B)關(guān)聯(lián)方法C)聚類方法D)多層前饋網(wǎng)絡(luò)答案:D解析:[單選題]26.1臺機(jī)器對200個(gè)單詞進(jìn)行排序花了200秒(使用冒泡排序),那么花費(fèi)800秒,大概可以對多少個(gè)單詞進(jìn)行排序A)400B)500C)600D)800答案:A解析:[單選題]27.關(guān)于Anconda組件的說法中,下列描述錯(cuò)誤的是()。A)AnacondaPrompt是Anaconda自帶的命令行B)JupyterNotebook是基于客戶端的交互式計(jì)算環(huán)境,可以編輯易于人們閱讀的文檔,用于展示數(shù)據(jù)分析的過程C)Spyder是一個(gè)使用Python語言、跨平臺的、科學(xué)運(yùn)算集成開發(fā)環(huán)境D)AnacondaNavigator是用于管理工具包和環(huán)境的圖形用戶界面,后續(xù)涉及的眾多管理命令也可以在Navigator中手動(dòng)實(shí)現(xiàn)JupyterNotebook是基于Web的交互式計(jì)算環(huán)境,可以編輯易于人們閱讀的文檔,用于展示數(shù)據(jù)分析的過程答案:B解析:[單選題]28.從sd卡加載一張圖片為bitmap并顯示到屏幕上的一個(gè)view,該view占用的內(nèi)存主要和什么因素有關(guān)。A)圖片文件大小及壓縮格式B)圖片原始分辨率C)view的尺寸D)bitmap分辨率和顏色位數(shù)答案:D解析:[單選題]29.《同義詞詞林》的詞類分類體系中,將詞分為大類、種類、小類,下列說法正確的是()A)大類以小寫字母表示B)小類以大寫字母表示C)中類以阿拉伯?dāng)?shù)字表示D)中類有94個(gè)答案:D解析:[單選題]30.對于一個(gè)二分類問題,假如現(xiàn)在訓(xùn)練了500個(gè)子模型,每個(gè)模型權(quán)重大小一樣。若每個(gè)子模型正確率為51%,則整體正確率為多少?若把每個(gè)子模型正確率提升到60%,則整體正確率為多少A)51%,60%B)60%,90%C)65.7%,99.99%D)65.7%,90%答案:C解析:[單選題]31.下列關(guān)于冗余特征的說法錯(cuò)誤的是A)冗余特征是可以通過其他特征推演出來的特征B)冗余特征是無用的特征C)冗余特征有時(shí)候可以降低學(xué)習(xí)任務(wù)的難度D)去除冗余特征可以減輕學(xué)習(xí)過程的負(fù)擔(dān)答案:B解析:[單選題]32.代碼print((1,2,?1?,?2?)[0]>1)執(zhí)行結(jié)果是()。A)TrueB)FalseC)報(bào)錯(cuò)D)無結(jié)果答案:B解析:[單選題]33.spark的四大組件下面哪個(gè)不是()。A)SparkStreamingB)MlibC)GraphxD)SparkR答案:D解析:[單選題]34.神經(jīng)網(wǎng)絡(luò)是由()演化而來。[]*A)符號主義B)認(rèn)知主義C)聯(lián)結(jié)主義D)行為主義答案:C解析:[單選題]35.下列關(guān)于過擬合的說法錯(cuò)誤的是A)過擬合是指模型在訓(xùn)練集上表現(xiàn)很好,但是在交叉驗(yàn)證集和測試集上表現(xiàn)一般B)解決過擬合可以采用Dropout方法C)解決過擬合可以采用參數(shù)正則化方法D)數(shù)據(jù)集擴(kuò)增不能用來解決過擬合問題答案:D解析:[單選題]36.下面不是有效的變量名的是()。A)_demoB)bananaC)NumbrD)my-score答案:D解析:[單選題]37.在(__)特征選擇中,特征選擇算法本身作為組成部分嵌入到學(xué)習(xí)算法中,最典型的就是決策樹算法。A)過濾式B)嵌入式C)包裹式D)隨機(jī)答案:B解析:[單選題]38.混合高斯聚類中,運(yùn)用了以下哪種過程()A)EM算法B)集合運(yùn)算C)密度可達(dá)D)樣本與集合運(yùn)算答案:A解析:[單選題]39.下列不屬于集成學(xué)習(xí)方法是A)baggingB)connectingC)boostingD)stacking答案:B解析:[單選題]40.下列算法中屬于局部處理的是:()A)灰度線性變換B)二值化C)傅立葉變換D)中值濾波答案:D解析:[單選題]41.()不是卷積神經(jīng)網(wǎng)絡(luò)的損失函數(shù)。A)sigmoidB)L1范數(shù)C)L2范數(shù)D)MSE答案:A解析:[單選題]42.下面哪個(gè)對應(yīng)的是正確的KNN決策邊界?A)AB)BC)CD)D答案:A解析:本題考查的是KNN的相關(guān)知識點(diǎn)。KNN分類算法是一個(gè)比較成熟也是最簡單的機(jī)器學(xué)習(xí)(MachineLearning)算法之一。該方法的思路是:如果一個(gè)樣本在特征空間中與K個(gè)實(shí)例最為相似(即特征空間中最鄰近),那么這K個(gè)實(shí)例中大多數(shù)屬于哪個(gè)類別,則該樣本也屬于這個(gè)類別。其中,計(jì)算樣本與其他實(shí)例的相似性一般采用距離衡量法。離得越近越相似,離得越遠(yuǎn)越不相似。因此,決策邊界可能不是線性的。[單選題]43.BatchNorm層對于inputbatch會(huì)統(tǒng)計(jì)出mean和variance用于計(jì)算EMA。如果inputbatch的shape為(B,C,H,W),統(tǒng)計(jì)出的mean和variance的shape為:()A)B*1*1*1B)1*C*1*1C)B*C*1*1D)1*1*1*1答案:B解析:[單選題]44.(__)的基本想法是適當(dāng)考慮一部分屬性間的相互依賴信息,從而既不需要進(jìn)行完全聯(lián)合概率計(jì)算,又不至于徹底忽略了比較強(qiáng)的屬性依賴關(guān)系。A)貝葉斯判定準(zhǔn)則B)貝葉斯決策論C)樸素貝葉斯分類器D)半樸素貝葉斯分類器答案:D解析:[單選題]45.大數(shù)據(jù)的4V特性不包括A)Volume(大量)B)Velocity(高速)C)Visual(可視)D)Variety(多樣)答案:C解析:[單選題]46.使用梯度下降法訓(xùn)練回歸模型時(shí),會(huì)由于各特征尺寸相差較大而造成算法收斂較慢。應(yīng)該將特征尺寸進(jìn)行縮放至接近或相同尺寸??刹捎胹klearn中的類或函數(shù)是:(2.0分)2.0分A)LabelEcoderB)fit_transformC)accuracy_scoreD)StanderScaler答案:D解析:[單選題]47.下列選項(xiàng)中,不屬于ndarray對象屬性的是()。A)shapeB)dtypeC)ndimD)map答案:D解析:[單選題]48.tensorflow中的tf.nn.conv2d()的函數(shù),其作用是()。A)圖像輸入B)進(jìn)行卷積C)進(jìn)行池化D)圖像輸出答案:B解析:[單選題]49.關(guān)于CNN,以下結(jié)論正確的是()A)在同樣層數(shù)、每層神經(jīng)元數(shù)量一樣的情況下,CNN比全連接網(wǎng)絡(luò)擁有更多的參數(shù)B)CNN可以用于非監(jiān)督學(xué)習(xí),但是普通神經(jīng)網(wǎng)絡(luò)不行C)Pooling層用于減少圖片的空間分辨率D)接近輸出層的filter主要用于提取圖像的邊緣信息答案:C解析:[單選題]50.如右圖所示無向圖,節(jié)點(diǎn)G的馬爾可夫毯為()A){D,E}B){I,J}C){D,E,I,J}D){D,E,F,H,I,J}答案:C解析:[單選題]51.剪枝是決策樹學(xué)習(xí)算法對付(__)的主要手段。A)欠擬合B)過擬合C)樣本數(shù)過多D)特征數(shù)過多答案:B解析:[單選題]52.只有非零值才重要的二元屬性被稱作:A)計(jì)數(shù)屬性B)離散屬性C)非對稱的二元屬性D)對稱屬性答案:C解析:[單選題]53.下面關(guān)于深度學(xué)習(xí)相關(guān)描述不正確的有(__)。A)深度學(xué)習(xí)是一種特征學(xué)習(xí)方法B)深度學(xué)習(xí)通過足夠多的簡單轉(zhuǎn)換函數(shù)及其組合方式來學(xué)習(xí)一個(gè)復(fù)雜的目標(biāo)函數(shù)C)深度學(xué)習(xí)的關(guān)鍵在于計(jì)算觀測書記的分層特征及其表示D)ANN不是深度學(xué)習(xí)答案:D解析:[單選題]54.什么是KDD?A)數(shù)據(jù)挖掘與知識發(fā)現(xiàn)B)領(lǐng)域知識發(fā)現(xiàn)C)文檔知識發(fā)現(xiàn)D)動(dòng)態(tài)知識發(fā)現(xiàn)答案:A解析:[單選題]55.關(guān)于Logistic回歸和Softmax回歸,以下說法正確是:A)Logistic回歸和Softmax回歸都只能處理二元分類問題B)Logistis回歸可以處理多元分類問題,Softmax回歸只能處理二元分類問題C)Logistic回歸和Softmax回歸都可以處理多元分類問題D)Softmax回歸可以處理多元分類問題,Logistic回歸只能處理二元分類問題答案:D解析:[單選題]56.在支持向量機(jī)中,可利用(__)方法將原問題轉(zhuǎn)化為其對偶問題。A)拉格朗日乘子法B)留出法C)比較檢驗(yàn)D)劃分選擇答案:A解析:[單選題]57.詞袋模型是在自然語言處理和信息檢索中的一種簡單假設(shè)。在這種模型中,文本(段落或者文檔)被看作是()的詞匯集合,忽略語法甚至是單詞的順序。A)無序B)有序C)無意義D)規(guī)范答案:A解析:[單選題]58.以下關(guān)于ZooKeeper關(guān)鍵特性中的原子性說法正確的是()?A)客戶端發(fā)送的更新會(huì)按照他們被發(fā)送的順序進(jìn)行應(yīng)用B)更新只能全部完成或失敗,不會(huì)部分完成C)一條消息被一個(gè)server接收,將被所有server接收D)集群中無論哪臺服務(wù)器,對外展示的均是同一視圖答案:B解析:第2部分:多項(xiàng)選擇題,共21題,每題至少兩個(gè)正確答案,多選或少選均不得分。[多選題]59.下列不屬于聚類性能度量內(nèi)部指標(biāo)的是(A)DB指數(shù)B)Dunn指數(shù)C)Jaccard系數(shù)D)FM系數(shù)答案:CD解析:聚類常用的外部指標(biāo)包括Jaccard系數(shù)、FM系數(shù)、Rand指數(shù);聚類常用的內(nèi)部指標(biāo)包括DB指數(shù)、Dunn指數(shù)。[多選題]60.從學(xué)科定位看,數(shù)據(jù)科學(xué)處于()的重疊之處,具有顯著的跨學(xué)科性。A)數(shù)學(xué)與統(tǒng)計(jì)知識B)計(jì)算機(jī)科學(xué)C)黑客精神與技能D)領(lǐng)域?qū)崉?wù)知識答案:ACD解析:[多選題]61.特征預(yù)處理一般包含()A)特征清洗B)特征生成C)特征選擇D)特征歸約答案:ABCD解析:[多選題]62.以下方法屬于集成方法的是()A)baggingB)stackingC)blendingD)boosting答案:ABCD解析:[多選題]63.下列關(guān)于交叉驗(yàn)證法描述正確的是(__)。A)交叉驗(yàn)證法先將數(shù)據(jù)集劃分為k個(gè)大小相似的互斥子集B)交叉驗(yàn)證法將數(shù)據(jù)集劃分成的k個(gè)子集應(yīng)盡可能保持?jǐn)?shù)據(jù)分布的一致性C)通常把交叉驗(yàn)證法稱為k折交叉驗(yàn)證D)假定數(shù)據(jù)集D中包含m個(gè)樣本,若令交叉驗(yàn)證法中的系數(shù)k=m,則得到了交叉驗(yàn)證法的一個(gè)特例:自助法答案:ABC解析:[多選題]64.深度學(xué)習(xí)中以下那些步驟是由模型自動(dòng)完成的()A)模型訓(xùn)練B)特征選擇C)分析定位任務(wù)D)特征提取答案:AD解析:[多選題]65.下列關(guān)于決策樹的說法正確的是()A)ID3決策樹是根據(jù)信息增益來劃分屬性B)C4.5決策樹是根據(jù)增益率來劃分屬性C)CART決策樹是根據(jù)基尼指數(shù)來劃分屬性D)基尼指數(shù)反映了從樣本集D中隨機(jī)抽取兩個(gè)樣本,其類別標(biāo)記不一致的概率,因此越小越好答案:ABCD解析:[多選題]66.對于決策樹的優(yōu)點(diǎn)描述,正確的是()。A)可讀性強(qiáng)B)分類速度快C)只用于回歸問題D)是無監(jiān)督學(xué)習(xí)答案:AB解析:決策樹也可用于回歸,屬于有監(jiān)督的機(jī)器學(xué)習(xí)算法。[多選題]67.下面對LDA判別分析的思想描述,正確的是()。A)同類樣例的投影點(diǎn)盡可能近B)異類樣例的投影點(diǎn)盡可能遠(yuǎn)C)同類樣例的投影點(diǎn)盡可能遠(yuǎn)D)異類樣例的投影點(diǎn)盡可能近答案:AB解析:LDA的思想非常樸素,即給定訓(xùn)練樣例集,設(shè)法將樣例投影到一條直線上,使得同類樣例的投影點(diǎn)盡可能接近、異類樣例的投影點(diǎn)盡可能遠(yuǎn)離。在對新樣本進(jìn)行分類時(shí),將其投影到同樣的這條直線上,再根據(jù)投影點(diǎn)的位置來確定新樣本的類別。[多選題]68.概率圖模型的推斷方法大致可分為兩類,分別是A)精準(zhǔn)推斷方法B)模糊推斷方法C)近似推斷方法D)盡量推斷方法答案:AC解析:[多選題]69.Spark應(yīng)用的計(jì)算邏輯會(huì)被解析成DAG,這個(gè)解析操作由以下哪個(gè)功能模塊完成()A)ClientB)ApplicationMasterC)ExecutorD)Driver答案:CD解析:[多選題]70.回歸分析有很多種類,常見的有()。A)線性回歸B)系數(shù)回歸C)邏輯回歸D)曲線回歸答案:ACD解析:[多選題]71.感知機(jī)中,(__)接收外界輸入信號后傳遞給(__)。A)輸入層B)輸出層C)第一層D)第二層答案:AB解析:[多選題]72.決策樹在()情況下會(huì)導(dǎo)致遞歸返回。A)當(dāng)前節(jié)點(diǎn)包含的樣本全屬于同一類B)當(dāng)前屬性集為空C)當(dāng)前節(jié)點(diǎn)包含的樣本集合為空D)所有樣本在所有屬性上取值相同答案:ABCD解析:決策樹的生成是一個(gè)遞歸過程。在決策樹基本算法中,有三種情形會(huì)導(dǎo)致遞歸返回:①當(dāng)前結(jié)點(diǎn)包含的樣本全屬于同一類別,無須劃分;②當(dāng)前屬性集為空,或是所有樣本在所有屬性上取值相同,無法劃分;③當(dāng)前結(jié)點(diǎn)包含的樣本集合為空,不能劃分。[多選題]73.下面屬于數(shù)據(jù)分析基本類型的是(__)。A)描述性分析B)預(yù)測性分析C)總結(jié)性分析D)規(guī)范性分析答案:ABD解析:[多選題]74.(__)不屬于推斷統(tǒng)計(jì)的方法。A)區(qū)間估計(jì)B)參數(shù)估計(jì)C)假設(shè)檢驗(yàn)D)相關(guān)分析答案:AD解析:[多選題]75.假如你用logisticRegression算法去預(yù)測用戶在網(wǎng)上的購買項(xiàng)目,然而,當(dāng)你在新的用戶集上驗(yàn)證你的假設(shè)時(shí),你發(fā)現(xiàn)預(yù)測值有很大的偏差。并且你的假設(shè)在訓(xùn)練集上表現(xiàn)也很差,下面那些步驟你應(yīng)該采納,選擇出正確的選項(xiàng)()A)嘗試著減小正則項(xiàng)λB)嘗試增加交叉特征C)減小樣本量D)嘗試更小的測試集或者特征答案:AB解析:第3部分:判斷題,共12題,請判斷題目是否正確。[判斷題]76.根據(jù)類別未知(沒有被標(biāo)記)的訓(xùn)練樣本解決模式識別中的各種問題,稱之為無監(jiān)督學(xué)習(xí)A)正確B)錯(cuò)誤答案:對解析:[判斷題]77.線性回歸是指通過對訓(xùn)練樣本的學(xué)習(xí),得到從樣本特征到樣本標(biāo)簽直接的映射A)正確B)錯(cuò)誤答案:對解析:[判斷題]78.核技巧的核心思想是,利用核函數(shù)直接計(jì)算映射到空間H后實(shí)例間的內(nèi)積,以此替代先作映射再計(jì)算內(nèi)積。A)正確B)錯(cuò)誤答案:對解析:[判斷題]79.?過擬合是有監(jiān)督學(xué)習(xí)的挑戰(zhàn),而不是無監(jiān)督學(xué)習(xí)?,以上說法是否正確A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]80.先驗(yàn)概率是指根據(jù)以往經(jīng)驗(yàn)和分析得到的概率A)正確B)錯(cuò)誤答案:對解析:[判斷題]81.估計(jì)類條件概率的一種常用策略是先假定其具有某種確定的概率分布形式,再基于訓(xùn)練樣本對概率分布的參數(shù)進(jìn)行估計(jì)A)正確B)錯(cuò)誤答案:對解析:[判斷題]82.DNN是卷積神經(jīng)網(wǎng)絡(luò)A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]83.面對大規(guī)模數(shù)據(jù)集時(shí),模型訓(xùn)練更容易發(fā)生過擬合現(xiàn)象。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]84.機(jī)器學(xué)習(xí)可以被設(shè)計(jì)用程序和算法自動(dòng)學(xué)習(xí)并進(jìn)行自我優(yōu)化,同時(shí),需要一定數(shù)量的訓(xùn)練數(shù)據(jù)集來構(gòu)建過往經(jīng)驗(yàn)?知識?A)正確B)錯(cuò)誤答案:對解析:[判斷題]85.回歸中利用最小二乘法主要通過最小化誤差的平方來尋找一個(gè)數(shù)據(jù)匹配的最佳函數(shù)。A)正確B)錯(cuò)誤答案:對解析:[判斷題]86.深度學(xué)習(xí)是基于RNN循環(huán)神經(jīng)網(wǎng)絡(luò)A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]87.Adaboost的核心思想是針對同一個(gè)訓(xùn)練集訓(xùn)練不同的分類器(弱分類器),然后把這些弱分類器集合起來,構(gòu)成一個(gè)更強(qiáng)的最終分類器A)正確B)錯(cuò)誤答案:對解析:第4部分:問答題,共9題,請?jiān)诳瞻滋幪顚懻_答案。[問答題]88.編碼矩陣有哪幾種形式?其區(qū)別是什么?答案:編碼矩陣有多種形式,常見的主要有二元碼和三元碼。前者將每個(gè)類別分別指定為正類和反類,后者在正、反類之外,還可指定?停用類?。解析:[問答題]89.()是指正確分類的正樣本個(gè)數(shù)占真正的正樣本數(shù)的比例答案:召回率解析:[問答題]90.Numpy的主要數(shù)據(jù)類型是()。答案:ndarray解析:[問答題]91.在K-Means算法中,由簇的()來代表整個(gè)簇。答案:平均值解析:又是一個(gè)平均代表多數(shù)的情況。[問答題]92.對函數(shù)dist(.,.),若它是一個(gè)距離度量則需要滿足

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論