《機器學(xué)習(xí)-Python實踐》試卷2_第1頁
《機器學(xué)習(xí)-Python實踐》試卷2_第2頁
《機器學(xué)習(xí)-Python實踐》試卷2_第3頁
《機器學(xué)習(xí)-Python實踐》試卷2_第4頁
《機器學(xué)習(xí)-Python實踐》試卷2_第5頁
已閱讀5頁,還剩3頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

第1頁,共1頁一、單項選擇題(本大題共10小題,每題3分,共30分)試卷(2021試卷(2021-2022學(xué)年第1學(xué)期)考試科目機器學(xué)習(xí)-Python實踐(A卷)適用專業(yè)班級(年級)得分命題人:審閱人:班級學(xué)號姓名考試科目裝訂線1、假設(shè),現(xiàn)在我們已經(jīng)建了一個模型來分類,而且有了99%的預(yù)測準(zhǔn)確率,我們可以下的結(jié)論是:()A.模型預(yù)測準(zhǔn)確率已經(jīng)很高了,我們不需要做什么了B.模型預(yù)測準(zhǔn)確率不高,我們需要做點什么改進模型C.無法下結(jié)論D.以上都不對2、我們想在大數(shù)據(jù)集上訓(xùn)練決策樹,為了使用較少時間,我們可以:()A.增加樹的深度B.增加學(xué)習(xí)率(learningrate)C.減少樹的深度D.減少樹的數(shù)量3、對于線性回歸,我們應(yīng)該有以下哪些假設(shè)?()1.找到離群點很重要,因為線性回歸對利群點很敏感2.線性回歸要求所有變量必須符合正態(tài)分布3.線性回歸假設(shè)數(shù)據(jù)沒有多重線性相關(guān)性A.1和2B.2和3C.1,2和3D.以上都不是4、關(guān)于正態(tài)分布,下列說法錯誤的是:()A.正態(tài)分布具有集中性和對稱性B.正態(tài)分布的均值和方差能夠決定正態(tài)分布的位置和形態(tài)C.正態(tài)分布的偏度為0,峰度為1D.標(biāo)準(zhǔn)正態(tài)分布的均值為0,方差為15、決策樹的父節(jié)點和子節(jié)點的熵的大小關(guān)系是什么?()A.決策樹的父節(jié)點更大B.子節(jié)點的熵更大C.兩者相等D.根據(jù)具體情況而定6、下列關(guān)于極大似然估計(MaximumLikelihoodEstimate,MLE),說法正確的是(多選)?()A.MLE可能并不存在B.MLE總是存在C.如果MLE存在,那么它的解可能不是唯一的D.如果MLE存在,那么它的解一定是唯一的7、一般來說,下列哪種方法常用來預(yù)測連續(xù)獨立變量?()A.線性回歸B.邏輯回顧C.線性回歸和邏輯回歸都行D.以上說法都不對8、你使用隨機森林生成了幾百顆樹(T1,T2,...,Tn),然后對這些樹的預(yù)測結(jié)果進行綜合,下列說法正確的是:()1、每棵樹是通過所有數(shù)據(jù)的子集構(gòu)建而成的2、每棵樹學(xué)習(xí)的樣本數(shù)據(jù)都是通過隨機有放回采樣而得的3、每棵樹是通過數(shù)據(jù)集的子集和特征的子集構(gòu)建而成的4、每棵樹是通過所有的數(shù)據(jù)構(gòu)建而成的A.1和2B.2和4C.1、2和3D.2和39、下面關(guān)于隨機森林和GBDT的說法正確的是:()①這兩種方法都可以用來解決分類問題②隨機森林解決分類問題,GBDT解決回歸問題③隨機森林解決回歸問題,GBDT解決分類問題④這兩種方法都可以用來解決回歸問題A.①B.②C.③D.④E.①和④10、關(guān)于隨機森林和GBDT,下列說法錯誤的是:()A.隨機森林中每個學(xué)習(xí)器是相互獨立的B.隨機森林利用了bagging的思想來構(gòu)建強學(xué)習(xí)器C.GBDT利用了Boosting的思想來構(gòu)建強學(xué)習(xí)器D.GBDT中每個學(xué)習(xí)器之間沒有任何聯(lián)系二、判斷題(本大題共10小題,每題1分,共10分)1、SVM是一個凸優(yōu)化問題,因此局部最優(yōu)解一定是全局最優(yōu)解的優(yōu)點。()2、錯誤否定(FalseNegative,FN):預(yù)測為假,實際為真。()3、邏輯回歸的因變量可以是二分類的,也可以是多分類的,但是二分類的更為常用,也更加容易解釋。所以實際中最常用的就是二分類的邏輯回歸。()4、決策樹只能處理數(shù)據(jù)型屬性。()5、樸素貝葉斯適合高維數(shù)據(jù)。()6、隨機事件X所包含的信息量與其發(fā)生的概率有關(guān)。發(fā)生的概率越小,其信息量就越小。()7、決策樹短時間內(nèi)處理大量數(shù)據(jù),得到可行且效果較好的結(jié)果。()8、集成學(xué)習(xí)以boosting、Adaboost等算法為代表的,個體學(xué)習(xí)器不是串行序列化生成的、具有依賴關(guān)系。()9、Adaboost算法流程給數(shù)據(jù)中的每一個樣本一個權(quán)重。()10、Adaboost算法流程訓(xùn)練數(shù)據(jù)中的每一個樣本,得到第一個分類器()三、填空(本大題共10小題,每題3分,共30分)1、評判分類效果好壞的三個指標(biāo)就是上面介紹的三個指標(biāo):,,。2、提取出的正確信息條數(shù)/提取出的信息條數(shù)是。3、模型把訓(xùn)練樣本學(xué)習(xí)“太好了”,可能把一些訓(xùn)練樣本自身的特性當(dāng)做了所有潛在樣本都有的一般性質(zhì),導(dǎo)致泛化能力下降叫。4、分類是預(yù)測,比如把人分為好人和壞人之類的學(xué)習(xí)任務(wù)。5、訓(xùn)練用到的每個樣本叫。6、訓(xùn)練過程中用到的數(shù)據(jù)叫。7、在某些情況下,我們會討論坐標(biāo)超過兩維的數(shù)組。一般地,一個數(shù)組中的元素分布在若干維坐標(biāo)的規(guī)則網(wǎng)格中,我們將其稱之為。8、聚類的特征選擇:從最初的特征中選擇最有效的特征,并將其存儲在?中。9、聚類的特征提?。和ㄟ^對進行

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論