《機(jī)器學(xué)習(xí)-Python實踐》試卷及答案 卷6_第1頁
《機(jī)器學(xué)習(xí)-Python實踐》試卷及答案 卷6_第2頁
《機(jī)器學(xué)習(xí)-Python實踐》試卷及答案 卷6_第3頁
《機(jī)器學(xué)習(xí)-Python實踐》試卷及答案 卷6_第4頁
《機(jī)器學(xué)習(xí)-Python實踐》試卷及答案 卷6_第5頁
已閱讀5頁,還剩3頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

第1頁,共1頁一、單項選擇題(本大題共10小題,每題3分,共30分)試卷(試卷(學(xué)年第1學(xué)期)考試科目機(jī)器學(xué)習(xí)-Python實踐(A卷)適用專業(yè)班級(年級)得分命題人:審閱人:班級學(xué)號姓名考試科目裝訂線1、下列哪一項能反映出X和Y之間的強(qiáng)相關(guān)性?()A.相關(guān)系數(shù)為0.9B.對于無效假設(shè)β=0的p值為0.0001C.對于無效假設(shè)β=0的t值為30D.以上說法都不對2、機(jī)器學(xué)習(xí)中做特征選擇時,可能用到的方法有?(多選)()A.卡方B.信息增益C.平均互信息D.期望交叉熵3、以下說法中正確的是()A.SVM對噪聲(如來自其他分部的噪聲樣本)具備魯棒性B.在adaboost算法中,所有被分錯樣本的權(quán)重更新比例相同C.boosting和bagging都是組合多個分類器投票的方法,二者都是根據(jù)單個分類器的正確率確定其權(quán)重D.給定n個數(shù)據(jù)點,如果其中一半用于訓(xùn)練,一半用戶測試,則訓(xùn)練 誤差和測試誤差之間的差別會隨著n的增加而減少4、以下描述錯誤的是()A.SVM是這樣一個分類器,它尋找具有最小邊緣的超平面,因此它也經(jīng)常被稱為最小邊緣分類器B.在聚類分析當(dāng)中,簇內(nèi)的相似性越大,簇間的差別越大,聚類的效果就越差C.在決策樹中,隨著樹中結(jié)點輸變得太大,即使模型的訓(xùn)練誤差還在繼續(xù)降低,但是檢驗誤差開始增大,這是出現(xiàn)了模型擬合不足的原因D.聚類分析可以看作是一種非監(jiān)督的分類5、若在二維空間中線性不可分,SVM算法會通過()方法解決。A.核函數(shù)B.激活函數(shù)C.剪枝D.特征選擇6、線性回歸能完成的任務(wù)是()A.預(yù)測離散值B.預(yù)測連續(xù)值C.分類D.聚類7、產(chǎn)量(X,臺)與單位產(chǎn)品成本(y,元/臺)之家你的回歸方程為y=356-1.5x,這說明()A.產(chǎn)量每增加一臺,單位產(chǎn)品成本增加356元B.產(chǎn)品每增加一臺,單位產(chǎn)品的成本減少1.5元C.產(chǎn)量每增加一臺,單位產(chǎn)品的成本平均增加356元D.產(chǎn)量每增加一臺,單位產(chǎn)品成本平均減少1.5元8、下面哪個是通用的模型逼近器?

()

A.KernelSVM

B.NeuralNetworks

C.BoostedDecisionTrees

D.Alloftheabove

9、下面那個問題可以用深度學(xué)習(xí)來解決?()

A.蛋白質(zhì)結(jié)構(gòu)預(yù)測

B.化學(xué)反應(yīng)的預(yù)測

C.外來粒子的檢測

D.以上所有

10、當(dāng)您在CNN中使用1×1卷積時,以下哪個語句是真實的?()A.Itcanhelpindimensionalityreduction

B.Itcanbeusedforfeaturepooling

C.Itsufferslessoverfittingduetosmallkernelsize

D.Alloftheabove

二、判斷題(本大題共10小題,每題1分,共10分)1、邏輯回歸的目的就是提高二分類的效率。()2、SGD計算根據(jù)全部樣本構(gòu)造出來的代價函數(shù)的梯度。()3、用線性代數(shù)的方式描述函數(shù)或者方程的好處之一是書寫方便。()4、Π是求積符號。()5、Σ是求和符號。()6、回歸任務(wù)是預(yù)測連續(xù)值。()7、分類任務(wù)是預(yù)測連續(xù)值。()8、集成學(xué)習(xí):可以用作抽樣分布,從原始數(shù)據(jù)集中提取出自主樣本集。 ()9、基學(xué)習(xí)器可以使用權(quán)值學(xué)習(xí)有利于高權(quán)值樣本的模型。()10、Boosting:每一輪的訓(xùn)練集不變,只是訓(xùn)練集中每個樣本的權(quán)重發(fā)生變化,權(quán)值根據(jù)上一輪的預(yù)測結(jié)果進(jìn)行調(diào)整。()三、填空(本大題共10小題,每題3分,共30分)1、求函數(shù)機(jī)制的方法有兩大類,分別是和。2、機(jī)器學(xué)習(xí)中做特征選擇時,可能用到的、、、。3、算法在決策樹生成的過程中,用信息增益比來選擇特征。4、Gini指數(shù)越小表示集合中被選中的樣本被分錯的概率越小,也就是說集合的純度。5、p(x|θ)是給定參數(shù)θ的概率分布:。6、馬式距離的特征則是:。7、一個表示一組有序排列的數(shù)。通過次序中的索引,我們可以確定每個單獨的數(shù)。8、Adaboost算法不需要預(yù)先知道的錯誤率上限,且最后得到的的分類精度依賴于所有弱分類器的分類精度,可以深挖分類器的能力,Adaboost可以根據(jù)弱分類器的反饋,自適應(yīng)地調(diào)整假定的錯誤率,執(zhí)行的效率高。9、Adaboost可以在不改變訓(xùn)練數(shù)據(jù),只改變,使得數(shù)據(jù)在不同學(xué)習(xí)器中產(chǎn)生不同作用,類似于重采樣。10、關(guān)聯(lián)規(guī)則挖掘問題可以劃分成兩個子問題:發(fā)現(xiàn)和生成。四、簡答題(本大題共3小題,共30分)1、有數(shù)據(jù)集D1,其中樣本的特征是離散取值(可以簡單地考慮取二值),數(shù)據(jù)集D2和D1基本一樣,唯一的區(qū)別是D2中每個樣本的某個特征被重復(fù)了100次,請問在這兩個數(shù)據(jù)集上訓(xùn)練的樸素貝葉斯分類器是否一樣,請給出具體分析?2、一元線性回歸有哪些基本假定?3、討論數(shù)據(jù)數(shù)量和質(zhì)量對機(jī)器學(xué)習(xí)的影響?一、選擇題1.A 2.ABCD 3.C 4.C 5.A 6.B 7.D 8.D 9.D 10.D二、判斷題1.對 2.錯 3.對 4.對 5.對 6.對 7.錯 8.對 9.對 10.對 三、填空題1.解析解(閉式解)數(shù)值解 2.卡方信息增益平均互信息期望交叉熵 3.C4.5 4.越高 5.似然函數(shù) 6.平移不變性、旋轉(zhuǎn)不變性、尺度不變性 7.向量 8.弱分類器強(qiáng)分類器 9.數(shù)據(jù)權(quán)值分布 10.頻繁項目集關(guān)聯(lián)規(guī)則四、簡答題1、解:分類器是不一樣的。因為樸素貝葉斯方法假設(shè)了特征間的獨立性,但D2中的100個特征彼此不獨立,因此不在適用,如果用了兩者的結(jié)果不等。在D2上訓(xùn)練,被重復(fù)的特征的概率會被乘100次,放大了它的影響。2、答:假設(shè)1、解釋變量X是確定性變量,Y是隨機(jī)變量;假設(shè)2、隨機(jī)誤差項ε具有零均值、同方差和不序列相關(guān)性:E(εi)=0

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論