《機(jī)器學(xué)習(xí)-Python實(shí)踐》試卷及答案 卷7_第1頁
《機(jī)器學(xué)習(xí)-Python實(shí)踐》試卷及答案 卷7_第2頁
《機(jī)器學(xué)習(xí)-Python實(shí)踐》試卷及答案 卷7_第3頁
《機(jī)器學(xué)習(xí)-Python實(shí)踐》試卷及答案 卷7_第4頁
《機(jī)器學(xué)習(xí)-Python實(shí)踐》試卷及答案 卷7_第5頁
已閱讀5頁,還剩3頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

第1頁,共1頁一、單項(xiàng)選擇題(本大題共10小題,每題3分,共30分)試卷(試卷(學(xué)年第1學(xué)期)考試科目機(jī)器學(xué)習(xí)-Python實(shí)踐(A卷)適用專業(yè)班級(jí)(年級(jí))得分命題人:審閱人:班級(jí)學(xué)號(hào)姓名考試科目裝訂線1、如果使用線性回歸模型,下列說法正確的是?()A.檢查異常值是很重要的,因?yàn)榫€性回歸對(duì)離群效應(yīng)很敏感B.線性回歸分析要求所有變量特征都必須具有正態(tài)分布C.線性回歸假設(shè)數(shù)據(jù)中基本沒有多重共線性D.以上說法都不對(duì)2、建立線性模型時(shí),我們看變量之間的相關(guān)性。在尋找相關(guān)矩陣中的相關(guān)系數(shù)時(shí),如果發(fā)現(xiàn)3對(duì)變量(Var1和Var2、Var2和Var3、Var3和Var1)之間的相關(guān)性分別為-0.98、0.45和1.23。我們能從中推斷出什么呢?()A.Var1和Var2具有很高的相關(guān)性B.Var1和Var2存在多重共線性,模型可以去掉其中一個(gè)特征C.Var3和Var1相關(guān)系數(shù)為1.23是不可能的D.以上都對(duì)3、下列哪種方法可以用來減小過擬合?(多選)()A.更多的訓(xùn)練數(shù)據(jù)B.L1正則化C.L2正則化D.減小模型的復(fù)雜度4、向量X=[1,2,3,4,-9,0]的L1范數(shù)為?()A.1B.19C.6D.√1115、關(guān)于L1、L2正則化下列說法正確的是?()A.L2正則化能防止過擬合,提升模型的泛化能力,但L1做不到這點(diǎn)B.L2正則化技術(shù)又稱為L(zhǎng)assoRegularizationC.L1正則化得到的解更加稀疏D.L2正則化得到的解更加稀疏6、有N個(gè)樣本,一般用于訓(xùn)練,一般用于測(cè)試。若增大N值,則訓(xùn) 練誤差和測(cè)試誤差之間的差距會(huì)如何變化?()A.增大B.減小C.不變D.以上均不對(duì)7、在回歸模型中,下列哪一項(xiàng)在權(quán)衡欠擬合(under-fitting)和過擬 合(over-fitting)中影響最大?()A.多項(xiàng)式階數(shù)B.更新權(quán)重w時(shí),使用的是矩陣求逆還是梯度下降C.使用常數(shù)項(xiàng)D.學(xué)習(xí)率8、輸入層中的節(jié)點(diǎn)數(shù)為10,隱層為5。從輸入層到隱層的最大連接數(shù) 為?

()

A.50

B.Lessthan50

C.Morethan50

D.Itisanarbitraryvalue

9、如果我們希望預(yù)測(cè)n個(gè)類(p1,p2..pk)的概率,使得所有n的p 的和等于1,則以下哪個(gè)函數(shù)可以用作輸出層中的激活函數(shù)?

()

A.Softmax

B.ReLu

C.Sigmoid

D.Tanh

10、采取什么措施不可以防止過擬合?()

A.數(shù)據(jù)壓縮;

B.權(quán)值共享;

C.提前結(jié)束模型迭代;

D.采用dropout;二、判斷題(本大題共10小題,每題1分,共10分)1、FP——將負(fù)類預(yù)測(cè)為正類數(shù)。()2、交叉熵?fù)p失函數(shù)的好處是可以克服方差代價(jià)函數(shù)更新權(quán)重過慢的問 題。()3、邏輯回歸假設(shè)數(shù)據(jù)服從伯努利分布,通過極大化似然函數(shù)的方法, 運(yùn)用梯度下降來求解參數(shù),來達(dá)到將數(shù)據(jù)二分類的目的。()4、SVM無法做多分類。()5、SVM不涉及核函數(shù)。()6、BGD計(jì)算根據(jù)全部樣本的構(gòu)造出來的代價(jià)函數(shù)的梯度。()7、SGD計(jì)算根據(jù)全部樣本構(gòu)造出來的代價(jià)函數(shù)的梯度。()8、Bagging:訓(xùn)練集是在原始集中有放回抽取的,從原始集中選出的訓(xùn)練集之間是獨(dú)立的。()9、Boosting:根據(jù)錯(cuò)誤率不斷調(diào)整樣本的權(quán)值,錯(cuò)誤率越大則權(quán)值越大。()10、Bagging:每個(gè)樣本的權(quán)重相等。()三、填空(本大題共10小題,每題3分,共30分)1、熵指的是體系的的程度。2、信息越有序,信息熵越。3、訓(xùn)練過程中用到的數(shù)據(jù)叫。4、分類是預(yù)測(cè),比如把人分為好人和壞人之類的學(xué)習(xí)任務(wù)。5、模型把訓(xùn)練樣本學(xué)習(xí)“太好了”,可能把一些訓(xùn)練樣本自身的特性當(dāng)做了所有潛在樣本都有的一般性質(zhì),導(dǎo)致泛化能力下降叫。6、評(píng)判分類效果好壞的三個(gè)指標(biāo)就是上面介紹的三個(gè)指標(biāo):,,。7、從已有的M個(gè)特征(Feature)中選擇N個(gè)特征使得系統(tǒng)的特定指標(biāo)最優(yōu)化叫。8、Appriori屬性1:如果項(xiàng)目集X是頻繁項(xiàng)目集,那么它的所有非空子集都是。9、分類分析的三個(gè)步驟:、、。10、決策樹包含三種結(jié)點(diǎn):、、。四、簡(jiǎn)答題(本大題共3小題,共30分)1、決策樹的剪枝方法有哪些?2、SVM的超參數(shù)有哪些?3、討論深度學(xué)習(xí)的發(fā)展對(duì)推動(dòng)機(jī)器學(xué)習(xí)的意義?一、選擇題1.A 2.D 3.ABCD 4.B 5.C 6.B 7.A 8.A 9.A 10.A二、判斷題1.對(duì) 2.對(duì) 3.對(duì) 4.錯(cuò) 5.錯(cuò) 6.對(duì) 7.錯(cuò) 8.對(duì) 9.對(duì) 10.對(duì) 三、填空題1.混亂 2.低 3.訓(xùn)練集 4.離散值 5.過擬合 6.正確率召回率F值 7.特征選擇 8.頻繁項(xiàng)目集 9.挖掘分類規(guī)則分類規(guī)則評(píng)估分類規(guī)則應(yīng)用 10.根結(jié)點(diǎn)(矩形表示)內(nèi)部結(jié)點(diǎn)(矩形表示)葉結(jié)點(diǎn)/終結(jié)點(diǎn)(橢圓表示)四、簡(jiǎn)答題1、答

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論