《機(jī)器學(xué)習(xí)-Python實(shí)踐》試卷及答案 卷9_第1頁
《機(jī)器學(xué)習(xí)-Python實(shí)踐》試卷及答案 卷9_第2頁
《機(jī)器學(xué)習(xí)-Python實(shí)踐》試卷及答案 卷9_第3頁
《機(jī)器學(xué)習(xí)-Python實(shí)踐》試卷及答案 卷9_第4頁
《機(jī)器學(xué)習(xí)-Python實(shí)踐》試卷及答案 卷9_第5頁
已閱讀5頁,還剩4頁未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

第1頁,共1頁一、單項(xiàng)選擇題(本大題共10小題,每題3分,共30分)試卷(試卷(學(xué)年第1學(xué)期)考試科目機(jī)器學(xué)習(xí)-Python實(shí)踐(A卷)適用專業(yè)班級(jí)(年級(jí))得分命題人:審閱人:班級(jí)學(xué)號(hào)姓名考試科目裝訂線1、選擇Logistic回歸中的One-Vs-All方法中的哪個(gè)選項(xiàng)是真實(shí)的。()A我們需要在n類分類問題中適合n個(gè)模型B我們需要適合n-1個(gè)模型來分類為n個(gè)類C我們需要只適合1個(gè)模型來分類為n個(gè)類D這些都沒有2、假設(shè)對(duì)給定數(shù)據(jù)應(yīng)用了Logistic回歸模型,并獲得了訓(xùn)練精度X和測試精度Y?,F(xiàn)在要在同一數(shù)據(jù)中添加一些新特征,以下哪些是錯(cuò)誤的選項(xiàng)。()注:假設(shè)剩余參數(shù)相同。A訓(xùn)練精度提高B訓(xùn)練準(zhǔn)確度提高或保持不變C測試精度提高或保持不變3、假定特征F1可以取特定值:A、B、C、D、E和F,其代表著學(xué)生在大學(xué)所獲得的評(píng)分。在下面說法中哪一項(xiàng)是正確的?()A特征F1是名義變量(nominalvariable)的一個(gè)實(shí)例。B特征F1是有序變量(ordinalvariable)的一個(gè)實(shí)例。C該特征并不屬于以上的分類。D以上說法都正確。4、下面哪一項(xiàng)對(duì)梯度下降(GD)和隨機(jī)梯度下降(SGD)的描述是正確的?()1在GD和SGD中,每一次迭代中都是更新一組參數(shù)以最小化損失函數(shù)。2在SGD中,每一次迭代都需要遍歷訓(xùn)練集中的所有樣本以更新一次參數(shù)。3在GD中,每一次迭代需要使用整個(gè)訓(xùn)練集的數(shù)據(jù)更新一個(gè)參數(shù)。A只有1B只有2C只有3D都正確5、假定你正在處理類屬特征,并且沒有查看分類變量在測試集中的分 布。現(xiàn)在你想將onehotencoding(OHE)應(yīng)用到類屬特征中。()那么在訓(xùn)練集中將OHE應(yīng)用到分類變量可能要面臨的困難是什么?A.分類變量所有的類別沒有全部出現(xiàn)在測試集中B.類別的頻率分布在訓(xùn)練集和測試集是不同的C.訓(xùn)練集和測試集通常會(huì)有一樣的分布D.A和B都正確6、假定你現(xiàn)在解決一個(gè)有著非常不平衡類別的分類問題,即主要類別 占據(jù)了訓(xùn)練數(shù)據(jù)的99%?,F(xiàn)在你的模型在測試集上表現(xiàn)為99%的準(zhǔn)確度。 那么下面哪一項(xiàng)表述是正確的?()1準(zhǔn)確度并不適合于衡量不平衡類別問題2準(zhǔn)確度適合于衡量不平衡類別問題3精確率和召回率適合于衡量不平衡類別問題4精確率和召回率不適合于衡量不平衡類別問題A1and3B1and4C2and3D2and47、假設(shè)我們有一個(gè)數(shù)據(jù)集,在一個(gè)深度為6的決策樹的幫助下,它可 以使用100%的精確度被訓(xùn)練?,F(xiàn)在考慮一下兩點(diǎn),并基于這兩點(diǎn)選擇正確 的選項(xiàng)。()注意:所有其他超參數(shù)是相同的,所有其他因子不受影響。1深度為4時(shí)將有高偏差和低方差2深度為4時(shí)將有低偏差和低方差A(yù)只有1B只有2C1和2D沒有一個(gè)8、與人類神經(jīng)元相比,人工神經(jīng)元的輸入類比于什么?()A.樹突B.軸突C.細(xì)胞核D.細(xì)胞膜9、與人類神經(jīng)元相比,人工神經(jīng)元的輸出類比于什么?()A.樹突B.軸突C.細(xì)胞核D.細(xì)胞膜10、以下關(guān)于感知器中的鏈接方式表示正確的是?()A.輸入層與隱藏層相連B.輸入層與輸出層相連C.隱藏層與細(xì)胞核相連D.輸入層與輸入層相連二、判斷題(本大題共10小題,每題1分,共10分)1、P(A|B)表示事件B已經(jīng)發(fā)生的前提下,事件A發(fā)生的概率,叫做事 件B發(fā)生下事件A的條件概率。()2、輸出變量為連續(xù)變量的預(yù)測問題是分類問題。()3、回歸及分類常用的評(píng)估指標(biāo)都是準(zhǔn)確率和召回率。()4、決策樹只用來分類。()5、一般來說,回歸不用在分類問題上,但也有特殊情況,邏輯回歸可 以用來解決0/1分類問題。()6、回歸問題與分類問題都有可能發(fā)生過擬合。()7、如果一個(gè)經(jīng)過訓(xùn)練的機(jī)器學(xué)習(xí)模型在測試集上達(dá)到100%的準(zhǔn)確率, 這是否意味著該模型將在另外一個(gè)新的測試集上也能得到100%的準(zhǔn)確率。 ()8、序列數(shù)據(jù)沒有時(shí)間戳。()9、定量屬性可以是整數(shù)值或者是連續(xù)值。()10、可視化技術(shù)對(duì)于分析的數(shù)據(jù)類型通常不是專用性的。()三、填空(本大題共10小題,每題3分,共30分)1、損失函數(shù)也叫或。2、已知坐標(biāo)軸中兩點(diǎn)A(2,?2)B(?1,2),這兩點(diǎn)的曼哈頓距離(L1距離)是。3、算法利用信息增益進(jìn)行特征的選擇,信息增益反映的是給定條件后不確定性減少的程度。4、表示在樣本集合中一個(gè)隨機(jī)選中的樣本被分錯(cuò)的概率。5、基尼指數(shù)(基尼不純度)=*。6、歐式距離的特征是:、。7、一個(gè)表示一個(gè)單獨(dú)的數(shù),它不同于線性代數(shù)中研究的其他大部分對(duì)象(通常是多個(gè)數(shù)的數(shù)組)。8、AdaBoost迭代次數(shù)也就是數(shù)目不太好設(shè)定,可以使用交叉驗(yàn)證來進(jìn)行確定;數(shù)據(jù)不平衡導(dǎo)致分類精度下降。9、AdaBoost訓(xùn)練比較耗時(shí),每次重新選擇最好切分點(diǎn)。10、聚類(Clustering)是指把相似的數(shù)據(jù)劃分到一起,具體劃分的時(shí)候并不關(guān)心這一類的標(biāo)簽,目標(biāo)就是把相似的數(shù)據(jù)聚合到一起,聚類是一種。四、簡答題(本大題共3小題,共30分)1、決策樹算法特點(diǎn)?2、預(yù)剪枝核心思想是?3、如果你已經(jīng)在完全相同的訓(xùn)練集上訓(xùn)練了五個(gè)不同的模型,并且它們都達(dá)到了95%的準(zhǔn)確率,是否還有機(jī)會(huì)通過結(jié)合這些模型來獲得更好的結(jié)果?如果可以,該怎么做?如果不行,為什么??一、選擇題1.A 2.B 3.B 4.A 5.D 6.A 7.A 8.A 9.B 10.A二、判斷題1.對(duì) 2.錯(cuò) 3.錯(cuò) 4.錯(cuò) 5.對(duì) 6.對(duì) 7.錯(cuò) 8.對(duì) 9.對(duì) 10.錯(cuò) 三、填空題1.代價(jià)函數(shù)目標(biāo)函數(shù) 2.7 3.ID3 4.基尼指數(shù)(基尼不純度) 5.樣本被選中的概率樣本被分錯(cuò)的概率 6.平移不變性旋轉(zhuǎn)不變性 7.標(biāo)量 8.弱分類器 9.當(dāng)前分類器 10.無監(jiān)督學(xué)習(xí)(UnsupervisedLearning)方法四、簡答題1、答:優(yōu)點(diǎn):計(jì)算復(fù)雜度不高,輸出結(jié)果易于理解,數(shù)據(jù)有缺失也能跑,可以處理不相關(guān)特征。缺點(diǎn):容易過擬合。適用數(shù)據(jù)類型:數(shù)值型和標(biāo)稱型。2、答:其中的核心思想就是,在每一次實(shí)際對(duì)結(jié)點(diǎn)進(jìn)行進(jìn)一步劃分之前,先采用驗(yàn)證集的數(shù)據(jù)來驗(yàn)證劃分是否能提高劃分的準(zhǔn)確性。如果不能,就把結(jié)點(diǎn)標(biāo)記為葉結(jié)點(diǎn)并退出進(jìn)一步劃分;如果可以就繼續(xù)遞歸生成節(jié)點(diǎn)。3、答:如果你已經(jīng)訓(xùn)練了五個(gè)不同的模型,并且都達(dá)到了95%的精度,你可

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論