《機(jī)器學(xué)習(xí)-Python實(shí)踐》試卷1_第1頁
《機(jī)器學(xué)習(xí)-Python實(shí)踐》試卷1_第2頁
《機(jī)器學(xué)習(xí)-Python實(shí)踐》試卷1_第3頁
《機(jī)器學(xué)習(xí)-Python實(shí)踐》試卷1_第4頁
《機(jī)器學(xué)習(xí)-Python實(shí)踐》試卷1_第5頁
已閱讀5頁,還剩2頁未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

第1頁,共1頁一、單項(xiàng)選擇題(本大題共10小題,每題3分,共30分)試卷(2021試卷(2021-2022學(xué)年第1學(xué)期)考試科目機(jī)器學(xué)習(xí)-Python實(shí)踐(A卷)適用專業(yè)班級(jí)(年級(jí))得分命題人:審閱人:班級(jí)學(xué)號(hào)姓名考試科目裝訂線1、關(guān)于支持向量機(jī)SVM,下列說法錯(cuò)誤的是()A.L2正則項(xiàng),作用是最大化分類間隔,使得分類器擁有更強(qiáng)的泛化能力B.Hinge損失函數(shù),作用是最小化經(jīng)驗(yàn)分類錯(cuò)誤C.分類間隔為1||w||1||w||,||w||代表向量的模D.當(dāng)參數(shù)C越小時(shí),分類間隔越大,分類錯(cuò)誤越多,趨于欠學(xué)習(xí)2、假定某同學(xué)使用NaiveBayesian(NB)分類模型時(shí),不小心將訓(xùn)練數(shù)據(jù)的兩個(gè)維度搞重復(fù)了,那么關(guān)于NB的說法中正確的是:()A.這個(gè)被重復(fù)的特征在模型中的決定作用會(huì)被加強(qiáng)B.模型效果相比無重復(fù)特征的情況下精確度會(huì)降低C.如果所有特征都被重復(fù)一遍,得到的模型預(yù)測結(jié)果相對(duì)于不重復(fù)的情況下的模型預(yù)測結(jié)果一樣。D.當(dāng)兩列特征高度相關(guān)時(shí),無法用兩列特征相同時(shí)所得到的結(jié)論來分析問題3、關(guān)于Logit回歸和SVM不正確的是()A.Logit回歸本質(zhì)上是一種根據(jù)樣本對(duì)權(quán)值進(jìn)行極大似然估計(jì)的方法,而后驗(yàn)概率正比于先驗(yàn)概率和似然函數(shù)的乘積。logit僅僅是最大化似然函數(shù),并沒有最大化后驗(yàn)概率,更談不上最小化后驗(yàn)概率。A錯(cuò)誤B.Logit回歸的輸出就是樣本屬于正類別的幾率,可以計(jì)算出概率,正確C.SVM的目標(biāo)是找到使得訓(xùn)練數(shù)據(jù)盡可能分開且分類間隔最大的超平面,應(yīng)該屬于結(jié)構(gòu)風(fēng)險(xiǎn)最小化。D.SVM可以通過正則化系數(shù)控制模型的復(fù)雜度,避免過擬合。4、以下哪些方法不可以直接來對(duì)文本分類?()A、KmeansB、決策樹C、支持向量機(jī)D、KNN正確答案:A分類不同于聚類。5、關(guān)于Logit回歸和SVM不正確的是()A.Logit回歸本質(zhì)上是一種根據(jù)樣本對(duì)權(quán)值進(jìn)行極大似然估計(jì)的方法,而后驗(yàn)概率正比于先驗(yàn)概率和似然函數(shù)的乘積。logit僅僅是最大化似然函數(shù),并沒有最大化后驗(yàn)概率,更談不上最小化后驗(yàn)概率。A錯(cuò)誤B.Logit回歸的輸出就是樣本屬于正類別的幾率,可以計(jì)算出概率,正確C.SVM的目標(biāo)是找到使得訓(xùn)練數(shù)據(jù)盡可能分開且分類間隔最大的超平面,應(yīng)該屬于結(jié)構(gòu)風(fēng)險(xiǎn)最小化。D.SVM可以通過正則化系數(shù)控制模型的復(fù)雜度,避免過擬合。6、下列不是SVM核函數(shù)的是()A.多項(xiàng)式核函數(shù)B.logistic核函數(shù)C.徑向基核函數(shù)D.Sigmoid核函數(shù)7、模型的高bias是什么意思,我們?nèi)绾谓档退??機(jī)器學(xué)習(xí)ML基礎(chǔ)易()A.在特征空間中減少特征B.在特征空間中增加特征C.增加數(shù)據(jù)點(diǎn)D.B和C8、當(dāng)你使用Boosting提升算法時(shí),你會(huì)考慮弱學(xué)習(xí)器,以下哪項(xiàng)是使用弱學(xué)習(xí)器的主要原因?()A.防止過擬合B.防止欠擬合C.防止過擬合和防止欠擬合D.都不對(duì)9、梯度提升中,利用學(xué)習(xí)率來獲得最優(yōu)輸出是非常重要的,在選擇學(xué)習(xí)速率時(shí), 下列描述正確的是:()A.學(xué)習(xí)率越大越好B.學(xué)習(xí)率越小越好C.學(xué)習(xí)率應(yīng)該小一點(diǎn)但是不能太小D.學(xué)習(xí)率不能太大也不能太小,根據(jù)情況而定10、下列哪個(gè)算法不是集成學(xué)習(xí)算法的例子:()A.RandomForestB.AdaBoostC.GBDTD.XgboostE.DecisionTree二、判斷題(本大題共10小題,每題1分,共10分)1、錯(cuò)誤率(ErrorRate)是分類錯(cuò)誤的樣本數(shù)占樣本總數(shù)的比例。()2、決策樹算法可以用于小數(shù)據(jù)集。()3、支持向量是SVM的訓(xùn)練結(jié)果,在SVM分類決策中起決定作用的是支持向量。()4、SVM在小樣本訓(xùn)練集上能夠得到比其它算法好很多的結(jié)果。()5、最大似然估計(jì)的目的就是:利用已知的樣本結(jié)果,反推最有可能(最大概率)導(dǎo)致這樣結(jié)果的參數(shù)值。()6、決策樹只能處理數(shù)據(jù)型屬性。()7、邏輯回歸計(jì)算速度快。()8、集成學(xué)習(xí)(ensemblelearning)通過構(gòu)建并結(jié)合多個(gè)學(xué)習(xí)器(learner)來完成學(xué)習(xí)任務(wù)()9、集成學(xué)習(xí)可獲得比單一學(xué)習(xí)器更良好的泛化性能(特別是在集成弱學(xué)習(xí)器(weaklearner)時(shí))。()10、集成學(xué)習(xí)以bagging、RandomForest等算法為代表的,各個(gè)學(xué)習(xí)器之間相互獨(dú)立、可同時(shí)生成的并行化方法。()三、填空(本大題共10小題,每題3分,共30分)1、熵指的是體系的的程度。2、算法利用信息增益進(jìn)行特征的選擇,信息增益反映的是給定條件后不確定性減少的程度。3、算法在決策樹生成的過程中,用信息增益比來選擇特征。4、p(x|θ)是給定參數(shù)θ的概率分布:。5、線性回歸如果是泊松分布,那就是。6、回歸常用評(píng)估方法:,,。7、基尼指數(shù)(基尼不純度)=*。8、聚類(Clustering)是指把相似的數(shù)據(jù)劃分到一起,具體劃分的時(shí)候并不關(guān)心這一類的標(biāo)簽,目標(biāo)就是把相似的數(shù)據(jù)聚合到一起,聚類是一種。9、分類(Classification):是把不同的數(shù)據(jù)劃分開,其過程是通過訓(xùn)練數(shù)據(jù)集獲得一個(gè)分類器

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論