《機器學習-Python實踐》試卷1_第1頁
《機器學習-Python實踐》試卷1_第2頁
《機器學習-Python實踐》試卷1_第3頁
《機器學習-Python實踐》試卷1_第4頁
《機器學習-Python實踐》試卷1_第5頁
已閱讀5頁,還剩2頁未讀 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

第1頁,共1頁一、單項選擇題(本大題共10小題,每題3分,共30分)試卷(2021試卷(2021-2022學年第1學期)考試科目機器學習-Python實踐(A卷)適用專業(yè)班級(年級)得分命題人:審閱人:班級學號姓名考試科目裝訂線1、關于支持向量機SVM,下列說法錯誤的是()A.L2正則項,作用是最大化分類間隔,使得分類器擁有更強的泛化能力B.Hinge損失函數(shù),作用是最小化經驗分類錯誤C.分類間隔為1||w||1||w||,||w||代表向量的模D.當參數(shù)C越小時,分類間隔越大,分類錯誤越多,趨于欠學習2、假定某同學使用NaiveBayesian(NB)分類模型時,不小心將訓練數(shù)據(jù)的兩個維度搞重復了,那么關于NB的說法中正確的是:()A.這個被重復的特征在模型中的決定作用會被加強B.模型效果相比無重復特征的情況下精確度會降低C.如果所有特征都被重復一遍,得到的模型預測結果相對于不重復的情況下的模型預測結果一樣。D.當兩列特征高度相關時,無法用兩列特征相同時所得到的結論來分析問題3、關于Logit回歸和SVM不正確的是()A.Logit回歸本質上是一種根據(jù)樣本對權值進行極大似然估計的方法,而后驗概率正比于先驗概率和似然函數(shù)的乘積。logit僅僅是最大化似然函數(shù),并沒有最大化后驗概率,更談不上最小化后驗概率。A錯誤B.Logit回歸的輸出就是樣本屬于正類別的幾率,可以計算出概率,正確C.SVM的目標是找到使得訓練數(shù)據(jù)盡可能分開且分類間隔最大的超平面,應該屬于結構風險最小化。D.SVM可以通過正則化系數(shù)控制模型的復雜度,避免過擬合。4、以下哪些方法不可以直接來對文本分類?()A、KmeansB、決策樹C、支持向量機D、KNN正確答案:A分類不同于聚類。5、關于Logit回歸和SVM不正確的是()A.Logit回歸本質上是一種根據(jù)樣本對權值進行極大似然估計的方法,而后驗概率正比于先驗概率和似然函數(shù)的乘積。logit僅僅是最大化似然函數(shù),并沒有最大化后驗概率,更談不上最小化后驗概率。A錯誤B.Logit回歸的輸出就是樣本屬于正類別的幾率,可以計算出概率,正確C.SVM的目標是找到使得訓練數(shù)據(jù)盡可能分開且分類間隔最大的超平面,應該屬于結構風險最小化。D.SVM可以通過正則化系數(shù)控制模型的復雜度,避免過擬合。6、下列不是SVM核函數(shù)的是()A.多項式核函數(shù)B.logistic核函數(shù)C.徑向基核函數(shù)D.Sigmoid核函數(shù)7、模型的高bias是什么意思,我們如何降低它?機器學習ML基礎易()A.在特征空間中減少特征B.在特征空間中增加特征C.增加數(shù)據(jù)點D.B和C8、當你使用Boosting提升算法時,你會考慮弱學習器,以下哪項是使用弱學習器的主要原因?()A.防止過擬合B.防止欠擬合C.防止過擬合和防止欠擬合D.都不對9、梯度提升中,利用學習率來獲得最優(yōu)輸出是非常重要的,在選擇學習速率時, 下列描述正確的是:()A.學習率越大越好B.學習率越小越好C.學習率應該小一點但是不能太小D.學習率不能太大也不能太小,根據(jù)情況而定10、下列哪個算法不是集成學習算法的例子:()A.RandomForestB.AdaBoostC.GBDTD.XgboostE.DecisionTree二、判斷題(本大題共10小題,每題1分,共10分)1、錯誤率(ErrorRate)是分類錯誤的樣本數(shù)占樣本總數(shù)的比例。()2、決策樹算法可以用于小數(shù)據(jù)集。()3、支持向量是SVM的訓練結果,在SVM分類決策中起決定作用的是支持向量。()4、SVM在小樣本訓練集上能夠得到比其它算法好很多的結果。()5、最大似然估計的目的就是:利用已知的樣本結果,反推最有可能(最大概率)導致這樣結果的參數(shù)值。()6、決策樹只能處理數(shù)據(jù)型屬性。()7、邏輯回歸計算速度快。()8、集成學習(ensemblelearning)通過構建并結合多個學習器(learner)來完成學習任務()9、集成學習可獲得比單一學習器更良好的泛化性能(特別是在集成弱學習器(weaklearner)時)。()10、集成學習以bagging、RandomForest等算法為代表的,各個學習器之間相互獨立、可同時生成的并行化方法。()三、填空(本大題共10小題,每題3分,共30分)1、熵指的是體系的的程度。2、算法利用信息增益進行特征的選擇,信息增益反映的是給定條件后不確定性減少的程度。3、算法在決策樹生成的過程中,用信息增益比來選擇特征。4、p(x|θ)是給定參數(shù)θ的概率分布:。5、線性回歸如果是泊松分布,那就是。6、回歸常用評估方法:,,。7、基尼指數(shù)(基尼不純度)=*。8、聚類(Clustering)是指把相似的數(shù)據(jù)劃分到一起,具體劃分的時候并不關心這一類的標簽,目標就是把相似的數(shù)據(jù)聚合到一起,聚類是一種。9、分類(Classification):是把不同的數(shù)據(jù)劃分開,其過程是通過訓練數(shù)據(jù)集獲得一個分類器

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論