機器學習基礎智慧樹知到課后章節(jié)答案2023年下太原理工大學_第1頁
機器學習基礎智慧樹知到課后章節(jié)答案2023年下太原理工大學_第2頁
機器學習基礎智慧樹知到課后章節(jié)答案2023年下太原理工大學_第3頁
機器學習基礎智慧樹知到課后章節(jié)答案2023年下太原理工大學_第4頁
機器學習基礎智慧樹知到課后章節(jié)答案2023年下太原理工大學_第5頁
已閱讀5頁,還剩27頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

機器學習基礎智慧樹知到課后章節(jié)答案2023年下太原理工大學太原理工大學

第一章測試

樣本是連續(xù)型數據且有標簽,我們采用()進行機器學習。

A:嵌入算法B:分類算法C:回歸算法D:聚類算法

答案:回歸算法

在機器學習中,樣本常被分成()。

A:評估集B:測試集C:其它選項都有D:訓練集

答案:其它選項都有

機器學習算法需要顯示編程,具備歸納、總結等自學習能力。()

A:對B:錯

答案:錯

機器學習和人工智能、深度學習是一個概念,都是指機器模仿人類推理、學習能力。()

A:錯B:對

答案:錯

特征工程非常重要,在采用機器學習算法前,首先需要利用特征工程確定樣本屬性。()

A:對B:錯

答案:對

第二章測試

K近鄰算法認為距離越近的相似度越高。()

A:對B:錯

答案:對

K近鄰算法中數據可以不做歸一化,因為是否歸一化對結果影響不大。()

A:對B:錯

答案:錯

K近鄰算法中采用不同的距離公式對于結果沒有影響。()

A:錯B:對

答案:錯

在上面圖中,K=5,綠色樣本的類別是()。

A:藍色正方形B:綠色圓形C:紅色三角形D:不能確定

答案:藍色正方形

在K近鄰算法中,K的選擇是()?

A:越小越好B:越大越好C:與樣本有關D:其它都不正確

答案:與樣本有關

第三章測試

下列()中兩個變量之間的關系是線性的。

A:女兒的身高和父親的體重B:重力和質量C:貓的皮毛顏色和體重D:人的工作環(huán)境和健康狀況

答案:重力和質量

下列說法不正確的是()。

A:回歸就是數據擬合B:回歸用于預測輸入變量和輸出變量之間的關系C:回歸分析就是研究兩個事物的相關性D:線性回歸模型也可以解決線性不可分的情況

答案:回歸就是數據擬合

從某大學隨機選擇8名女大學生,其身高x(cm)和體重y(kg)的回歸方程是y=0.849x-85.712,則身高172cm的女大學生,預測體重為()。

A:其它都不正確B:60.316kgC:小于60.316kgD:大于60.316kg

答案:60.316kg

lasso中采用的是L2正則化。()

A:對B:錯

答案:錯

線性回歸中加入正則化可以降低過擬合。()

A:對B:錯

答案:對

第四章測試

以下說法正確的是()。

A:logistic回歸是回歸模型B:logistic回歸只能處理線性可分問題C:logistic回歸和線性回歸是相同的D:logistic回歸的樣本屬性是連續(xù)型數據

答案:logistic回歸的樣本屬性是連續(xù)型數據

logistic回歸只能用于二分類問題。()

A:錯B:對

答案:錯

logistic回歸中也可以用正則化方法來防止過擬合。()

A:對B:錯

答案:對

考慮一個有兩個屬性的logistic回歸問題。假設,則分類決策平面是()。

A:B:C:D:

答案:

假設訓練了一個logistic回歸分類器,對于一個樣本我們有,則該式說明()。

A:B:C:D:

答案:;

第五章測試

以下關于梯度下降算法說法正確的是()。

A:梯度下降算法是計算目標函數的最大值B:學習率的選取會影響梯度下降算法的求解速度C:計算預測值和真實值之間的誤差D:如果目標函數梯度不存在就無法用梯度下降算法

答案:學習率的選取會影響梯度下降算法的求解速度

隨機梯度下降導致方向變化過大,不能很快收斂到最優(yōu)解。()

A:對B:錯

答案:對

小批量梯度下降是結合了批量梯度下降和隨機梯度下降,性能比批量梯度下降和隨機梯度下降都好。()

A:錯B:對

答案:對

批量梯度下降是最原始的形式,它是指在每一次迭代時使用一部分樣本的梯度來更新參數。()

A:錯B:對

答案:錯

隨機梯度下降中每次迭代使用一個樣本的梯度。()

A:錯B:對

答案:對

第六章測試

決策樹模型中建樹的基本原則是()。

A:應利用盡可能多的屬性B:取值少的屬性應放在上層C:信息增益大的屬性應放在上層D:取值多的屬性應放在上層

答案:信息增益大的屬性應放在上層

哪些情況下必須停止樹的增長()

A:當前數據子集的標簽一致B:當前數據子集為空C:當前訓練誤差已經較低D:沒有更多可用屬性

答案:當前數據子集的標簽一致;當前數據子集為空;當前訓練誤差已經較低;沒有更多可用屬性

關于決策樹剪枝操作正確的描述是()。

A:可以防止過擬合B:用測試集來進行剪枝C:后剪枝優(yōu)于預剪枝D:可以有效降低訓練誤差

答案:可以防止過擬合

決策樹模型中如何處理連續(xù)型屬性()。

A:根據信息增益選擇閾值進行離散化B:隨機選擇數據標簽發(fā)生變化的位置進行離散化C:直接忽略D:利用固定閾值進行離散化

答案:根據信息增益選擇閾值進行離散化

下面哪個可能是決策樹的決策邊界()。

A:B:C:D:

答案:

第七章測試

下面對集成學習模型中的弱學習器描述錯誤的是?()

A:弱學習器通常帶有高偏差,所以其并不能解決復雜學習問題B:弱學習器通常會過擬合C:弱學習器經常不會過擬合D:弱學習器可以通過集成變成強學習器

答案:弱學習器通常會過擬合

給定數據集及弱分類器如上圖,回答問題:初始樣本的權重為()。

A:0.1B:0.5C:1D:其它都不對

答案:0.1

給定數據集及弱分類器如上圖,回答問題:第一次迭代選擇的分類器是(

)。

A:B:C:任何一個都可以D:

答案:;

給定數據集及弱分類器如上圖,回答問題:

經過一次迭代,第一個弱學習器的權重為()。

A:0.4236B:0.6496C:0.3D:其它都不對

答案:0.4236

給定數據集及弱分類器如上圖,回答問題:經過一次迭代,錯誤分類的樣本權重更新為()。

A:B:C:其它都不對D:

答案:

第八章測試

下列選項中,對于硬間隔支持向量機,超平面應該是()。

A:B:C:D:

答案:

下列選項中,對于軟間隔支持向量機,超平面應該是()。

A:B:C:D:

答案:

現有一個能被正確分類且遠離超平面的樣本,如果將其刪除,不會影響超平面的選擇。()

A:對B:錯

答案:對

上圖中,長方形框中的樣本松弛變量的值為()。

A:等于1B:大于1C:大于0,小于1D:等于0

答案:大于1

上圖中哪個超平面泛化能力更強()。

A:AB:BC:A、B一樣D:其它都不對

答案:A

第九章測試

訓練樣本如下,其中和

是特征,取值的集合為A1={1,2,3}和

A2={S,M,L},C是類標記,取值為{-1,1},回答如下問題:采用樸素貝葉斯算法,樣本屬于

1的概率為:()

A:1.48%B:10%C:6.67%D:無法確定

答案:1.48%

訓練樣本如上,其中和是特征,取值的集合為A1={1,2,3}和

A2={S,M,L},C是類標記,取值為{-1,1},回答如下問題:采用樸素貝葉斯算法,確定的分類為:()

A:-1B:1或者-1都可以C:1D:無法確定

答案:-1

訓練樣本如上,其中和是特征,取值的集合為A1={1,2,3}和

A2={S,M,L},C是類標記,取值為{-1,1},回答如下問題:采用樸素貝葉斯算法,樣本屬于

-1的概率為:()

A:無法確定B:6.67%C:10%D:1.48%

答案:10%

樸素貝葉斯的基本假設是屬性之間是相互獨立的。()

A:對B:錯

答案:對

樸素貝葉斯是概率模型。()

A:對B:錯

答案:對

第十章測試

以下對經典K-means聚類算法解釋正確的是()

A:能自動識別類的個數,隨機挑選初始點為中心點計算B:不能自動識別類的個數,隨機挑選初始點為中心點計算C:能自動識別類的個數,不能隨機挑選初始點為中心點計算D:不能自動識別類的個數,不能隨機挑選初始點為中心點計算

答案:不能自動識別類的個數,隨機挑選初始點為中心點計算

以下是一組用戶的年齡數據,將K值定義為2對用戶進行聚類。并隨機選擇16和22作為兩個類別的初始質心,回答以下問題:

[15,15,16,19,19,20,20,21,22,28,35,40,41,42,43,44,60,61,65]

第一次迭代中,樣本“15”到質心16的距離是()

A:1B:3C:6D:0

答案:1

以下是一組用戶的年齡數據,將K值定義為2對用戶進行聚類。并隨機選擇16和22作為兩個類別的初始質心,回答以下問題:

[15,15,16,19,19,20,20,21,22,28,35,40,41,42,43,44,60,61,65]

第一次迭代結束后,樣本20的分類為()

A:都不屬于B:不能計算C:原質心16的類D:原質心22的類

答案:原質心22的類

以下是一組用戶的年齡數據,將K值定義為2對用戶進行聚類。并隨機選擇16和22作為兩個類別的初始質心,回答以下問題:

[15,15,16,19,19,20,20,21,22,28,35,40,41,42,43,44,60,61,65]

第一次迭代結束后,原質心16的類包含()個樣本。

A:3B:2C:5D:1

答案:3

以下是一組用戶的年齡數據,將K值定義為2對用戶進行聚類。并隨機選擇16和22作為兩個類別的初始質心,回答以下問題:

[15,15,16,19,19,20,20,21,22,28,35,40,41,42,43,44,60,61,65]

第一次迭代結束后,原質心16更新后的質心是()。

A:15.33B:36.25C:15D:17.2

答案:15.33

第十一章測試

如果某個項集是頻繁的,那么它的所有子集也是頻繁的。()

A:對B:錯

答案:對

如果某個項集是頻繁的,那么它的所有超集也是頻繁的。()

A:錯B:對

答案:錯

根據上面交易記錄,回答問題:2級頻繁項集有()。

A:橙汁,豆奶B:尿布,橙汁C:豆奶,葡萄酒D:尿布,豆奶

答案:尿布,豆奶

根據上面交易記錄,回答問題:規(guī)則“豆奶->萵苣”的可信度是()。

A:3/4B:1C:3/5D:4/4

答案:3/4

根據上面交易記錄,回答問題:“豆奶”的支持度是()。

A:3/5B:1C:4/5D:2/5

答案:4/5

第十二章測試

下列關于主成分分析法(PCA)說法錯誤的是?()

A:要選出方差最大的作為主成分B:主成分分析法可用于低維數據的可視化處理C:要選出方差最小的作為主成分D:進行主成分分析之前要對數據進行中心化

答案:要選出方差最小的作為主成分

主成分分析是一個線性變化,就是把數據變換到一個新的坐標系統中。()

A:錯B:對

答案:對

假設將原矩陣降維到一維,采用的特征向量為,則映射后的結果為()。

A:B:其它結果都不對C:D:

答案:

假設有五條樣本,屬性是二維,樣本數據為:請回答以下問題:協方差矩陣為()。

A:B:C:其它結果都不對

D:

答案:

假設有五條樣本,屬性是二維,樣本數據為:請回答以下問題:進行中心化后的結果為()。

A:B:C:D:其它結果都不對

答案:

第十三章測試

以下說法中錯誤的是()。

A:ATA的特征值的平方根即為A的奇異值B:負定矩陣的特征值即為奇異值C:正定矩陣的特征值即為奇異值D:AAT

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論