機器學(xué)習(xí)知到智慧樹章節(jié)測試課后答案2024年秋同濟大學(xué)_第1頁
機器學(xué)習(xí)知到智慧樹章節(jié)測試課后答案2024年秋同濟大學(xué)_第2頁
機器學(xué)習(xí)知到智慧樹章節(jié)測試課后答案2024年秋同濟大學(xué)_第3頁
機器學(xué)習(xí)知到智慧樹章節(jié)測試課后答案2024年秋同濟大學(xué)_第4頁
機器學(xué)習(xí)知到智慧樹章節(jié)測試課后答案2024年秋同濟大學(xué)_第5頁
已閱讀5頁,還剩16頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

機器學(xué)習(xí)知到智慧樹章節(jié)測試課后答案2024年秋同濟大學(xué)第一章單元測試

回歸和分類都是有監(jiān)督學(xué)習(xí)問題。()

A:對B:錯

答案:對輸出變量為有限個離散變量的預(yù)測問題是回歸問題;輸出變量為連續(xù)變量的預(yù)測問題是分類問題。()

A:對B:錯

答案:錯關(guān)于“回歸(Regression)”和“相關(guān)(Correlation)”,下列說法正確的是?注意:x是自變量,y是因變量。()

A:回歸和相關(guān)在x和y之間都是互為對稱的

B:回歸和相關(guān)在x和y之間都是非對稱的

C:回歸在x和y之間是非對稱的,相關(guān)在x和y之間是互為對稱的

D:回歸在x和y之間是對稱的,相關(guān)在x和y之間是非對稱的

答案:回歸在x和y之間是非對稱的,相關(guān)在x和y之間是互為對稱的

如果一個經(jīng)過訓(xùn)練的機器學(xué)習(xí)模型在測試集上達到100%的準(zhǔn)確率,這就意味著該模型將在另外一個新的測試集上也能得到100%的準(zhǔn)確率。()

A:錯B:對

答案:錯機器學(xué)習(xí)學(xué)得的模型適用于新樣本的能力,稱為"泛化"能力,這是針對分類和回歸等監(jiān)督學(xué)習(xí)任務(wù)而言的,與聚類這樣的無監(jiān)督學(xué)習(xí)任務(wù)無關(guān)。()

A:錯B:對

答案:錯機器學(xué)習(xí)時,我們通常假設(shè)樣本空間中的全體樣本都服從某個未知"分布",并且我們獲得的每個樣本都是獨立地從這個分布上采樣獲得的。()

A:對B:錯

答案:對從歸納偏好一般性原則的角度看,"奧卡姆剃刀"(Occam'srazor)準(zhǔn)則與“大道至簡”說的是相同的道理。()

A:錯B:對

答案:對以下方法或系統(tǒng)屬于"符號主義"(symbolism)學(xué)習(xí)技術(shù)的是()

A:"概念學(xué)習(xí)系統(tǒng)"

B:"基于邏輯的歸納學(xué)習(xí)系統(tǒng)“

C:支持向量機

D:"結(jié)構(gòu)學(xué)習(xí)系統(tǒng)"

答案:"概念學(xué)習(xí)系統(tǒng)"

;"基于邏輯的歸納學(xué)習(xí)系統(tǒng)“

;"結(jié)構(gòu)學(xué)習(xí)系統(tǒng)"

以下方法或技術(shù)屬于統(tǒng)計學(xué)習(xí)范疇的是()

A:Hopfield神經(jīng)網(wǎng)絡(luò)

B:支持向量機

C:感知機

D:核方法

答案:支持向量機

;核方法

歸納學(xué)習(xí)相當(dāng)于"從樣例中學(xué)習(xí)",即從訓(xùn)練樣例中歸納出學(xué)習(xí)結(jié)果。()

A:對B:錯

答案:對

第二章單元測試

回歸問題和分類問題都有可能發(fā)生過擬合。()

A:錯B:對

答案:對對于k折交叉驗證,以下對k的說法正確的是()

A:k越大,不一定越好,選擇大的k會加大評估時間

B:在選擇k時,要最小化數(shù)據(jù)集之間的方差

C:選擇更大的k,就會有更小的bias(因為訓(xùn)練集更加接近總數(shù)據(jù)集)

D:k越大越好

答案:k越大,不一定越好,選擇大的k會加大評估時間

;在選擇k時,要最小化數(shù)據(jù)集之間的方差

;選擇更大的k,就會有更小的bias(因為訓(xùn)練集更加接近總數(shù)據(jù)集)

小明參加Kaggle某項大數(shù)據(jù)競賽,他的成績在大賽排行榜上原本居于前20,后來他保持特征不變,對原來的模型做了1天的調(diào)參,將自己的模型在自己本地測試集上的準(zhǔn)確率提升了3%,然后他信心滿滿地將新模型的預(yù)測結(jié)果更新到了大賽官網(wǎng)上,結(jié)果懊惱地發(fā)現(xiàn)自己的新模型在大賽官方的測試集上準(zhǔn)確率反而下降了。對此,他的朋友們展開了討論,下列說法正確的是()

A:小明應(yīng)該乖乖使用默認的參數(shù)就行了,調(diào)參是不可能有收益的

B:小明可以考慮一下,使用交叉驗證來驗證一下是否發(fā)生了過擬合

C:從機器學(xué)習(xí)理論的角度,這樣的情況不應(yīng)該發(fā)生,應(yīng)該去找大賽組委會反應(yīng)

D:小明這個有可能是由于過擬合導(dǎo)致的

答案:小明可以考慮一下,使用交叉驗證來驗證一下是否發(fā)生了過擬合

;小明這個有可能是由于過擬合導(dǎo)致的

下列哪種方法可以用來減小過擬合?()

A:更多的訓(xùn)練數(shù)據(jù)

B:減小模型的復(fù)雜度

C:L2正則化

D:L1正則化

答案:更多的訓(xùn)練數(shù)據(jù)

;減小模型的復(fù)雜度

;L2正則化

;L1正則化

下列關(guān)于bootstrap說法正確的是?()

A:從總的N個樣本中,無放回地抽取n個樣本(n<N)

B:從總的N個樣本中,有放回地抽取n個樣本(n<N)

C:從總的M個特征中,無放回地抽取m個特征(m<M)

D:從總的M個特征中,有放回地抽取m個特征(m<M)

答案:從總的N個樣本中,有放回地抽取n個樣本(n<N)

評估完模型之后,發(fā)現(xiàn)模型存在高偏差(highbias),應(yīng)該如何解決?()

A:增加模型的特征數(shù)量

B:增加樣本數(shù)量

C:減少模型的特征數(shù)量

答案:增加模型的特征數(shù)量

第三章單元測試

如果我們說“線性回歸”模型完美地擬合了訓(xùn)練樣本(訓(xùn)練樣本誤差為零),則下面哪個說法是正確的?()

A:測試樣本誤差始終為零

B:測試樣本誤差不可能為零

C:選項中的答案都不對

答案:選項中的答案都不對

下列關(guān)于線性回歸分析中的殘差(Residuals)說法正確的是?()

A:選項中的說法都不對

B:殘差均值總是大于零

C:殘差均值總是小于零

D:殘差均值總是為零

答案:殘差均值總是為零

下列哪些假設(shè)是我們推導(dǎo)線性回歸參數(shù)時遵循的?()

A:誤差一般服從0均值和固定標(biāo)準(zhǔn)差的正態(tài)分布

B:X是非隨機且測量沒有誤差的

C:X與Y有線性關(guān)系(多項式關(guān)系)

D:模型誤差在統(tǒng)計學(xué)上是獨立的

答案:誤差一般服從0均值和固定標(biāo)準(zhǔn)差的正態(tài)分布

;X是非隨機且測量沒有誤差的

;X與Y有線性關(guān)系(多項式關(guān)系)

;模型誤差在統(tǒng)計學(xué)上是獨立的

一般來說,下列哪種方法常用來預(yù)測連續(xù)獨立變量?()

A:線性回歸和邏輯回歸都行

B:線性回歸

C:邏輯回歸

答案:線性回歸

上圖中哪一種偏移,是我們在最小二乘直線擬合的情況下使用的?圖中橫坐標(biāo)是輸入X,縱坐標(biāo)是輸出Y。()

A:垂向偏移(perpendicularoffsets)

B:兩種偏移都可以

C:垂直偏移(verticaloffsets)

答案:垂直偏移(verticaloffsets)

加入使用邏輯回歸對樣本進行分類,得到訓(xùn)練樣本的準(zhǔn)確率和測試樣本的準(zhǔn)確率?,F(xiàn)在,在數(shù)據(jù)中增加一個新的特征,其它特征保持不變。然后重新訓(xùn)練測試。則下列說法正確的是?()

A:測試樣本準(zhǔn)確率一定會降低

B:測試樣本準(zhǔn)確率一定增加或保持不變

C:訓(xùn)練樣本準(zhǔn)確率一定會降低

D:訓(xùn)練樣本準(zhǔn)確率一定增加或保持不變

答案:訓(xùn)練樣本準(zhǔn)確率一定增加或保持不變

點擊率預(yù)測是一個正負樣本不平衡問題(例如99%的沒有點擊,只有1%點擊)。假如在這個非平衡的數(shù)據(jù)集上建立一個模型,得到訓(xùn)練樣本的正確率是99%,則下列說法正確的是?()

A:無法對模型做出好壞評價

B:模型正確率很高,不需要優(yōu)化模型了

C:模型正確率并不高,應(yīng)該建立更好的模型

答案:模型正確率并不高,應(yīng)該建立更好的模型

第四章單元測試

在決策樹分割結(jié)點的時候,下列關(guān)于信息增益說法正確的是()

A:如果選擇一個屬性具有許多特征值,那么這個信息增益是有偏差的

B:純度高的結(jié)點需要更多的信息來描述它

C:信息增益可以用”1比特-熵”獲得

答案:如果選擇一個屬性具有許多特征值,那么這個信息增益是有偏差的

;信息增益可以用”1比特-熵”獲得

如果自變量X和因變量Y之間存在高度的非線性和復(fù)雜關(guān)系,那么樹模型很可能優(yōu)于經(jīng)典回歸方法。()

A:對B:錯

答案:對在決策樹學(xué)習(xí)過程中,用屬性α對樣本集D進行劃分所獲得的"信息增益"越大,則意味著使用屬性α來進行劃分所獲得的"純度提升"越大。()

A:對B:錯

答案:對對于劃分屬性選擇,以下說法正確的是()

A:增益率準(zhǔn)則對可取值數(shù)目較少的屬性有所偏好

B:C4.5算法并不是直接選擇增益率最大的候選劃分屬性,而是先從候選劃分屬性中找出信息增益高于平均水平的屬性,再從中選擇增益率最高的。

C:選項中說法都不對

D:信息增益準(zhǔn)則對可取值數(shù)目較多的屬性有所偏好

答案:增益率準(zhǔn)則對可取值數(shù)目較少的屬性有所偏好

;C4.5算法并不是直接選擇增益率最大的候選劃分屬性,而是先從候選劃分屬性中找出信息增益高于平均水平的屬性,再從中選擇增益率最高的。

;信息增益準(zhǔn)則對可取值數(shù)目較多的屬性有所偏好

數(shù)據(jù)集D的純度可用它的基尼值來度量,基尼值越小,則數(shù)據(jù)集D的純度越高。()

A:錯B:對

答案:對

第五章單元測試

假定你在神經(jīng)網(wǎng)絡(luò)中的隱藏層中使用激活函數(shù)X。在特定神經(jīng)元給定任意輸入,你會得到輸出-0.01。X可能是以下哪一個激活函數(shù)?()

A:tanh

B:ReLU

C:選項中都有可能

D:Sigmoid

答案:tanh

在回歸模型中,下列哪一項在權(quán)衡欠擬合(under-fitting)和過擬合(over-fitting)中影響最大?()

A:更新權(quán)重w時,使用的是矩陣求逆還是梯度下降

B:多項式階數(shù)

C:使用常數(shù)項

答案:多項式階數(shù)

深度神經(jīng)網(wǎng)絡(luò)中常用Relu函數(shù)作為激活函數(shù),其好處是:()

A:求梯度簡單

B:選項中沒有正確答案

C:具有稀疏特性

D:收斂快

答案:求梯度簡單

;具有稀疏特性

;收斂快

梯度爆炸問題是指在訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)的時候,梯度變得過大而損失函數(shù)變?yōu)闊o窮。在RNN中,下面哪種方法可以較好地處理梯度爆炸問題?()

A:用改良的網(wǎng)絡(luò)結(jié)構(gòu)比如LSTM和GRUs

B:Dropout

C:選項中的方法都不行

D:梯度裁剪

答案:梯度裁剪

Dropout技術(shù)在下列哪種神經(jīng)層中將無法發(fā)揮顯著優(yōu)勢?()

A:卷積層

B:仿射層(全連接層)

C:RNN層

答案:RNN層

第六章單元測試

如果SVM模型欠擬合,以下方法哪些可以改進模型()

A:減小核函數(shù)的參數(shù)

B:增大懲罰參數(shù)C的值

C:減小懲罰參數(shù)C的值

答案:增大懲罰參數(shù)C的值

在訓(xùn)練完SVM之后,我們可以只保留支持向量,而舍去所有非支持向量,仍然不會影響模型分類能力。()

A:錯B:對

答案:對關(guān)于SVM與感知機,以下說法正確的是:()

A:損失函數(shù)方面,感知機采用的是誤分類,易造成過擬合,而SVM采用間隔最大化(合頁損失函數(shù)),一定程度上可避免過擬合

B:感知機只用于線性分類,SVM可用于線性和非線性分類

C:都是用于分類的監(jiān)督學(xué)習(xí)算法

D:優(yōu)化方法方面,感知機采用梯度下降法,而SVM采用不等式約束結(jié)合拉格朗日乘子

答案:損失函數(shù)方面,感知機采用的是誤分類,易造成過擬合,而SVM采用間隔最大化(合頁損失函數(shù)),一定程度上可避免過擬合

;感知機只用于線性分類,SVM可用于線性和非線性分類

;都是用于分類的監(jiān)督學(xué)習(xí)算法

;優(yōu)化方法方面,感知機采用梯度下降法,而SVM采用不等式約束結(jié)合拉格朗日乘子

支持向量機SVM是結(jié)構(gòu)風(fēng)險最小化模型,而邏輯回歸LR是經(jīng)驗風(fēng)險最小化模型。()

A:對B:錯

答案:對邏輯回歸LR是參數(shù)模型,支持向量機SVM是非參數(shù)模型。()

A:對B:錯

答案:對關(guān)于SVM如何選用核函數(shù),下列說法正確的是:()

A:高斯核和tanh核都屬于非線性核,而且高斯核還可以把原始維度映射到無窮多維

B:非線性核主要用于線性不可分以及特征數(shù)較少樣本量一般的情況

C:選項中說法都不對

D:線性核主要用于線性可分以及樣本數(shù)與特征數(shù)差不多的情況

答案:高斯核和tanh核都屬于非線性核,而且高斯核還可以把原始維度映射到無窮多維

;非線性核主要用于線性不可分以及特征數(shù)較少樣本量一般的情況

;線性核主要用于線性可分以及樣本數(shù)與特征數(shù)差不多的情況

第七章單元測試

下列關(guān)于極大似然估計(MaximumLikelihoodEstimate,MLE),說法正確的是()

A:MLE可能并不存在

B:如果MLE存在,那么它的解一定是唯一的

C:MLE總是存在

D:如果MLE存在,那么它的解可能不是唯一的

答案:MLE可能并不存在

;如果MLE存在,那么它的解可能不是唯一的

樸素貝葉斯屬于生成式模型,而SVM和決策樹屬于判別式模型。()

A:對B:錯

答案:對樸素貝葉斯分類器有屬性條件獨立的假設(shè)前提。()

A:錯B:對

答案:對

上面三個貝葉斯模型中,屬性之間存在依賴關(guān)系的是:()

A:(b)

B:都不存在

C:(c)

D:(a)

答案:(b)

;(c)

關(guān)于貝葉斯網(wǎng)絡(luò),以下說法正確的是:()

A:貝葉斯網(wǎng)絡(luò)又稱信念網(wǎng)絡(luò)

B:貝葉斯網(wǎng)絡(luò)是有向無環(huán)圖模型

C:貝葉斯網(wǎng)絡(luò)是無向有環(huán)圖模型

D:貝葉斯網(wǎng)絡(luò)是一種概率圖模型

答案:貝葉斯網(wǎng)絡(luò)又稱信念網(wǎng)絡(luò)

;貝葉斯網(wǎng)絡(luò)是有向無環(huán)圖模型

;貝葉斯網(wǎng)絡(luò)是一種概率圖模型

第八章單元測試

下面關(guān)于RandomForest和GradientBoostingTrees說法正確的是?()

A:兩者都使用隨機特征子集來創(chuàng)建中間樹

B:無論任何數(shù)據(jù),GradientBoostingTrees總是優(yōu)于RandomForest

C:在GradientBoostingTrees中可以生成并行樹,因為它們是相互獨立的

D:RandomForest的中間樹不是相互獨立的,而GradientBoostingTrees的中間樹是相互獨立的

答案:兩者都使用隨機特征子集來創(chuàng)建中間樹

數(shù)據(jù)科學(xué)家經(jīng)常使用多個算法進行預(yù)測,并將多個機器學(xué)習(xí)算法的輸出(稱為“集成學(xué)習(xí)”)結(jié)合起來,以獲得比所有個體模型都更好的更健壯的輸出。則下列說法正確的是?()

A:基本模型之間相關(guān)性低

B:基本模型都來自于同一算法

C:基本模型之間相關(guān)性高

D:集成方法中,使用加權(quán)平均代替投票方法

答案:基本模型之間相關(guān)性低

以下方法屬于集成學(xué)習(xí)方法的是()

A:boosting

B:stacking

C:bagging

D:bootstrapping

答案:boosting

;stacking

;bagging

如果用“三個臭皮匠頂個諸葛亮”來比喻集成學(xué)習(xí)的話,那么對三個臭皮匠的要求可能是:()

A:三個臭皮匠的優(yōu)點各不相同

B:選項中說法都不對

C:三個臭皮匠不能太差,每個人考試都能及格

D:三個臭皮匠的缺點各不相同

答案:三個臭皮匠的優(yōu)點各不相同

;三個臭皮匠不能太差,每個人考試都能及格

集成學(xué)習(xí)中個體學(xué)習(xí)器的多樣性不宜高,否則容易顧此失彼,降低系統(tǒng)的總體性能。()

A:錯B:對

答案:錯

第九章單元測試

向量x=[1,2,3,4,-9,0]的L1范數(shù)是()

A:19

B:4

C:20

D:5

答案:19

如何在監(jiān)督式學(xué)習(xí)中使用聚類算法?()

A:在應(yīng)用監(jiān)督式學(xué)習(xí)算法之前,不能將其類別ID作為特征空間中的一個額外的特征

B:在應(yīng)用監(jiān)督式學(xué)習(xí)之前,不能創(chuàng)建聚類

C:在應(yīng)用監(jiān)督式學(xué)習(xí)算法之前,可以將其類別ID作為特征空間中的一個額外的特征

D:首先,可以創(chuàng)建聚類,然后分別在不同的集群上應(yīng)用監(jiān)督式學(xué)習(xí)算法

答案:在應(yīng)用監(jiān)督式學(xué)習(xí)算法之前,可以將其類別ID作為特征空間中的一個額外的特征

;首先,可以創(chuàng)建聚類,然后分別在不同的集群上應(yīng)用監(jiān)督式學(xué)習(xí)算法

下列聚類方法屬于原型聚類的是()

A:學(xué)習(xí)向量量化LVQ

B:高斯混合聚類

C:DBSCAN

D:K-Means算法

答案:學(xué)習(xí)向量量化LVQ

;高斯混合聚類

;K-Means算法

K-Means聚類的主要缺點有:()

A:原理復(fù)雜,不容易實現(xiàn)

B:對于非凸數(shù)據(jù)集或類別規(guī)模差異太大的數(shù)據(jù)效果不好

C:對噪音和異常點敏感

D:K值很難確定

E:聚類效果依賴于聚類中心的初始化

答案:對于非凸數(shù)據(jù)集或類別規(guī)模差異太大的數(shù)據(jù)效果不好

;對噪音和異常點敏感

;K值很難確定

;聚類效果依賴于聚類中心的初始化

k均值算法和"學(xué)習(xí)向量量化"都是原型聚類方法,也都屬于無監(jiān)督學(xué)習(xí)方法。()

A:對B:錯

答案:錯

第十章單元測試

使用k=1的kNN算法,下圖二分類問題,“+”和“o”分別代表兩個類,那么,用僅拿出一個測試樣本的交叉驗證方法,交叉驗證的錯誤率是()

A:0%到100%

B:100%

C:0%

答案:100%

下列說法錯誤的是?()

A:進行PCA降維時,需要計算協(xié)方差矩陣

B:當(dāng)目標(biāo)函數(shù)是凸函數(shù)時,梯度下降算法的解一般就是全局最優(yōu)解

C:利用拉格朗日函數(shù)能解帶約束的優(yōu)化問題

D:沿負梯度的方向一定是最優(yōu)的方向

答案:沿負梯度的方向一定是最優(yōu)的方向

以下哪些方法不可以直接來對文本分類?()

A:支持向量機

B:決策樹

C:K-Means

D:kNN

答案:K-Means

下列哪些算法可以用來夠造神經(jīng)網(wǎng)絡(luò)?()

A:邏輯回歸

B:線性回歸

C:選項中都不行

D:kNN

答案:邏輯回歸

;線性回歸

我們想要訓(xùn)練一個ML模型,樣本數(shù)量有100萬個,特征維度是5000,面對如此大數(shù)據(jù),如何有效地訓(xùn)練模型?()

A:嘗試使用在線機器學(xué)習(xí)算法

B:對訓(xùn)練集隨機采樣,在隨機采樣的數(shù)據(jù)上建立模型

C:使用PCA算法減少特征維度

D:選項中都不對

答案:嘗試使用在線機器學(xué)習(xí)算法

;對訓(xùn)練集隨機采樣,在隨機采樣的數(shù)據(jù)上建立模型

;使用PCA算法減少特征維度

上圖中,主成分的最佳數(shù)目是多少?()

A:10

B:無法確定

C:30

D:20

答案:30

第十一章單元測試

關(guān)于L1正則和L2正則下面的說法正確的是()

A:L2范數(shù)可以防止過擬合,提升模型的泛化能力。但L1正則做不到這一點

B:L1范數(shù)會使權(quán)值稀疏

C:L2正則化有個名稱叫“Lassoregularization”

D:L2正則化表示各個參數(shù)的平方和的開方值

答案:L1范數(shù)

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論