機器學習(山東聯(lián)盟)知到智慧樹章節(jié)測試課后答案2024年秋山東財經(jīng)大學_第1頁
機器學習(山東聯(lián)盟)知到智慧樹章節(jié)測試課后答案2024年秋山東財經(jīng)大學_第2頁
機器學習(山東聯(lián)盟)知到智慧樹章節(jié)測試課后答案2024年秋山東財經(jīng)大學_第3頁
機器學習(山東聯(lián)盟)知到智慧樹章節(jié)測試課后答案2024年秋山東財經(jīng)大學_第4頁
機器學習(山東聯(lián)盟)知到智慧樹章節(jié)測試課后答案2024年秋山東財經(jīng)大學_第5頁
已閱讀5頁,還剩12頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

機器學習(山東聯(lián)盟)知到智慧樹章節(jié)測試課后答案2024年秋山東財經(jīng)大學第一章單元測試

對西瓜的成熟度進行預測得到結果為0.51,這屬于()學習任務。

A:分類B:其余選項都不是C:回歸D:聚類

答案:回歸在學習過程中,X表示數(shù)據(jù)集,Y是所有標記的集合,也稱為()。

A:輸出空間B:樣本集合C:屬性集合D:函數(shù)

答案:輸出空間機器學習算法在學習過程中可能獲得多個不同的模型,在解決“什么樣的模型更好”這一問題時遵循“若有多個假設與觀察一致,則選最簡單的那個”,即()原則。

A:里氏替換B:奧卡姆剃刀C:迪米特法則D:沒有免費的午餐

答案:奧卡姆剃刀機器學習是整個人工智能的核心,機器學習算法的特征之一就是()。

A:模型B:數(shù)據(jù)C:類別D:特征

答案:模型模型的泛化能力是指

A:適用于測試集樣本的能力B:適用于驗證集樣本的能力C:適用于訓練集樣本的能力D:適用于新樣本的能力

答案:適用于新樣本的能力下列關于學習算法的說法正確的是

A:學習算法自身的歸納偏好與問題是否相配通常并不起決定性的作用B:學習算法必須有某種偏好,才能產(chǎn)出它認為“正確”的模型C:在某些問題上表現(xiàn)好的學習算法,在另一些問題上卻可能不盡人意D:要談論算法的相對優(yōu)劣,必須要針對具體的學習問題

答案:學習算法必須有某種偏好,才能產(chǎn)出它認為“正確”的模型;在某些問題上表現(xiàn)好的學習算法,在另一些問題上卻可能不盡人意;要談論算法的相對優(yōu)劣,必須要針對具體的學習問題獲得假設(模型)空間時,從特殊到一般的過程屬于

A:泛化B:特化C:演繹D:歸納

答案:泛化;歸納機器學習可以應用在下列哪些領域()

A:天氣預報B:搜索引擎C:商業(yè)營銷D:自動駕駛汽車

答案:天氣預報;搜索引擎;商業(yè)營銷;自動駕駛汽車根據(jù)訓練數(shù)據(jù)是否擁有標記信息,學習任務可以分為()。

A:分類B:半監(jiān)督C:聚類D:回歸E:無監(jiān)督F:監(jiān)督

答案:半監(jiān)督;無監(jiān)督;監(jiān)督演繹是從一般到特殊的"特化"過程,即從基礎原理推演出具體狀況

A:錯B:對

答案:對分類預測的是離散值

A:錯B:對

答案:對分類和回歸是無監(jiān)督學習

A:錯B:對

答案:錯奧卡姆剃刀原則:即“若有多個假設與觀察一致,選最簡單的一個”。

A:錯B:對

答案:對實際應用中,“一個模型肯定比另一個模型具有更強的泛化能力”的這種情況是不存在的。

A:錯B:對

答案:對機器學習的目標就是獲得與訓練集一致的假設。

A:錯B:對

答案:對

第二章單元測試

測試性能隨著測試集的變化而變化

A:錯B:對

答案:對以下關于回歸的說法中,不正確的是()。

A:回歸的目標屬性是離散的B:回歸是一種預測建模任務C:回歸也是一種分類D:回歸是根據(jù)歷史數(shù)據(jù)擬合以函數(shù)將屬性集映射到相應的值集

答案:回歸的目標屬性是離散的下列關于查全率和查準率的說法哪種正確()。

A:查全率和查準率成正比B:查全率和查準率存在著互逆關系C:好的模型可以做到查全率和查準率都達到100%D:查全率和查準率成反比

答案:查全率和查準率存在著互逆關系關于性能比較和模型選擇,下列說法正確的是()。

A:相同的參數(shù)的機器學習算法在同一測試集下多次運行結果相同B:模型的選擇可以使用直接選取相應評估方法在相應度量下比較大小的方法C:測試性能隨著測試集的變化而變化D:測試性能等于網(wǎng)絡的泛化性能

答案:測試性能隨著測試集的變化而變化模型的評估方法不包括()。

A:留出法B:計分法C:交叉驗證法D:自助法

答案:計分法模型評估方法中留出法的缺點是()。

A:改變了初始數(shù)據(jù)集的分布,引入估計偏差B:只能得到一個評估值。C:樣本利用率低D:在數(shù)據(jù)集比較大的時候,訓練M個模型的計算開銷可能是難以忍受的

答案:只能得到一個評估值。選擇模型的依據(jù)包括()。

A:可解釋性B:存儲開銷C:時間開銷D:泛化性能

答案:可解釋性;存儲開銷;時間開銷;泛化性能以下哪些方法可以用于單個學習器性能的比較()。

A:Friedman檢驗B:McNemar檢驗C:t-檢驗D:二項檢驗

答案:t-檢驗;二項檢驗模型的泛化性能由()決定。

A:數(shù)據(jù)的充分性B:學習算法的能力C:數(shù)據(jù)集的劃分D:學習任務本身的難度

答案:數(shù)據(jù)的充分性;學習算法的能力;學習任務本身的難度解決過擬合的方案包括()。

A:引入正則項B:為模型添加其他特征項C:增加模型參數(shù),調高模型復雜度D:選擇合適的迭代次數(shù)停止模型的學習

答案:引入正則項;選擇合適的迭代次數(shù)停止模型的學習以下哪些是可能導致模型過擬合的原因()

A:訓練集和測試集特征分布不一致B:學習迭代次數(shù)過多C:模型學習到了樣本的一般性質D:訓練集數(shù)量級和模型復雜度不匹配,訓練集的數(shù)量級小于模型的復雜度

答案:訓練集和測試集特征分布不一致;學習迭代次數(shù)過多;訓練集數(shù)量級和模型復雜度不匹配,訓練集的數(shù)量級小于模型的復雜度過擬合不可以徹底避免。

A:對B:錯

答案:對回歸任務最常用的性能度量是“查準率和查全率”

A:對B:錯

答案:錯訓練數(shù)據(jù)較少時更容易發(fā)生欠擬合

A:錯B:對

答案:對方差度量了學習算法期望預測與真實結果的偏離程度

A:對B:錯

答案:錯

第三章單元測試

線性回歸目的是學得一個()以盡可能準確地預測實值輸出標記

A:多項式模型B:對數(shù)模型C:指數(shù)模型D:線性模型

答案:線性模型線性回歸模型中,聯(lián)系函數(shù)g(?)為對數(shù)幾率函數(shù)ln(y/(1-y))時,該線性模型成為()

A:對數(shù)線性回歸B:指數(shù)線性回歸C:對數(shù)幾率回歸D:曲線線性回歸

答案:對數(shù)幾率回歸線性判別分析可通過該投影減小樣本點的維數(shù),且投影過程中使用了類別信息。因此,線性判別分析也常被視為一種經(jīng)典的()

A:監(jiān)督分類技術B:監(jiān)督降維技術C:降維技術D:分類技術

答案:監(jiān)督降維技術解決類別不平衡的方法包括()

A:閾值移動B:去除正例樣本C:過采樣D:欠采樣

答案:閾值移動;過采樣;欠采樣在線性模型的基礎上,引入層級結構或高維映射,構成非線性模型。因此,非線性模型可以轉換為線性模型。

A:對B:錯

答案:對線性判別分析(LDA)設法將樣例投影到一條直線上,使得同類樣例的投影點盡可能接近

A:錯B:對

答案:對分類學習任務中,若不同類別的訓練樣本數(shù)目差別很大時,對學習過程沒有明顯影響

A:錯B:對

答案:錯線性模型學得的參數(shù)ω直觀地表達了各屬性在預測中的重要性,因此,該模型具有較好的可解釋性。

A:錯B:對

答案:對線性判別分析在對新樣例進行分類時,將其投影到曲線上,再根據(jù)投影點的位置來確定新樣本的類別。

A:對B:錯

答案:錯基于均方誤差最小化來進行模型求解的方法,稱為“最小二乘法”。

A:對B:錯

答案:對線性判別分析模型中,同類樣本的投影點盡可能近,即同類樣本的協(xié)方差盡可能小

A:對B:錯

答案:對在分類學習任務中,若正例遠少于反例時,可以通過增加一些正例解決類別不平衡問題。

A:錯B:對

答案:對線性回歸目的是學得多項式模型以盡可能準確地預測實值輸出標記。

A:錯B:對

答案:錯單一屬性的線性回歸目標函數(shù)為f(x)=ωx+b使得min(f(x)–y)2

A:對B:錯

答案:對常用的廣義線性回歸有單位躍階函數(shù)、對數(shù)線性回歸、對數(shù)幾率回歸

A:對B:錯

答案:對

第四章單元測試

在屬性劃分中,信息增益越大,結點的純度()

A:變?yōu)榱鉈:提升越大C:不變D:降低越快

答案:提升越大決策樹算法的泛化性能提升,則驗證集精度()

A:降為零B:降低C:不變D:提高

答案:提高多變量決策樹中的非葉子節(jié)點是對()屬性的線性組合進行測試。

A:零個B:若干個C:所有D:一個

答案:若干個決策樹的結點包含()

A:內部結點B:結點C:葉結點D:根結點

答案:內部結點;葉結點;根結點決策樹學習算法中,預留一部分數(shù)據(jù)用作“驗證集”,進行性能評估,決定是否剪枝。

A:錯B:對

答案:對決策樹模型中,隨著劃分過程不斷進行,我們希望結點的“純度”越來越小。

A:對B:錯

答案:錯決策樹學習的目的是為了產(chǎn)生一棵泛化能力強,即處理未見示例能力強的決策樹

A:錯B:對

答案:對決策樹學習算法中,屬性a的信息增益越大,則使用該屬性進行劃分所獲得的“純度提升”越大。

A:對B:錯

答案:對決策樹學習算法中,隨著劃分過程不斷進行,我們希望決策樹的分支結點所包含的樣本盡可能屬于不同類別。

A:錯B:對

答案:錯基尼指數(shù),反映了從D中隨機抽取兩個樣本,其類別標記一致的概率

A:對B:錯

答案:錯預剪枝策略降低了過擬合風險。

A:錯B:對

答案:對基尼值可以度量樣本集合的純度。

A:對B:錯

答案:對現(xiàn)實學習任務中,常會遇到連續(xù)屬性,其可取值數(shù)目不再有限,可以使用離散化技術將連續(xù)屬性轉化為離散屬性

A:錯B:對

答案:對剪枝策略是對付“過擬合”的主要手段,即可通過主動去掉一些分支來降低過擬合的風險。

A:對B:錯

答案:對

第五章單元測試

若兩類模式是線性可分的,即存在一個線性超平面能將它們分開,則感知機的學習過程一定會收斂。

A:對B:錯

答案:對多隱層感知機比單隱層感知機的表達能力強

A:對B:錯

答案:錯誤差逆?zhèn)鞑ニ惴ㄊ瞧褡畛晒Φ纳窠?jīng)網(wǎng)絡學習算法。

A:對B:錯

答案:對基于梯度的搜索是使用最廣泛的參數(shù)尋優(yōu)方法,若誤差函數(shù)在當前點的梯度為零,則已達到全局最小。

A:對B:錯

答案:錯多層感知機表示異或邏輯時最少需要()個隱含層(僅考慮二元輸入)

A:2B:3C:1D:4

答案:1BP算法基于()策略對參數(shù)進行調整

A:梯度下降B:最小化誤差C:誤差逆?zhèn)鞑:梯度上升

答案:梯度下降BP神經(jīng)網(wǎng)絡由于其強大的表示能力,經(jīng)常遭遇()問題,即訓練誤差持續(xù)下降,但測試誤差卻可能上升。

A:梯度消失B:欠擬合C:不收斂D:過擬合

答案:過擬合在現(xiàn)實任務中,人們常采用以下策略來試圖跳出局部極小,進而接近全局最小

A:模擬退火B(yǎng):遺傳算法C:隨機梯度下降D:梯度下降

答案:模擬退火;遺傳算法;隨機梯度下降神經(jīng)網(wǎng)絡中的激活函數(shù)可以采用線性函數(shù)

A:對B:錯

答案:錯只擁有一層功能神經(jīng)元(能進行激活函數(shù)處理)的感知機學習能力依然很強,能解決異或這樣的非線性可分問題。

A:對B:錯

答案:錯

第六章單元測試

線性可分支持向量機是一種()模型

A:多分類B:邏輯回歸C:線性回歸D:二分類

答案:二分類支持向量機的學習策略是()

A:測試誤差最小B:訓練誤差最小C:間隔最小D:間隔最大

答案:間隔最大支持向量機的求解通常采用()來求解

A:線性規(guī)劃算法B:二次規(guī)劃算法C:最大間隔法D:最小誤差法

答案:二次規(guī)劃算法當訓練樣本線性不可分時可采用()來緩解和解決

A:測試誤差最小B:軟間隔C:核函數(shù)D:訓練誤差最小

答案:軟間隔;核函數(shù)為了更好地解決線性不可分問題,我們常常需要擴大可選函數(shù)的范圍。

A:對B:錯

答案:對支持向量機的經(jīng)驗風險描述了模型的某些性質

A:對B:錯

答案:錯在空間上線性可分的兩類點,分別向SVM分類的超平面上做投影,這些點在超平面上的投影仍然是線性可分的

A:對B:錯

答案:錯引入軟間隔是為了允許支持向量機在一些樣本上出錯。

A:對B:錯

答案:對核函數(shù)的引入是將原始空間中不可分的訓練樣本映射到高維的特征空間后變得可分。

A:對B:錯

答案:對訓練樣本集越大,SVM的分類結果越好

A:錯B:對

答案:錯

第七章單元測試

在樣本X上的條件風險是指將一個真實標記為Cj的樣本x分類為ci所產(chǎn)生的期望損失。

A:錯B:對

答案:對極大似然估計是試圖在θc所有可能的取值中,找到一個能使數(shù)據(jù)出現(xiàn)的“可能性”的最大的值。

A:錯B:對

答案:對拉普拉斯修正沒能避免因訓練集樣本不充分而導致概率估值為0的問題。

A:對B:錯

答案:錯貝葉斯網(wǎng)學習的首要任務就是通過對訓練樣本“計數(shù)”,估計出每個結點的條件概率表。

A:對B:錯

答案:錯通過已知變量觀測值來推測待推測查詢變量的過程稱為“推斷”

A:對B:錯

答案:對貝葉斯網(wǎng)的近似推斷常使用吉布斯采樣(Gibbssampling)來完成,吉布斯采樣可以看做,每一步僅依賴于前一步的狀態(tài),這是一個“馬爾可夫鏈”。

A:對B:錯

答案:對對分類任務來說,在所有相關概率都已知的理想情況下,()考慮如何基于這些概率和誤判損失來選擇最優(yōu)的類別標記。

A:決策樹B:聚類C:支持向量機D:貝葉斯決策論

答案:貝葉斯決策論樸素貝葉斯分類器假設所有屬性相互獨立,其訓練過程就成了基于訓練集D來估計類先驗概率P(c),并估計()。

A:每個屬性的條件概率P(xi|c)B:條件概率P(x|c)C:概率P(x)

答案:每個屬性的條件概率P(xi|c)為了適當考慮一部分屬性間的相互依賴信息,從而不需要進行完全聯(lián)合概率計算,又不至于徹底忽略了比較強的熟悉依賴關系,這種分類器是()。

A:樸素貝葉斯分類器B:貝葉斯網(wǎng)C:EM算法D:半樸素貝葉斯分類器

答案:半樸素貝葉斯分類器一個貝葉斯網(wǎng)由結構和參數(shù)兩部分組成,結構是一個(),每個節(jié)點對應個屬性,若兩屬性有直接依賴關系,則它們由一條邊連接起來,參數(shù)定量描述這種依賴關系。

A:無向無環(huán)圖B:無向圖C:有向無環(huán)圖D:有向圖

答案:有向無環(huán)圖

第八章單元測試

Boosting,個體學習器存在強依賴關系,逐個生成基學習器,每次調整訓練數(shù)據(jù)的樣本分布

A:錯B:對

答案:對加權平均法的權重,一般是從訓練數(shù)據(jù)中學習而得,規(guī)模比較大的集成,要學習的權重比較多,較容易導致欠擬合。

A:錯B:對

答案:錯分歧代表了個體學習器在樣本x上的不一致性。

A:錯B:對

答案:對假設集成通過()結合T個分類器,若有超過半數(shù)的基分類器正確則分類就正確。

A:簡單投票法B:簡單平均法C:加權投票法D:學習法

答案:簡單投票法Boosting算法關注降低偏差,可對泛化性能()的學習器,構造出很()的集成。

A:相對強,弱B:相對弱,弱C:相對弱,強D:相對強,強

答案:相對弱,強Bagging是并行式集成學習的最著名的代表,給定訓練數(shù)據(jù)集,采用()方法采樣數(shù)據(jù)。

A:自主采樣B:留出法C:交叉驗證法

答案:自主采樣若同時有多個標記獲最高票,則從中隨機選取一個,該結合策略是()。

A:簡單平均法B:加權投票法C:絕對多數(shù)投票法D:相對多數(shù)投票法

答案:相對多數(shù)投票法對基決策樹的每個結點,首先,從該結點的屬性集合中,隨機選擇一個包含k個屬性的子集。然后,從這個子集中,選擇一個最優(yōu)屬性,用于劃分。該方法是()。

A:傳統(tǒng)決策樹B:隨機森林C:AdaBoostD:Boosting方法

答案:隨機森林隨機改變一些訓練樣本的標記;將多分類任務,拆解為一系列二分類任務,來訓練基學習器,這屬于()。

A:輸出表示擾動B:輸入屬性擾動C:數(shù)據(jù)樣本擾動D:算法參數(shù)擾動

答案:輸出表示擾動要獲得好的集成,個體學習器應滿足()。

A:學習器應該不同B:學習器應該相同C:學習器不需要太好D:學習器不能太差

答案:學習器應該不同;學習器不能太差

第九章單元測試

無監(jiān)督學習是指訓練樣本的標記信息是(),目標是通過對()標記訓練樣本的學習來揭示數(shù)據(jù)內在的性質及規(guī)律,為進一步的數(shù)據(jù)分析提供基礎

A:部分未知,部分無B:已知,有C:未知,無D:部分已知,部分有

答案:未知,無常用的聚類距離計算采用()。

A:流形距離B:閔可夫斯基C:余弦距離D:馬氏距離

答案:閔可夫斯基懶惰學習是指在訓練階段(),訓練時間開銷為零,待收到測試樣本后再進行處理。

A:對訓練樣本進行學習B:對訓練樣本不進行操作C:改變訓練樣本D:對訓練樣本進行保存

答案:對訓練樣本進行保存聚類的基本目標是()

A:簇內相似度高B:簇內相似度低C:簇間相似度低D:簇間相似度高

答案:簇內相似度高;簇間相似度低聚類性能度量大致有兩類指標:外部指標和內部指標。

A:對B:錯

答案:對常見的原型聚類方法:K均值聚類、學習向量量化和密度聚類。

A:錯B:對

答案:錯在訓練階段就對樣本進行

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論