機(jī)器學(xué)習(xí)(山東聯(lián)盟)知到章節(jié)答案智慧樹2023年山東財經(jīng)大學(xué)_第1頁
機(jī)器學(xué)習(xí)(山東聯(lián)盟)知到章節(jié)答案智慧樹2023年山東財經(jīng)大學(xué)_第2頁
機(jī)器學(xué)習(xí)(山東聯(lián)盟)知到章節(jié)答案智慧樹2023年山東財經(jīng)大學(xué)_第3頁
機(jī)器學(xué)習(xí)(山東聯(lián)盟)知到章節(jié)答案智慧樹2023年山東財經(jīng)大學(xué)_第4頁
機(jī)器學(xué)習(xí)(山東聯(lián)盟)知到章節(jié)答案智慧樹2023年山東財經(jīng)大學(xué)_第5頁
已閱讀5頁,還剩19頁未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

機(jī)器學(xué)習(xí)(山東聯(lián)盟)知到章節(jié)測試答案智慧樹2023年最新山東財經(jīng)大學(xué)第一章測試

對西瓜的成熟度進(jìn)行預(yù)測得到結(jié)果為0.51,這屬于()學(xué)習(xí)任務(wù)。

參考答案:

回歸

在學(xué)習(xí)過程中,X表示數(shù)據(jù)集,Y是所有標(biāo)記的集合,也稱為()。

參考答案:

輸出空間

機(jī)器學(xué)習(xí)算法在學(xué)習(xí)過程中可能獲得多個不同的模型,在解決“什么樣的模型更好”這一問題時遵循“若有多個假設(shè)與觀察一致,則選最簡單的那個”,即()原則。

參考答案:

奧卡姆剃刀

機(jī)器學(xué)習(xí)是整個人工智能的核心,機(jī)器學(xué)習(xí)算法的特征之一就是()。

參考答案:

模型

模型的泛化能力是指

參考答案:

適用于新樣本的能力

下列關(guān)于學(xué)習(xí)算法的說法正確的是

參考答案:

要談?wù)撍惴ǖ南鄬?yōu)劣,必須要針對具體的學(xué)習(xí)問題;學(xué)習(xí)算法必須有某種偏好,才能產(chǎn)出它認(rèn)為“正確”的模型;在某些問題上表現(xiàn)好的學(xué)習(xí)算法,在另一些問題上卻可能不盡人意

獲得假設(shè)(模型)空間時,從特殊到一般的過程屬于

參考答案:

泛化;歸納

機(jī)器學(xué)習(xí)可以應(yīng)用在下列哪些領(lǐng)域()

參考答案:

商業(yè)營銷;自動駕駛汽車;搜索引擎;天氣預(yù)報

根據(jù)訓(xùn)練數(shù)據(jù)是否擁有標(biāo)記信息,學(xué)習(xí)任務(wù)可以分為()。

參考答案:

無監(jiān)督;監(jiān)督;半監(jiān)督

演繹是從一般到特殊的"特化"過程,即從基礎(chǔ)原理推演出具體狀況

參考答案:

分類預(yù)測的是離散值

參考答案:

分類和回歸是無監(jiān)督學(xué)習(xí)

參考答案:

奧卡姆剃刀原則:即“若有多個假設(shè)與觀察一致,選最簡單的一個”。

參考答案:

實際應(yīng)用中,“一個模型肯定比另一個模型具有更強(qiáng)的泛化能力”的這種情況是不存在的。

參考答案:

機(jī)器學(xué)習(xí)的目標(biāo)就是獲得與訓(xùn)練集一致的假設(shè)。

參考答案:

第二章測試

測試性能隨著測試集的變化而變化

參考答案:

以下關(guān)于回歸的說法中,不正確的是()。

參考答案:

回歸的目標(biāo)屬性是離散的

下列關(guān)于查全率和查準(zhǔn)率的說法哪種正確()。

參考答案:

查全率和查準(zhǔn)率存在著互逆關(guān)系

關(guān)于性能比較和模型選擇,下列說法正確的是()。

參考答案:

測試性能隨著測試集的變化而變化

模型的評估方法不包括()。

參考答案:

計分法

模型評估方法中留出法的缺點(diǎn)是()。

參考答案:

只能得到一個評估值。

選擇模型的依據(jù)包括()。

參考答案:

泛化性能;時間開銷;可解釋性;存儲開銷

以下哪些方法可以用于單個學(xué)習(xí)器性能的比較()。

參考答案:

二項檢驗;t-檢驗

模型的泛化性能由()決定。

參考答案:

學(xué)習(xí)算法的能力;學(xué)習(xí)任務(wù)本身的難度;數(shù)據(jù)的充分性

解決過擬合的方案包括()。

參考答案:

選擇合適的迭代次數(shù)停止模型的學(xué)習(xí);引入正則項

以下哪些是可能導(dǎo)致模型過擬合的原因()

參考答案:

訓(xùn)練集和測試集特征分布不一致;學(xué)習(xí)迭代次數(shù)過多;訓(xùn)練集數(shù)量級和模型復(fù)雜度不匹配,訓(xùn)練集的數(shù)量級小于模型的復(fù)雜度

過擬合不可以徹底避免。

參考答案:

回歸任務(wù)最常用的性能度量是“查準(zhǔn)率和查全率”

參考答案:

訓(xùn)練數(shù)據(jù)較少時更容易發(fā)生欠擬合

參考答案:

方差度量了學(xué)習(xí)算法期望預(yù)測與真實結(jié)果的偏離程度

參考答案:

第三章測試

線性回歸目的是學(xué)得一個()以盡可能準(zhǔn)確地預(yù)測實值輸出標(biāo)記

參考答案:

線性模型

線性回歸模型中,聯(lián)系函數(shù)g(?)為對數(shù)幾率函數(shù)ln(y/(1-y))時,該線性模型成為()

參考答案:

對數(shù)幾率回歸

線性判別分析可通過該投影減小樣本點(diǎn)的維數(shù),且投影過程中使用了類別信息。因此,線性判別分析也常被視為一種經(jīng)典的()

參考答案:

監(jiān)督降維技術(shù)

解決類別不平衡的方法包括()

參考答案:

過采樣;閾值移動;欠采樣

在線性模型的基礎(chǔ)上,引入層級結(jié)構(gòu)或高維映射,構(gòu)成非線性模型。因此,非線性模型可以轉(zhuǎn)換為線性模型。

參考答案:

線性判別分析(LDA)設(shè)法將樣例投影到一條直線上,使得同類樣例的投影點(diǎn)盡可能接近

參考答案:

分類學(xué)習(xí)任務(wù)中,若不同類別的訓(xùn)練樣本數(shù)目差別很大時,對學(xué)習(xí)過程沒有明顯影響

參考答案:

線性模型學(xué)得的參數(shù)ω直觀地表達(dá)了各屬性在預(yù)測中的重要性,因此,該模型具有較好的可解釋性。

參考答案:

線性判別分析在對新樣例進(jìn)行分類時,將其投影到曲線上,再根據(jù)投影點(diǎn)的位置來確定新樣本的類別。

參考答案:

基于均方誤差最小化來進(jìn)行模型求解的方法,稱為“最小二乘法”。

參考答案:

線性判別分析模型中,同類樣本的投影點(diǎn)盡可能近,即同類樣本的協(xié)方差盡可能小

參考答案:

在分類學(xué)習(xí)任務(wù)中,若正例遠(yuǎn)少于反例時,可以通過增加一些正例解決類別不平衡問題。

參考答案:

線性回歸目的是學(xué)得多項式模型以盡可能準(zhǔn)確地預(yù)測實值輸出標(biāo)記。

參考答案:

單一屬性的線性回歸目標(biāo)函數(shù)為f(x)=ωx+b使得min(f(x)–y)2

參考答案:

常用的廣義線性回歸有單位躍階函數(shù)、對數(shù)線性回歸、對數(shù)幾率回歸

參考答案:

第四章測試

在屬性劃分中,信息增益越大,結(jié)點(diǎn)的純度()

參考答案:

提升越大

決策樹算法的泛化性能提升,則驗證集精度()

參考答案:

提高

多變量決策樹中的非葉子節(jié)點(diǎn)是對()屬性的線性組合進(jìn)行測試。

參考答案:

若干個

決策樹的結(jié)點(diǎn)包含()

參考答案:

內(nèi)部結(jié)點(diǎn);根結(jié)點(diǎn);葉結(jié)點(diǎn)

決策樹學(xué)習(xí)算法中,預(yù)留一部分?jǐn)?shù)據(jù)用作“驗證集”,進(jìn)行性能評估,決定是否剪枝。

參考答案:

決策樹模型中,隨著劃分過程不斷進(jìn)行,我們希望結(jié)點(diǎn)的“純度”越來越小。

參考答案:

決策樹學(xué)習(xí)的目的是為了產(chǎn)生一棵泛化能力強(qiáng),即處理未見示例能力強(qiáng)的決策樹

參考答案:

決策樹學(xué)習(xí)算法中,屬性a的信息增益越大,則使用該屬性進(jìn)行劃分所獲得的“純度提升”越大。

參考答案:

決策樹學(xué)習(xí)算法中,隨著劃分過程不斷進(jìn)行,我們希望決策樹的分支結(jié)點(diǎn)所包含的樣本盡可能屬于不同類別。

參考答案:

基尼指數(shù),反映了從D中隨機(jī)抽取兩個樣本,其類別標(biāo)記一致的概率

參考答案:

預(yù)剪枝策略降低了過擬合風(fēng)險。

參考答案:

基尼值可以度量樣本集合的純度。

參考答案:

現(xiàn)實學(xué)習(xí)任務(wù)中,常會遇到連續(xù)屬性,其可取值數(shù)目不再有限,可以使用離散化技術(shù)將連續(xù)屬性轉(zhuǎn)化為離散屬性

參考答案:

剪枝策略是對付“過擬合”的主要手段,即可通過主動去掉一些分支來降低過擬合的風(fēng)險。

參考答案:

第五章測試

若兩類模式是線性可分的,即存在一個線性超平面能將它們分開,則感知機(jī)的學(xué)習(xí)過程一定會收斂。

參考答案:

多隱層感知機(jī)比單隱層感知機(jī)的表達(dá)能力強(qiáng)

參考答案:

誤差逆?zhèn)鞑ニ惴ㄊ瞧褡畛晒Φ纳窠?jīng)網(wǎng)絡(luò)學(xué)習(xí)算法。

參考答案:

基于梯度的搜索是使用最廣泛的參數(shù)尋優(yōu)方法,若誤差函數(shù)在當(dāng)前點(diǎn)的梯度為零,則已達(dá)到全局最小。

參考答案:

多層感知機(jī)表示異或邏輯時最少需要()個隱含層(僅考慮二元輸入)

參考答案:

2

BP算法基于()策略對參數(shù)進(jìn)行調(diào)整

參考答案:

梯度下降

BP神經(jīng)網(wǎng)絡(luò)由于其強(qiáng)大的表示能力,經(jīng)常遭遇()問題,即訓(xùn)練誤差持續(xù)下降,但測試誤差卻可能上升。

參考答案:

過擬合

在現(xiàn)實任務(wù)中,人們常采用以下策略來試圖跳出局部極小,進(jìn)而接近全局最小

參考答案:

隨機(jī)梯度下降;遺傳算法;模擬退火

神經(jīng)網(wǎng)絡(luò)中的激活函數(shù)可以采用線性函數(shù)

參考答案:

只擁有一層功能神經(jīng)元(能進(jìn)行激活函數(shù)處理)的感知機(jī)學(xué)習(xí)能力依然很強(qiáng),能解決異或這樣的非線性可分問題。

參考答案:

第六章測試

線性可分支持向量機(jī)是一種()模型

參考答案:

二分類

支持向量機(jī)的學(xué)習(xí)策略是()

參考答案:

間隔最大

支持向量機(jī)的求解通常采用()來求解

參考答案:

二次規(guī)劃算法

當(dāng)訓(xùn)練樣本線性不可分時可采用()來緩解和解決

參考答案:

軟間隔;核函數(shù)

為了更好地解決線性不可分問題,我們常常需要擴(kuò)大可選函數(shù)的范圍。

參考答案:

支持向量機(jī)的經(jīng)驗風(fēng)險描述了模型的某些性質(zhì)

參考答案:

在空間上線性可分的兩類點(diǎn),分別向SVM分類的超平面上做投影,這些點(diǎn)在超平面上的投影仍然是線性可分的

參考答案:

引入軟間隔是為了允許支持向量機(jī)在一些樣本上出錯。

參考答案:

核函數(shù)的引入是將原始空間中不可分的訓(xùn)練樣本映射到高維的特征空間后變得可分。

參考答案:

訓(xùn)練樣本集越大,SVM的分類結(jié)果越好

參考答案:

第七章測試

在樣本X上的條件風(fēng)險是指將一個真實標(biāo)記為Cj的樣本x分類為ci所產(chǎn)生的期望損失。

參考答案:

極大似然估計是試圖在θc所有可能的取值中,找到一個能使數(shù)據(jù)出現(xiàn)的“可能性”的最大的值。

參考答案:

拉普拉斯修正沒能避免因訓(xùn)練集樣本不充分而導(dǎo)致概率估值為0的問題。

參考答案:

貝葉斯網(wǎng)學(xué)習(xí)的首要任務(wù)就是通過對訓(xùn)練樣本“計數(shù)”,估計出每個結(jié)點(diǎn)的條件概率表。

參考答案:

通過已知變量觀測值來推測待推測查詢變量的過程稱為“推斷”

參考答案:

貝葉斯網(wǎng)的近似推斷常使用吉布斯采樣(Gibbssampling)來完成,吉布斯采樣可以看做,每一步僅依賴于前一步的狀態(tài),這是一個“馬爾可夫鏈”。

參考答案:

對分類任務(wù)來說,在所有相關(guān)概率都已知的理想情況下,()考慮如何基于這些概率和誤判損失來選擇最優(yōu)的類別標(biāo)記。

參考答案:

貝葉斯決策論

樸素貝葉斯分類器假設(shè)所有屬性相互獨(dú)立,其訓(xùn)練過程就成了基于訓(xùn)練集D來估計類先驗概率P(c),并估計()。

參考答案:

每個屬性的條件概率P(xi|c)

為了適當(dāng)考慮一部分屬性間的相互依賴信息,從而不需要進(jìn)行完全聯(lián)合概率計算,又不至于徹底忽略了比較強(qiáng)的熟悉依賴關(guān)系,這種分類器是()。

參考答案:

半樸素貝葉斯分類器

一個貝葉斯網(wǎng)由結(jié)構(gòu)和參數(shù)兩部分組成,結(jié)構(gòu)是一個(),每個節(jié)點(diǎn)對應(yīng)個屬性,若兩屬性有直接依賴關(guān)系,則它們由一條邊連接起來,參數(shù)定量描述這種依賴關(guān)系。

參考答案:

有向無環(huán)圖

第八章測試

Boosting,個體學(xué)習(xí)器存在強(qiáng)依賴關(guān)系,逐個生成基學(xué)習(xí)器,每次調(diào)整訓(xùn)練數(shù)據(jù)的樣本分布

參考答案:

加權(quán)平均法的權(quán)重,一般是從訓(xùn)練數(shù)據(jù)中學(xué)習(xí)而得,規(guī)模比較大的集成,要學(xué)習(xí)的權(quán)重比較多,較容易導(dǎo)致欠擬合。

參考答案:

分歧代表了個體學(xué)習(xí)器在樣本x上的不一致性。

參考答案:

假設(shè)集成通過()結(jié)合T個分類器,若有超過半數(shù)的基分類器正確則分類就正確。

參考答案:

簡單投票法

Boosting算法關(guān)注降低偏差,可對泛化性能()的學(xué)習(xí)器,構(gòu)造出很()的集成。

參考答案:

相對弱,強(qiáng)

Bagging是并行式集成學(xué)習(xí)的最著名的代表,給定訓(xùn)練數(shù)據(jù)集,采用()方法采樣數(shù)據(jù)。

參考答案:

自主采樣

若同時有多個標(biāo)記獲最高票,則從中隨機(jī)選取一個,該結(jié)合策略是()。

參考答案:

相對多數(shù)投票法

對基決策樹的每個結(jié)點(diǎn),首先,從該結(jié)點(diǎn)的屬性集合中,隨機(jī)選擇一個包含k個屬性的子集。然后,從這個子集中,選擇一個最優(yōu)屬性,用于劃分。該方法是()。

參考答案:

隨機(jī)森林

隨機(jī)改變一些訓(xùn)練樣本的標(biāo)記;將多分類任務(wù),拆解為一系列二分類任務(wù),來訓(xùn)練基學(xué)習(xí)器,這屬于()。

參考答案:

輸出表示擾動

要獲得好的集成,個體學(xué)習(xí)器應(yīng)滿足()。

參考答案:

學(xué)習(xí)器不能太差;學(xué)習(xí)器應(yīng)該不同

第九章測試

無監(jiān)督學(xué)習(xí)是指訓(xùn)練樣本的標(biāo)記信息是(),目標(biāo)是通過對()標(biāo)記訓(xùn)練樣本的學(xué)習(xí)來揭示數(shù)據(jù)內(nèi)在的性質(zhì)及規(guī)律,為進(jìn)一步的數(shù)據(jù)分析提供基礎(chǔ)

參考答案:

未知,無

常用的聚類距離計算采用()。

參考答案:

閔可夫斯基

懶惰學(xué)習(xí)是指在訓(xùn)練階段(),訓(xùn)練時間開銷為零,待收到測試樣本后再進(jìn)行處理。

參考答案:

對訓(xùn)練樣本進(jìn)行保存

聚類的基本目標(biāo)是()

參考答案:

簇內(nèi)相似度高;簇間相似度低

聚類性能度量大致有兩類指標(biāo):外部指標(biāo)和內(nèi)部指標(biāo)。

參考答案:

常見的原型聚類方法:K均值聚類、學(xué)習(xí)向量量化和密度聚類。

參考答案:

在訓(xùn)練階段就對樣本進(jìn)行學(xué)習(xí)處理的方法是急切學(xué)習(xí)。

參考答案:

層次聚類試圖在不同層次對數(shù)據(jù)及進(jìn)行劃分,從而形成樹形的聚類結(jié)構(gòu)。

參考答案:

無監(jiān)督學(xué)習(xí)任務(wù)中研究最多、應(yīng)用最廣的是“分類”。

參考答案:

常用的聚類距離計算采用“余弦相似度距離”

參考答案:

第十章測試

局部線性嵌入在降維時試圖保持鄰域內(nèi)樣本之間的線性關(guān)系。

參考答案:

相鄰樣本之間的線性關(guān)系

緩解維數(shù)災(zāi)難的操作是()

參考答案:

降維

距離等度量映射是在降維時試圖保持()

參考答案:

相鄰樣本之間的距離

流形學(xué)習(xí)中的流形是指在

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論