機器學習(山東聯(lián)盟)智慧樹知到期末考試答案章節(jié)答案2024年山東財經(jīng)大學_第1頁
機器學習(山東聯(lián)盟)智慧樹知到期末考試答案章節(jié)答案2024年山東財經(jīng)大學_第2頁
機器學習(山東聯(lián)盟)智慧樹知到期末考試答案章節(jié)答案2024年山東財經(jīng)大學_第3頁
機器學習(山東聯(lián)盟)智慧樹知到期末考試答案章節(jié)答案2024年山東財經(jīng)大學_第4頁
機器學習(山東聯(lián)盟)智慧樹知到期末考試答案章節(jié)答案2024年山東財經(jīng)大學_第5頁
已閱讀5頁,還剩9頁未讀 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

機器學習(山東聯(lián)盟)智慧樹知到期末考試答案+章節(jié)答案2024年山東財經(jīng)大學高斯混合模型假設樣本的生成過程由高斯混合分布給出。

答案:對只需要一個包含足夠多神經(jīng)元的隱層,多層前饋網(wǎng)絡就能以任意精度逼近任意復雜度的連續(xù)函數(shù)

答案:對非線性降維的方法,是基于核技巧對線性降維方法進行核化。

答案:對CNN由于其結構復雜,不能用BP算法進行訓練

答案:錯AGENS方法是一種采用自底向上聚合策略的層次聚類方法。

答案:對度量學習是指通過學習確定一種距離度量方式。

答案:對局部線性嵌入是一種常用的度量學習方法

答案:錯由于BP神經(jīng)網(wǎng)絡強大的表示能力,它經(jīng)常遭遇欠擬合

答案:錯距離度量一般滿足的性質為:非負性、同一性、對稱性和直遞性。

答案:對頻率主義學派認為參數(shù)是未觀察到的隨機變量,其本身也可有分布,因此,可假定參數(shù)服從一個先驗分布,然后,基于觀察到的數(shù)據(jù)來計算參數(shù)的后驗分布。

答案:錯Jaccard系數(shù)是一種性能度量的內部指標。

答案:錯下面哪幾種()機器學習的分類,完全不需要人工標注數(shù)據(jù)?

答案:無監(jiān)督學習###強化學習常用的核函數(shù)有()

答案:拉普拉斯核###多項式核###線性核###高斯核決策樹模型中,決策過程中提出的每個判定問題都是對某個屬性的“測試”,每個“測試”考慮的范圍,不必限定在上次決策結果的范圍之內。

答案:錯支持向量機通常采用二次規(guī)劃算法來求解

答案:對估計類條件概率P(x|C)的常用策略先假定其具有某種確定的概率分布形式,再基于訓練樣本對概率分布參數(shù)估計。

答案:對決策樹學習中,因決策分支過多,把訓練集自身的一些特點,當做所有數(shù)據(jù)都具有的一般性質。因此,可主動去掉一些分支,降低過擬合的風險。

答案:對決策樹學習算法采用選擇部分屬性和剪枝的技術,得到最終的決策樹。

答案:對PCA是一種有監(jiān)督的線性降維方法。

答案:錯緩解維數(shù)災難的一個重要途徑是降維。

答案:對對數(shù)幾率回歸模型不僅預測出“類別”,且可得到“類別”的近似概率預測。

答案:對在神經(jīng)網(wǎng)絡的訓練過程中,(

)方法被用來在參數(shù)空間中尋找一種使誤差最小的最優(yōu)參數(shù)。

答案:用多組不同的參數(shù)初始化多個神經(jīng)網(wǎng)絡,按標準方法訓練后,取其中誤差最小的解作為最終參數(shù)。###遺傳算法###使用“模擬退火”技術###使用隨機梯度下降對于正交屬性中的樣本點,用一個超平面對所有樣本進行恰當表達,則該超平面需要滿足最大可分性和最小重構性。

答案:對一個擁有d個輸入神經(jīng)元、L個輸出神經(jīng)元、q個隱層神經(jīng)元的多層前饋網(wǎng)絡中有()個參數(shù)需要調整

答案:(d+L+1)q+LAGENS方法是種常用的層次聚類方法

答案:對信息熵是度量樣本集合純度的唯一指標。

答案:錯DBI指數(shù)是一種常用的外部指標。

答案:錯密度聚類方法一般從樣本的分布出發(fā),考察樣本之間的可連接性,并基于可連接樣本不斷擴展聚類簇以獲得最終的聚類結果。

答案:對線性模型中,屬性的系數(shù)大,表明該屬性較為重要

答案:對局部線性嵌入和等度量映射都屬于流形學習的范疇。

答案:對剪枝是決策樹學習算法對付“欠擬合”的主要手段

答案:錯支持向量機模型的復雜程度與支持向量的數(shù)目有關

答案:對為了避免其他屬性攜帶的信息被訓練集中未出現(xiàn)的屬性值“抹去”,在估計概率值時通常要進行“平滑”,常用“拉普拉斯修正”

答案:對神經(jīng)網(wǎng)絡的訓練過程可以看作一個參數(shù)尋優(yōu)過程,即在參數(shù)空間中,尋找一組最優(yōu)參數(shù)使得神經(jīng)網(wǎng)絡在訓練集上的誤差最小

答案:對PCA方法中使所有樣本的投影盡可能分開,則需最大化投影點的方差。

答案:對AdaBoost算法過程包括()。

答案:確定分類器權重ɑt###初始化樣本權值分布D1###基于分布Dt從數(shù)據(jù)集D中訓練出分類器ht###估計分類器ht的誤差具有最大間隔的劃分超平面的優(yōu)點是()

答案:魯棒###泛化能力強樸素貝葉斯分類器的訓練過程就是基于訓練集D來估計(),并為每個屬性估計()。

答案:P(c),P(xi|c)線性判別分析地基本思想是給定訓練樣例集,設法將樣例投影到()上。

答案:一條直線距離等度量映射是在降維時試圖保持相鄰樣本之間的線性關系。

答案:錯貝葉斯學派認為參數(shù)雖然未知,但卻是客觀存在的固定值,因此,可通過優(yōu)化似然函數(shù)等準則來確定參數(shù)值。

答案:錯最近重構性是指樣本點到這個超平面的距離都足夠近;最大可分性是指樣本點在這個超平面上的投影盡可能分開。

答案:對降維后的維度是由用戶確定的,主要是通過重構的角度設置一個閾值,然后確定維度d

答案:對Agens方法是一種原型聚類,其聚類方法主要是實現(xiàn)對聚類原型的表示。

答案:錯由于無論是高維空間還是低維空間,每個空間在樣本屬性上都定義了一個距離度量,因此,尋找合適的空間即使在尋找合適的距離度量。

答案:對對于不能線性可分的情況,考慮采用核的方法把不線性可分的高維空間映射到線性可分的低維空間。

答案:對主成分分析是可以實現(xiàn)線性降維,同時達到對數(shù)據(jù)的降噪。

答案:對K近鄰學習方法屬于懶惰學習,是其的著名代表。

答案:對BP算法基于梯度下降策略,以目標的負梯度方向對參數(shù)進行調整

答案:對高斯混合聚類假設樣本滿足高斯混合分布。

答案:對對降維效果的評估,通常是比較降維前后學習器的性能,若性能提高則認為降維起到作用。

答案:對常用的替代損失函數(shù)有()

答案:hinge損失###指數(shù)損失###對率損失支持向量回歸的本質是一個回歸問題

答案:錯緩解BP神經(jīng)網(wǎng)絡過擬合常采用的策略有()

答案:正則化###早停隨機森林算法的個體學習器間存在強依賴關系,是一種串行生成的序列化方法。

答案:錯給定訓練數(shù)據(jù)集,交疊的采樣子集的方法是()。

答案:Bagging流形學習方法是模式識別中的基本方法,分為線性流形學習算法和非線性流形學習算法。下列屬于線性流形學習算法的是()

答案:主成分分析假設基分類器的錯誤率相互獨立,則由Hoeffding不等式可得,在一定條件下,隨著集成分類器數(shù)目的增加,集成的錯誤率將()。

答案:指數(shù)級下降一般來說,欲獲得低維子空間,最簡單的是對原始高維空間進行線性變換。

答案:對Bagging算法的個體學習器間不存在強依賴關系,是一種可同時生成的并行化方法。

答案:對信息熵度量采用的劃分選擇為基尼指數(shù)。

答案:錯決策樹模型中,決策過程的最終結論對應了我們所希望的判定結果。

答案:對貝葉斯網(wǎng)學習的首要任務就是通過對訓練樣本“計數(shù)”,估計出每個結點的條件概率表。

答案:錯處理混合屬性之間的距離通常將米科夫斯基距離和VDM方法結合。

答案:對在空間上線性可分的兩類點,分別向SVM分類的超平面上做投影,這些點在超平面上的投影仍然是線性可分的

答案:錯密度聚類方法假設聚類結構能夠通過樣本分布的概率密度確定。

答案:錯閾值移動可以解決類別不平衡問題。

答案:對等度量映射是一種常用的度量學習方法。

答案:錯現(xiàn)實學習任務中,常會遇到連續(xù)屬性,其可取值數(shù)目不再有限,可以使用離散化技術將連續(xù)屬性轉化為離散屬性

答案:對降維是指通過某種數(shù)學變換將原始高維屬性空間轉變?yōu)橐粋€低維“子空間”,可以用來緩解維數(shù)災難。

答案:對誤差逆?zhèn)鞑ニ惴ㄊ瞧褡畛晒Φ纳窠?jīng)網(wǎng)絡學習算法。

答案:對引入軟間隔是為了允許支持向量機在一些樣本上出錯。

答案:對訓練數(shù)據(jù)較少時更容易發(fā)生欠擬合

答案:對演繹是從一般到特殊的"特化"過程,即從基礎原理推演出具體狀況

答案:對盡管多層網(wǎng)絡比單層感知機結構復雜,但是它們的訓練難度是相同的

答案:錯廣義線性模型的目標函數(shù),即為最大化樣本標記屬于其真實標記的概率。

答案:對流形學習在實際中降維性能一般不好。

答案:對直接使用頻率來估計類條件概率P(x|c)是可行的。

答案:錯單一屬性的線性回歸目標函數(shù)為f(x)=ωx+b使得min(f(x)–y)2

答案:對訓練完成后,大部分訓練樣本不需要保留,最終模型只與支持向量有關

答案:對常用的廣義線性回歸有單位躍階函數(shù)、對數(shù)線性回歸、對數(shù)幾率回歸

答案:對高斯混合聚類采用概率模型來表達聚類原型

答案:對支持向量是指分布在樣本簇邊緣的樣本點。

答案:錯方差度量了學習算法期望預測與真實結果的偏離程度

答案:錯獲得假設(模型)空間時,從特殊到一般的過程屬于

答案:泛化###歸納分類學習任務中,若不同類別的訓練樣本數(shù)目差別很大時,對學習過程沒有明顯影響

答案:錯以下哪些方法可以用于單個學習器性能的比較()。

答案:t-檢驗###二項檢驗加權平均法的權重,一般是從訓練數(shù)據(jù)中學習而得,規(guī)模比較大的集成,要學習的權重比較多,較容易導致欠擬合。

答案:錯下列屬于支持向量機核函數(shù)的是()

答案:高斯核###線性核###多項式核###Sigmoid核神經(jīng)網(wǎng)絡中的激活函數(shù)可以采用線性函數(shù)

答案:錯要獲得好的集成,個體學習器應“好而不同”,即個體學習器要有一定的(),即學習器不能太壞,并且要有(),即學習器間具有差異。

答案:準確性###多樣性處理無序屬性之間的距離通常采用VDM算法。

答案:對機器學習可以應用在下列哪些領域()

答案:天氣預報###商業(yè)營銷###搜索引擎###自動駕駛汽車決策樹算法的泛化性能提升,則驗證集精度()

答案:提高AdaBoost適用于()任務。

答案:二分類無監(jiān)督學習任務中研究最多、應用最廣的是任務是()

答案:聚類線性回歸模型中,聯(lián)系函數(shù)g(?)為對數(shù)幾率函數(shù)ln(y/(1-y))時,該線性模型成為()

答案:對數(shù)幾率回歸結合策略中,具有初級學習器和結合學習器的是()。

答案:學習法局部線性嵌入在降維時試圖保持鄰域內樣本之間的線性關系。

答案:相鄰樣本之間的線性關系隨機森林的優(yōu)點不包括()。

答案:初始性能較好以下關于回歸的說法中,不正確的是()。

答案:回歸的目標屬性是離散的多層感知機表示異或邏輯時最少需要()個隱含層(僅考慮二元輸入)

答案:2線性回歸模型中,對數(shù)ln(y)函數(shù)是在求取輸入空間到輸出空間的()映射

答案:非線性函數(shù)k近鄰分類器沒有被廣泛使用的原因是其泛化錯誤率不超過貝葉斯最有分類器錯誤率的兩倍。

答案:對PCA方法滿足的重要性質是()

答案:最大可分性###最近重構性PCA方法滿足的重要性質是:最大重構性和最近可分性。

答案:錯流形學習中的流形是指在局部與歐式空間同胚的空間,即()

答案:在局部有歐式空間的性質距離等度量映射是在降維時試圖保持()

答案:相鄰樣本之間的距離主成分分析是最常用的一種降維方法。

答案:對在高維情形下出現(xiàn)的數(shù)據(jù)樣本稀疏、距離計算困難等問題是所有機器學期方法共同面臨的嚴重障礙,被稱為維數(shù)災難,

答案:對K近鄰學習是急切學習的著名代表。

答案:錯緩解維數(shù)災難的操作是()

答案:降維在訓練階段就對樣本進行學習處理的方法是急切學習。

答案:對常用的聚類距離計算采用()。

答案:閔可夫斯基無監(jiān)督學習是指訓練樣本的標記信息是(),目標是通過對()標記訓練樣本的學習來揭示數(shù)據(jù)內在的性質及規(guī)律,為進一步的數(shù)據(jù)分析提供基礎

答案:未知,無聚類性能度量大致有兩類指標:外部指標和內部指標。

答案:對常見的原型聚類方法:K均值聚類、學習向量量化和密度聚類。

答案:錯無監(jiān)督學習任務中研究最多、應用最廣的是“分類”。

答案:錯聚類的基本目標是()

答案:簇內相似度高###簇間相似度低常用的聚類距離計算采用“余弦相似度距離”

答案:錯懶惰學習是指在訓練階段(),訓練時間開銷為零,待收到測試樣本后再進行處理。

答案:對訓練樣本進行保存層次聚類試圖在不同層次對數(shù)據(jù)及進行劃分,從而形成樹形的聚類結構。

答案:對Boosting,個體學習器存在強依賴關系,逐個生成基學習器,每次調整訓練數(shù)據(jù)的樣本分布

答案:對分歧代表了個體學習器在樣本x上的不一致性。

答案:對對基決策樹的每個結點,首先,從該結點的屬性集合中,隨機選擇一個包含k個屬性的子集。然后,從這個子集中,選擇一個最優(yōu)屬性,用于劃分。該方法是()。

答案:隨機森林隨機改變一些訓練樣本的標記;將多分類任務,拆解為一系列二分類任務,來訓練基學習器,這屬于()。

答案:輸出表示擾動若同時有多個標記獲最高票,則從中隨機選取一個,該結合策略是()。

答案:相對多數(shù)投票法Bagging是并行式集成學習的最著名的代表,給定訓練數(shù)據(jù)集,采用()方法采樣數(shù)據(jù)。

答案:自主采樣要獲得好的集成,個體學習器應滿足()。

答案:學習器不能太差###學習器應該不同假設集成通過()結合T個分類器,若有超過半數(shù)的基分類器正確則分類就正確。

答案:簡單投票法Boosting算法關注降低偏差,可對泛化性能()的學習器,構造出很()的集成。

答案:相對弱,強在樣本X上的條件風險是指將一個真實標記為Cj的樣本x分類為ci所產(chǎn)生的期望損失。

答案:對通過已知變量觀測值來推測待推測查詢變量的過程稱為“推斷”

答案:對極大似然估計是試圖在θc所有可能的取值中,找到一個能使數(shù)據(jù)出現(xiàn)的“可能性”的最大的值。

答案:對對分類任務來說,在所有相關概率都已知的理想情況下,()考慮如何基于這些概率和誤判損失來選擇最優(yōu)的類別標記。

答案:貝葉斯決策論貝葉斯網(wǎng)的近似推斷常使用吉布斯采樣(Gibbssampling)來完成,吉布斯采樣可以看做,每一步僅依賴于前一步的狀態(tài),這是一個“馬爾可夫鏈”。

答案:對為了適當考慮一部分屬性間的相互依賴信息,從而不需要進行完全聯(lián)合概率計算,又不至于徹底忽略了比較強的熟悉依賴關系,這種分類器是()。

答案:半樸素貝葉斯分類器一個貝葉斯網(wǎng)由結構和參數(shù)兩部分組成,結構是一個(),每個節(jié)點對應個屬性,若兩屬性有直接依賴關系,則它們由一條邊連接起來,參數(shù)定量描述這種依賴關系。

答案:有向無環(huán)圖拉普拉斯修正沒能避免因訓練集樣本不充分而導致概率估值為0的問題。

答案:錯樸素貝葉斯分類器假設所有屬性相互獨立,其訓練過程就成了基于訓練集D來估計類先驗概率P(c),并估計()。

答案:每個屬性的條件概率P(xi|c)為了更好地解決線性不可分問題,我們常常需要擴大可選函數(shù)的范圍。

答案:對支持向量機的學習策略是()

答案:間隔最大訓練樣本集越大,SVM的分類結果越好

答案:錯支持向量機的經(jīng)驗風險描述了模型的某些性質

答案:錯核函數(shù)的引入是將原始空間中不可分的訓練樣本映射到高維的特征空間后變得可分。

答案:對線性可分支持向量機是一種()模型

答案:二分類支持向量機的求解通常采用()來求解

答案:二次規(guī)劃算法當訓練樣本線性不可分時可采用()來緩解和解決

答案:軟間隔###核函數(shù)只擁有一層功能神經(jīng)元(能進行激活函數(shù)處理)的感知機學習能力依然很強,能解決異或這樣的非線性可分問題。

答案:錯基于梯度的搜索是使用最廣泛的參數(shù)尋優(yōu)方法,若誤差函數(shù)在當前點的梯度為零,則已達到全局最小。

答案:錯若兩類模式是線性可分的,即存在一個線性超平面能將它們分開,則感知機的學習過程一定會收斂。

答案:對BP神經(jīng)網(wǎng)絡由于其強大的表示能力,經(jīng)常遭遇()問題,即訓練誤差持續(xù)下降,但測試誤差卻可能上升。

答案:過擬合在現(xiàn)實任務中,人們常采用以下策略來試圖跳出局部極小,進而接近全局最小

答案:遺傳算法###模擬退火###隨機梯度下降多隱層感知機比單隱層感知機的表達能力強

答案:錯BP算法基于()策略對參數(shù)進行調整

答案:梯度下降剪枝策略是對付“過擬合”的主要手段,即可通過主動去掉一些分支來降低過擬合的風險。

答案:對基尼值可以度量樣本集合的純度。

答案:對預剪枝策略降低了過擬合風險。

答案:對決策樹的結點包含()

答案:根結點###葉結點###內部結點在屬性劃分中,信息增益越大,結點的純度()

答案:提升越大基尼指數(shù),反映了從D中隨機抽取兩個樣本,其類別標記一致的概率

答案:錯決策樹學習算法中,隨著劃分過程不斷進行,我們希望決策樹的分支結點所包含的樣本盡可能屬于不同類別。

答案:錯決策樹學習算法中,預留一部分數(shù)據(jù)用作“驗證集”,進行性能評估,決定是否剪枝。

答案:對決策樹模型中,隨著劃分過程不斷進行,我們希望結點的“純度”越來越小。

答案:錯多變量決策樹中的非葉子節(jié)點是對()屬性的線性組合進行測試。

答案:若干個決策樹學習算法中,屬性a的信息增益越大,則使用該屬性進行劃分所獲得的“純度提升”越大。

答案:對決策樹學習的目的是為了產(chǎn)生一棵泛化能力強,即處理未見示例能力強的決策樹

答案:對線性回歸目的是學得多項式模型以盡可能準確地預測實值輸出標記。

答案:錯在分類學習任務中,若正例遠少于反例時,可以通過增加一些正例解決類別不平衡問題。

答案:對線性判別分析模型中,同類樣本的投影點盡可能近,即同類樣本的協(xié)方差盡可能小

答案:對線性判別分析在對新樣例進行分類時,將其投影到曲線上,再根據(jù)投影點的位置來確定新樣本的類別。

答案:錯線性判別分析(LDA)設法將樣例投影到一條直線上,使得同類樣例的投影點盡可能接近

答案:對線性判別分析可通過該投影減小樣本點的維數(shù),且投影過程中使用了類別信息。因此,線性判別分析也常被視為一種經(jīng)典的()

答案:監(jiān)督降維技術基于均方誤差最小化來進行模型求解的方法,稱為“最小二乘法”。

答案:對線性模型學得的參數(shù)ω直觀地表達了各屬性在預測中的重要性,因此,該模型具有較好的可解釋性。

答案:對在線性模型的基礎上,引入層級結構或高維映射,構成非線性模型。因此,非線性模型可以轉換為線性模型。

答案:對解決類別不平衡的方法包括()

答案:過采樣###欠采樣###閾值移動線性回歸目的是學得一個()以盡可能準確地預測實值輸出標記

答案:線性模型過擬合不可以徹底避免。

答案:對以下哪些是可能導致模型過擬合的原因()

答案:學習迭代次數(shù)過多###訓練集和測試集特征分布不一致###訓練集數(shù)量級和模型復雜度不匹配,訓練集的數(shù)量級小于模型的復雜度

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論