機器學習與深度學習知到智慧樹章節(jié)測試課后答案2024年秋聊城大學_第1頁
機器學習與深度學習知到智慧樹章節(jié)測試課后答案2024年秋聊城大學_第2頁
機器學習與深度學習知到智慧樹章節(jié)測試課后答案2024年秋聊城大學_第3頁
機器學習與深度學習知到智慧樹章節(jié)測試課后答案2024年秋聊城大學_第4頁
免費預覽已結束,剩余4頁可下載查看

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

機器學習與深度學習知到智慧樹章節(jié)測試課后答案2024年秋聊城大學第一章單元測試

下列哪些不屬于機器學習領域的常見方法?()

A:混合學習B:監(jiān)督學習C:強化學習D:非監(jiān)督學習

答案:混合學習人工智能是在20世紀()年代開始步入完善的。

A:60B:50C:80D:70

答案:70深度神經網絡是一種()神經網絡。

A:全聯(lián)接B:深化C:可選擇D:卷積

答案:全聯(lián)接卷積神經網絡由卷積、()、全連接層構成。()。

A:池化層B:全聯(lián)接C:損失函數(shù)D:激活函數(shù)

答案:池化層半監(jiān)督學習是監(jiān)督學習和非監(jiān)督學習的結合。()

A:錯B:對

答案:對

第二章單元測試

k近鄰算法是指k個最近的鄰居及每個樣本都可以與他最近的()來代表()

A:數(shù)值B:參數(shù)C:K個鄰居D:近鄰

答案:K個鄰居knn算法是基于實例的學習,屬于()模型()。

A:監(jiān)督學習B:非參數(shù)C:統(tǒng)計D:深度學習

答案:非參數(shù)線性回歸算法主要用來預測()型的目標值。()。

A:離散B:數(shù)值C:參數(shù)D:連續(xù)

答案:數(shù)值邏輯回歸是當前比較常用的機器方法,用于研究某個事件發(fā)生的()。

A:函數(shù)B:頻次C:概率D:權重

答案:概率利用線性回歸可以對任意輸入給出對應輸出的估計。()

A:對B:錯

答案:對

第三章單元測試

貝葉斯學習貝葉斯的方法的本質是以理解為從結果推到()。

A:數(shù)據(jù)B:原因C:數(shù)值D:評價

答案:原因以下屬于參數(shù)估計后驗推理模型的是()。

A:統(tǒng)計模型B:貝葉斯模型C:深度學習模型D:參數(shù)模型

答案:統(tǒng)計模型貝葉斯的缺點是輸入()或數(shù)據(jù)間相關性較大時會出現(xiàn)問題()。

A:數(shù)據(jù)量大B:數(shù)據(jù)量小C:參數(shù)數(shù)多D:參數(shù)數(shù)少

答案:數(shù)據(jù)量大樸素貝葉斯簡單假設是所有特征屬性之間相互()。

A:獨立B:關聯(lián)C:有因果關系D:有線性關系

答案:獨立貝葉斯網絡描述了特征屬性間的因果的關系,提供了一種基于因果信息的表示方法。()

A:錯B:對

答案:對

第四章單元測試

決策樹是一個()階段的過程。()

A:4B:2C:3D:1

答案:2決策樹學習的關鍵是如何選擇()。

A:最優(yōu)屬性B:葉子結點數(shù)C:參數(shù)D:根結點位置

答案:最優(yōu)屬性決策樹的生成過程中沒有考慮停止條件,所得到的生成數(shù)可能會非常大,對訓練級來說可能存在()。

A:過擬合B:空間過載C:內存過載D:提前終止

答案:過擬合決策數(shù)使用()系數(shù)來劃分屬性()。

A:非參B:線性C:基尼D:獨立

答案:基尼決策樹是一個數(shù)值預測模型。()

A:對B:錯

答案:錯

第五章單元測試

支持向量機的理論中最基礎最核心的當屬()。

A:間隔最大B:向量最大C:梯度下降D:因果測試

答案:間隔最大支持向量機以統(tǒng)計學習理論為基礎,主要針對()情況。

A:分散數(shù)據(jù)B:小樣本C:大數(shù)據(jù)D:大樣本

答案:小樣本在特征提取方面,()準則旨在訓練階段拉近同類樣本,同時拉遠一類樣本()。

A:分類B:提前終止C:最大邊界D:全樣本訓練

答案:最大邊界以下不屬于支持向量機訓練速度慢的原因()。

A:樣本量大B:維度轉化耗占內存C:轉換方法D:過擬合

答案:過擬合支持向量機的原理是將低維數(shù)據(jù)升維()。

A:對B:錯

答案:對

第六章單元測試

如果存在一個算法,可能以很高的準確率學習得到某個概念,則稱這個概念()。

A:強可學習B:集成學習C:高準確學習D:合成算法

答案:強可學習集成學習是()弱可學習器,形成一個強可學習器。()。

A:串聯(lián)B:整合C:并聯(lián)D:集成

答案:整合()個體學習器是所構建的所有個體學習器都是同一類型的學習器()。

A:所有B:依賴C:同時D:同質

答案:同質集成學習的思想是()。

A:多維數(shù)據(jù)分析B:取最高成功概率C:人多力量大D:三個臭皮匠賽過諸葛亮

答案:三個臭皮匠賽過諸葛亮結合策略主要是平均法、投票法以及學習法()。

A:對B:錯

答案:對

第七章單元測試

聚類分析是將數(shù)據(jù)對象分組內的()越大,聚類的效果就越好。()

A:差異B:數(shù)值C:相似性D:平方和

答案:相似性最常用的聚類算法是()算法。()。

A:AdabostingB:K-MeansC:DBSCAND:K-medio

答案:K-Means()試圖在不同層次對數(shù)據(jù)集進行劃分。()。

A:時空聚類B:密度聚類C:層次聚類D:均值聚類

答案:層次聚類時間復雜度最高的聚類方法是()。

A:K-MeansB:DBSCANC:層次聚類D:模型聚類

答案:DBSCAN層次聚類可以是自上而下的()。

A:錯B:對

答案:對

第八章單元測試

神經網絡中基本組成的單元是()。

A:單細胞B:樹凸模型C:激活模型D:神經元

答案:神經元使用激活函數(shù)的主要目的是給神經元引入()。

A:彈性機制B:線性回歸C:自適應D:非線性

答案:非線性()只沿一個方向進行。()。

A:反饋神經網絡B:激活函數(shù)C:感知機D:前饋神經網絡

答案:前饋神經網絡反向傳播更新的是()。

A:激活函數(shù)數(shù)量B:權重C:激活函數(shù)種類D:神經元數(shù)量

答案:權重前饋神經網絡是一種最簡單的神經網絡,每層包含若干神經元,這些神經元互相連接并傳遞信息。()。

A:錯B:對

答案:錯

第九章單元測試

卷積是一個數(shù)學概念,是通過兩個函數(shù)生成()的一種運算。()

A:第三個函數(shù)B:多個函數(shù)C:網絡模型D:非參數(shù)模型

答案:第三個函數(shù)卷積的作用可以看作是一種局部操作,通過卷積核可以獲得原始數(shù)據(jù)的()。

A:局部特征B:函數(shù)特征C:全局特征D:線性特征

答案:局部特征()是利用局部相關的特征采樣較少的數(shù)據(jù)來保持原有重要信息的一種操作。

A:歸一化B:池化C:反向傳播D:激活函數(shù)

答案:池化()函數(shù)的作用是衡量樣本真實值和預測值之間的誤差。

A:損失B:池化C:神經元D:激活

答案:損失卷積神經網絡常用于數(shù)值型數(shù)據(jù)的分類。()

A:錯B:對

答案:錯

第十章單元測試

訓練樣本的輸入和輸出不是比較確定的,我們使用什么網絡來訓練?()

A:循環(huán)B:卷積C:感知機D:深度

答案:循環(huán)長短時記憶網絡最有特點的門是()。

A:輸出門B:遺忘門C:記憶門D:輸入門

答案:遺忘門序列數(shù)據(jù)常用循環(huán)神經網絡來訓練()。

A:錯B:對

答案:對長短時記憶網絡,可以避免梯度消失的問題。()。

A:對B:錯

答案:對門循環(huán)神經網絡常用于圖片的分類。()。

A:對B:錯

答案:錯

第十一章單元測試

生成對抗網絡的核心思想是來源于博弈論的()。

A:T檢驗B:分布函數(shù)C:假設檢驗D:納什均衡

答案:納什均衡以

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論