機器學習期末復習題及答案_第1頁
機器學習期末復習題及答案_第2頁
機器學習期末復習題及答案_第3頁
機器學習期末復習題及答案_第4頁
機器學習期末復習題及答案_第5頁
已閱讀5頁,還剩7頁未讀 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

一、單選題1、?在條件隨機場(CRF)中,參數(shù)的學習通常使用哪種優(yōu)化算法?()A.K-Means聚類B.梯度提升機(GBM)C.支持向量機(SVM)D.隨機梯度下降(SGD)正確答案:D2、?在概率無向圖模型中,什么是團分解(ClusterDecomposition)?()A.一種通過節(jié)點之間的邊傳播信息,以更新節(jié)點的邊緣概率的方法B.一種用于計算圖的分割的算法C.一種將聯(lián)合概率分布分解為多個局部概率分布的方法D.一種用于表示聯(lián)合概率分布的無向樹正確答案:C3、?在數(shù)據(jù)不完備時,下列哪一種方法不是貝葉斯網(wǎng)絡的參數(shù)學習方法()A.拉普拉斯近似B.最大似然估計方法C.蒙特卡洛方法D.高斯逼近正確答案:B4、?在有向圖模型中,什么是條件獨立性?()A.給定父節(jié)點的條件下,子節(jié)點之間獨立B.所有節(jié)點之間都獨立C.所有節(jié)點的狀態(tài)相互獨立D.任意兩個節(jié)點都是獨立的正確答案:A5、?在概率有向圖模型中,節(jié)點表示什么?()A.變量B.參數(shù)C.條件概率D.邊正確答案:A6、?下列哪一項表示簇中樣本點的緊密程度?()A.簇個數(shù)B.簇大小C.簇描述D.簇密度正確答案:D7、?閔可夫斯基距離表示為曼哈頓距離時p為:()A.1B.2C.3D.4正確答案:A8、?譜聚類與K均值聚類相比,對于什么樣的數(shù)據(jù)表現(xiàn)更好?()A.低維數(shù)據(jù)B.高維數(shù)據(jù)C.線性可分數(shù)據(jù)D.高密度數(shù)據(jù)正確答案:B9、?SVM適用于什么類型的問題?()A.既可用于線性問題也可用于非線性問題B.僅適用于回歸問題C.僅適用于非線性問題D.僅適用于線性問題正確答案:A10、?對于在原空間中線性不可分的問題,支持向量機()A.在原空間中尋找非線性函數(shù)劃分數(shù)據(jù)B.無法處理C.利用核函數(shù)把數(shù)據(jù)映射到高維空間D.在原空間中尋找線性函數(shù)劃分數(shù)據(jù)正確答案:C11、?LDA主題模型中的alpha參數(shù)控制著什么?()A.單詞分布的稀疏性B.文檔-主題分布的稀疏性C.模型大小D.模型收斂速度正確答案:B12、?LDA的全稱是什么?()A.LatentDirichletAllocationB.LinearDiscriminantAnalysisC.LatentDataAnalysisD.LinLatentDirichletAllocationearDataAlgorithm正確答案:A13、?以下對于梯度下降法中學習率lr的闡述,正確的是()A.lr小,收斂速度較快B.lr大,收斂速度較慢C.lr小,收斂速度較慢且較不易收斂D.lr大,收斂速度較快但可能導致不收斂正確答案:D14、?在EM算法中,E代表期望,M代表()A.均值B.最大化C.最小化D.均方誤差正確答案:B15、?梯度下降中如何有效地捕捉到目標函數(shù)的全局最優(yōu)?()A.調整學習速率B.增加模型復雜度C.使用梯度下降的變種算法D.增加訓練樣本量正確答案:C二、多選題1、?下列機器學習常用算法中哪個屬于分類算法?()A.K-meansB.最小距離分類器C.KNN(K近鄰)D.邏輯回歸正確答案:B、C、D2、?下列關于決策樹的說法正確的是?()A.CART使用的是二叉樹B.其可作為分類算法,也可用于回歸模型C.不能處理連續(xù)型特征D.它易于理解、可解釋性強正確答案:A、B、D3、?下列屬于k近鄰算法中常用的距離度量方法的是?()A.余弦相似度B.歐式距離C.曼哈頓距離D.閔可夫斯基距離正確答案:A、B、C、D4、?下列屬于深度模型的是?()A.DNNB.LightgbmC.LSTMD.Seq2Seq正確答案:A、C、D5、?sklearn中RFECV方法分成哪兩個部分?()A.RFEB.CVC.NLPD.MM正確答案:A、B6、?以下關于蒙特卡洛方法描述正確的是()A.蒙特卡洛方法計算值函數(shù)可以采用First-visit方法B.蒙特卡洛方法方差很大C.蒙特卡洛方法計算值函數(shù)可以采用Every-visit方法D.蒙特卡洛方法偏差很大正確答案:A、B、C7、?為什么循環(huán)神經(jīng)網(wǎng)絡可以用來實現(xiàn)自動問答,比如對一句自然語言問句給出自然語言回答()A.因為自動問答可以看成是一種序列到序列的轉換B.因為循環(huán)神經(jīng)網(wǎng)絡能夠處理變長輸入C.因為循環(huán)神經(jīng)網(wǎng)要比卷積神經(jīng)網(wǎng)更強大D.因為卷積神經(jīng)網(wǎng)絡不能處理字符輸入正確答案:A、B8、?通常有哪幾種訓練神經(jīng)網(wǎng)絡的優(yōu)化方法()A.梯度下降法B.隨機梯度下降法C.小批量隨機梯度下降法D.集成法正確答案:A、B、C9、?隱馬爾可夫模型的三個基本問題是()A.估值問題B.尋找狀態(tài)序列C.學習模型參數(shù)D.狀態(tài)更新正確答案:A、B、C10、?在數(shù)據(jù)不完備時,貝葉斯網(wǎng)絡的參數(shù)學習方法有()A.高斯逼近B.蒙特卡洛方法C.拉普拉斯近似D.最大似然估計方法正確答案:A、B、C11、?基于約束的方法通過統(tǒng)計獨立性測試來學習結點間的()A.獨立性B.相關性C.依賴性D.完備性正確答案:A、B12、?基于搜索評分的方法,關鍵點在于()A.確定合適的搜索策略B.確定評分函數(shù)C.確定搜索優(yōu)先級D.確定選擇策略正確答案:A、B13、?條件隨機場需要解決的關鍵問題有()A.特征函數(shù)的選擇B.參數(shù)估計C.模型推斷D.約束條件正確答案:A、B、C14、?以下關于邏輯斯蒂回歸模型的描述正確的是()A.針對分類的可能性進行建模,不僅能預測出類別,還可以得到屬于該類別的概率B.直接對分類的可能性進行建模,無需事先假設數(shù)據(jù)分布,這樣就避免了假設分布不準確所帶來的問題C.模型本質仍然是一個線性模型,實現(xiàn)相對簡單D.邏輯斯蒂回歸模型是線性回歸模型正確答案:A、B、C、D15、?LDA模型在做參數(shù)估計時,最常用的方法是()A.Gibbs采樣方法B.變分推斷C.梯度下降D.Beamsearch正確答案:A、B三、判斷題1、?關于EM算法的收斂性,EM算法理論上不能夠保證收斂()正確答案:×2、?多次運行,隨機化初始點是對存在局部最優(yōu)點的函數(shù)求解的一種方案()正確答案:√3、?訓練算法的目的就是要讓模型擬合訓練數(shù)據(jù)()正確答案:×4、?循環(huán)神經(jīng)網(wǎng)絡按時間展開后就可以通過反向傳播算法訓練了()正確答案:√5、?GIS算法的收斂速度由計算更新值的步長確定。C值越大,步長越大,收斂速度就越快()正確答案:×6、?從最大熵思想出發(fā)得出的最大熵模型,采用最大化求解就是在求P(y|x)的對數(shù)似然最大化()正確答案:√7、?邏輯斯蒂回歸模型是一種回歸算法()正確答案:×8、?k-means算法、EM算法是建立在凸球形的樣本空間上的聚類方法()正確答案:√9、?DBSCAN對參數(shù)不敏感()正確答案:×10、?分裂層次聚類采用的策略是自底向上()正確答案:×11、?支持向量是最靠近決策表面的數(shù)據(jù)點()正確答案:√12、?SVM中的泛化誤差代表SVM對新數(shù)據(jù)的預測準確度()正確答案:√13、?主題建模的關鍵是確定數(shù)據(jù)集合的主題個數(shù)()正確答案:×14、?關于LDA模型中的K,K的指定,必須考慮數(shù)據(jù)集合的特點,選擇一個較為優(yōu)化的數(shù)值()正確答案:×15、?Gibbs采樣是一類通用的采樣方法,和M-H采樣方法沒有任何關系()正確答案:×16、?吉布斯采樣是一種通用的采樣方法,對于任何概率分布都可以采樣出對應的樣本()正確答案:×17、?EM算法通常不需要設置步長,而且收斂速度一般很快()正確答案:√18、?EM算法首先

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論