【MOOC】機器學習-北京理工大學 中國大學慕課MOOC答案_第1頁
【MOOC】機器學習-北京理工大學 中國大學慕課MOOC答案_第2頁
【MOOC】機器學習-北京理工大學 中國大學慕課MOOC答案_第3頁
【MOOC】機器學習-北京理工大學 中國大學慕課MOOC答案_第4頁
【MOOC】機器學習-北京理工大學 中國大學慕課MOOC答案_第5頁
已閱讀5頁,還剩7頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領

文檔簡介

【MOOC】機器學習-北京理工大學中國大學慕課MOOC答案緒論1、【單選題】下列哪位是人工智能之父?本題答案:【MarnivLeeMinsky】2、【單選題】根據(jù)王玨的理解,下列不屬于對問題空間W的統(tǒng)計描述是本題答案:【學習能力】3、【單選題】下列描述無監(jiān)督學習錯誤的是本題答案:【不需要降維】4、【單選題】下列描述有監(jiān)督學習錯誤的是本題答案:【所有數(shù)據(jù)都相互獨立分布】5、【單選題】下列哪種歸納學習采用符號表示方式?本題答案:【經(jīng)驗歸納學習】6、【單選題】混淆矩陣的假正是指本題答案:【模型預測為正的負樣本】7、【單選題】混淆矩陣的真負率公式是為本題答案:【TN/(TN+FP)】8、【單選題】混淆矩陣中的TP=16,F(xiàn)P=12,F(xiàn)N=8,TN=4,準確率是本題答案:【1/2】9、【單選題】混淆矩陣中的TP=16,F(xiàn)P=12,F(xiàn)N=8,TN=4,精確率是本題答案:【4/7】期望最大化算法1、【判斷題】關于EM算法的收斂性,EM算法理論上不能夠保證收斂。本題答案:【錯誤】2、【判斷題】關于EM算法的用途,EM算法只適用不完全數(shù)據(jù)的情形。本題答案:【錯誤】3、【判斷題】Jessen不等式等號成立的條件是:變量為常數(shù)本題答案:【正確】4、【判斷題】Jessen不等式E(f(x))=f(E(x)),左邊部分大于等于右邊部分的條件是函數(shù)f是凸函數(shù),如果f是凹函數(shù),左邊部分應該是小于等于右邊部分。本題答案:【正確】5、【判斷題】EM算法因為是理論可以保證收斂的,所以肯定能夠取得最優(yōu)解。本題答案:【錯誤】6、【判斷題】EM算法首先猜測每個數(shù)據(jù)來自哪個高斯分布,然后求取每個高斯的參數(shù),之后再去重新猜測每個數(shù)據(jù)來自哪個高斯分布,類推進一步迭代,直到收斂,從而得到最后的參數(shù)估計值。本題答案:【正確】7、【判斷題】EM算法,具有通用的求解形式,因此對任何問題,其求解過程都是一樣,都能很容易求得結果。本題答案:【錯誤】8、【判斷題】EM算法通常不需要設置步長,而且收斂速度一般很快。本題答案:【正確】主題建模1、【多選題】LDA模型在做參數(shù)估計時,最常用的方法是本題答案:【Gibbs采樣方法#變分推斷】2、【判斷題】吉布斯采樣是一種通用的采樣方法,對于任何概率分布都可以采樣出對應的樣本。本題答案:【錯誤】3、【判斷題】LDA模型的核心假設是:假設每個文檔首先由主題分布表示,然后主題由詞概率分布表示,形成文檔-主題-詞的三級層次。本題答案:【正確】4、【判斷題】Gibbs采樣是一類通用的采樣方法,和M-H采樣方法沒有任何關系。本題答案:【錯誤】5、【判斷題】關于LDA模型中的K,K的指定,必須考慮數(shù)據(jù)集合的特點,選擇一個較為優(yōu)化的數(shù)值。本題答案:【錯誤】6、【判斷題】LDA模型是一種生成式模型本題答案:【正確】7、【判斷題】主題建模的關鍵是確定數(shù)據(jù)集合的主題個數(shù)。本題答案:【錯誤】8、【判斷題】主題建模本質(zhì)上是:一種新的文檔表示方法,主要是通過主題的分布來表示一個文檔。一種數(shù)據(jù)壓縮方法,將文檔壓縮在更小的空間中。本題答案:【正確】SVM作業(yè)支持向量機1、【單選題】SVM算法的性能取決于:本題答案:【以上所有】2、【單選題】SVM中的代價參數(shù)C表示什么?本題答案:【在分類準確性和模型復雜度之間的權衡】3、【單選題】一對一法分類器,k個類別需要多少個SVM:本題答案:【k(k-1)/2】4、【判斷題】SVM中的泛化誤差代表SVM對新數(shù)據(jù)的預測準確度本題答案:【正確】5、【判斷題】若參數(shù)C(costparameter)被設為無窮,只要最佳分類超平面存在,它就能將所有數(shù)據(jù)全部正確分類本題答案:【正確】6、【判斷題】“硬間隔”是指SVM允許分類時出現(xiàn)一定范圍的誤差本題答案:【錯誤】7、【判斷題】支持向量是最靠近決策表面的數(shù)據(jù)點本題答案:【正確】8、【判斷題】數(shù)據(jù)有噪聲,有重復值,不會導致SVM算法性能下降本題答案:【錯誤】聚類分析1、【單選題】有關聚類分析說法錯誤的是:本題答案:【聚類分析一個簇中的數(shù)據(jù)之間具有高差異性】2、【單選題】兩個n維向量和之間的歐式距離(euclideandistance)為:本題答案:【】3、【單選題】閔可夫斯基距離表示為曼哈頓距離時p為:本題答案:【1】4、【單選題】下面是矩陣的特征值為:本題答案:【3】5、【判斷題】分裂層次聚類采用的策略是自底向上本題答案:【錯誤】6、【判斷題】DBSCAN對參數(shù)不敏感本題答案:【錯誤】7、【判斷題】EM聚類屬于軟分聚類方法本題答案:【正確】8、【判斷題】k-means算法、EM算法是建立在凸球形的樣本空間上的聚類方法本題答案:【正確】概率無向圖模型1、【單選題】下圖中有多少個最大團?本題答案:【2】2、【單選題】假設某事件發(fā)生的概率為p,則此事件發(fā)生的幾率為:本題答案:【p/(1-p)】3、【多選題】以下關于邏輯斯蒂回歸模型的描述正確的是本題答案:【針對分類的可能性進行建模,不僅能預測出類別,還可以得到屬于該類別的概率。#直接對分類的可能性進行建模,無需事先假設數(shù)據(jù)分布,這樣就避免了假設分布不準確所帶來的問題。#模型本質(zhì)仍然是一個線性模型,實現(xiàn)相對簡單。#邏輯斯蒂回歸模型是線性回歸模型】4、【多選題】條件隨機場需要解決的關鍵問題有:本題答案:【特征函數(shù)的選擇#參數(shù)估計#模型推斷】5、【判斷題】邏輯斯蒂回歸模型是一種回歸算法。本題答案:【錯誤】6、【判斷題】熵最大時,表示隨機變量最不確定,也就是隨機變量最隨機,對其行為做準確預測最困難。本題答案:【正確】7、【判斷題】從最大熵思想出發(fā)得出的最大熵模型,采用最大化求解就是在求P(y|x)的對數(shù)似然最大化。本題答案:【正確】8、【判斷題】GIS算法的收斂速度由計算更新值的步長確定。C值越大,步長越大,收斂速度就越快。本題答案:【錯誤】概率有向圖模型1、【多選題】基于搜索評分的方法,關鍵點在于本題答案:【確定合適的搜索策略#確定評分函數(shù)】2、【多選題】基于約束的方法通過統(tǒng)計獨立性測試來學習結點間的本題答案:【獨立性#相關性】3、【多選題】在數(shù)據(jù)不完備時,貝葉斯網(wǎng)絡的參數(shù)學習方法有:本題答案:【高斯逼近#蒙特卡洛方法#拉普拉斯近似】4、【多選題】隱馬爾可夫模型的三個基本問題是:本題答案:【估值問題#尋找狀態(tài)序列#學習模型參數(shù)】5、【判斷題】下圖是全連接圖。本題答案:【錯誤】6、【判斷題】貝葉斯網(wǎng)絡具有的條件獨立性是結點與其后代結點條件獨立本題答案:【錯誤】7、【判斷題】最大似然估計方法是實例數(shù)據(jù)不完備情況下的學習方法。本題答案:【錯誤】8、【判斷題】隱馬爾可夫模型是一種統(tǒng)計模型,經(jīng)常用來描述一個含有隱含未知參數(shù)的馬爾可夫過程。本題答案:【正確】神經(jīng)網(wǎng)絡1、【單選題】下列哪項說法不正確本題答案:【生物神經(jīng)信號由樹突傳遞給軸突】2、【多選題】通常有哪幾種訓練神經(jīng)網(wǎng)絡的優(yōu)化方法?本題答案:【梯度下降法#隨機梯度下降法#小批量隨機梯度下降法】3、【多選題】為什么循環(huán)神經(jīng)網(wǎng)絡可以用來實現(xiàn)自動問答,比如對一句自然語言問句給出自然語言回答?本題答案:【因為自動問答可以看成是一種序列到序列的轉換#因為循環(huán)神經(jīng)網(wǎng)絡能夠處理變長輸入】4、【判斷題】LSTM和GRU網(wǎng)絡因為引入了門控單元,可以緩解梯度消失問題本題答案:【正確】5、【判斷題】循環(huán)神經(jīng)網(wǎng)絡按時間展開后就可以通過反向傳播算法訓練了本題答案:【正確】6、【判斷題】卷積神經(jīng)網(wǎng)絡通常比全連接神經(jīng)網(wǎng)絡參數(shù)少,因此能力更差本題答案:【錯誤】7、【判斷題】訓練算法的目的就是要讓模型擬合訓練數(shù)據(jù)本題答案:【錯誤】8、【判斷題】反向傳播算法中需要先計算靠近輸入層參數(shù)的梯度,再計算靠近輸出層參數(shù)的梯度本題答案:【錯誤】強化學習1、【單選題】強化學習基本要素有哪些?本題答案:【狀態(tài)、動作、獎勵】2、【單選題】Q-learning屬于哪種算法本題答案:【Off-policy算法】3、【單選題】馬爾科夫決策過程由哪幾個元素來表示本題答案:【狀態(tài)、動作、轉移概率、折扣因子、回報函數(shù)】4、【單選題】狀態(tài)值函數(shù)的貝爾曼方程為本題答案:【】5、【單選題】以下哪種算法是TD-learning的方法本題答案:【】6、【多選題】以下關于蒙特卡洛方法描述正確的是本題答案:【蒙特卡洛方法計算值函數(shù)可以采用First-visit方法#蒙特卡洛方法方差很大#蒙特卡洛方法計算值函數(shù)可以采用Every-visit方法】7、【多選題】在Q-learning中,以下說法正確的是本題答案:【在狀態(tài)時計算的,對應的動作并沒有真正執(zhí)行,只是用來更新當前Q值#更新中,Q的真實值為】8、【多選題】Sarsa與Q-learning的區(qū)別是?本題答案:【Sarsa是on-policy,而Q-learning是off-policy#Q-learning在算法更新時,對應的下一個動作并沒有執(zhí)行,而sarsa的下一個動作在這次更新時已經(jīng)確定了】9、【多選題】Q-learning與Sarsa相同的地方是本題答案:【都使用了等策略進行探索#都用q-table存儲狀態(tài)動作對】10、【多選題】關于經(jīng)驗池(experiencereplay)敘述正確的是本題答案:【打破樣本之間的連續(xù)性#每次更新時隨機采樣樣本】11、【多選題】關于DQN說法正確的是本題答案:【網(wǎng)絡最開始使用卷積神經(jīng)網(wǎng)絡或全連接網(wǎng)絡,目的是為了提取圖像特征信息#對于atari游戲中,一般將連續(xù)4幀圖像放在一起作為一個state送到神經(jīng)網(wǎng)絡中#網(wǎng)絡的輸出是Q值】12、【多選題】關于DoubleDQN說法正確的是本題答案:【Q值的目標值中的max操作會產(chǎn)生過估計,從而影響找到最佳策略#DoubleDQN可以減小偏差】13、【多選題】以下哪種算法屬于策略梯度算法本題答案:【TRPO#REINFORCE#PPO】14、【多選題】關于A3C算法說法正確的是本題答案:【使用了多個線程,每個線程對應了不同的探索方式#A3C是on-policy的算法】15、【多選題】以下屬于Actor-Critic算法的是本題答案:【DDPG#A3C】16、【多選題】對于Actor-Critic算法,說法錯誤的是本題答案:【Critic網(wǎng)絡是用來輸出動作的#Actor網(wǎng)絡是用來評價Critic網(wǎng)絡所選動作的好壞的】期末試題1、【單選題】混淆矩陣中的TP=16,F(xiàn)P=12,F(xiàn)N=8,TN=4,召回率是本題答案:【2/3】2、【單選題】混淆矩陣中的TP=16,F(xiàn)P=12,F(xiàn)N=8,TN=4,F(xiàn)1-score是本題答案:【8/13】3、【單選題】EM算法的核心思想是?本題答案:【通過不斷地求取目標函數(shù)的下界的最優(yōu)值,從而實現(xiàn)最優(yōu)化的目標?!?、【單選題】EM算法的E和M指什么?本題答案:【Expectation-Maximum】5、【單選題】LDA模型的隱變量Z是本題答案:【每個詞對應的主題】6、【單選題】LDA模型中的一個主題指:本題答案:【詞集合上的一個概率分布】7、【單選題】下列有關支持向量機說法不正確的是:本題答案:【得到的是局部最優(yōu)解】8、【單選題】下列有關核函數(shù)不正確的是:本題答案:【滿足Mercer條件的函數(shù)不一定能作為支持向量機的核函數(shù)】9、【單選題】k中心點算法每次迭代的計算復雜度是多少?本題答案:【】10、【單選題】關于K-means說法不正確的是:本題答案:【適合發(fā)現(xiàn)非凸形狀的簇】11、【單選題】下圖中的聯(lián)合概率分布的吉布斯表示為:本題答案:【】12、【單選題】下圖中有多少個團?本題答案:【7】13、【單選題】下圖中使用概率的乘積規(guī)則將聯(lián)合概率展開式為:本題答案:【】14、【單選題】貝葉斯網(wǎng)絡起源于貝葉斯統(tǒng)計學,是以_____為基礎的有向圖模型,它為處理不確定知識提供了有效的方法。本題答案:【概率論】15、【單選題】通用近似定理說明本題答案:【以上全不對】1

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論