【MOOC】大數(shù)據(jù)解析與應(yīng)用導(dǎo)論-浙江大學(xué) 中國大學(xué)慕課MOOC答案_第1頁
【MOOC】大數(shù)據(jù)解析與應(yīng)用導(dǎo)論-浙江大學(xué) 中國大學(xué)慕課MOOC答案_第2頁
【MOOC】大數(shù)據(jù)解析與應(yīng)用導(dǎo)論-浙江大學(xué) 中國大學(xué)慕課MOOC答案_第3頁
免費預(yù)覽已結(jié)束,剩余3頁可下載查看

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

【MOOC】大數(shù)據(jù)解析與應(yīng)用導(dǎo)論-浙江大學(xué)中國大學(xué)慕課MOOC答案第一周作業(yè)第一周測驗1、【單選題】下列場景適用于回歸分析的是本題答案:【天氣預(yù)報】2、【多選題】下列屬于多元統(tǒng)計方法的為本題答案:【主元分析#回歸分析】3、【多選題】多元統(tǒng)計分析的圖表示法有本題答案:【輪廓圖#雷達(dá)圖#調(diào)和曲線圖#散布圖矩陣】4、【判斷題】聚類分析也可以稱為判別分析。本題答案:【錯誤】5、【判斷題】多元統(tǒng)計分析不僅變量的波動,還要研究變量間的耦合性。本題答案:【正確】6、【判斷題】完整的數(shù)據(jù)分析過程,包括數(shù)據(jù)采集、數(shù)據(jù)清洗和數(shù)據(jù)分析。本題答案:【正確】第二周作業(yè)第二周測驗1、【單選題】下列哪種方法不是數(shù)據(jù)填補的手段本題答案:【均值標(biāo)準(zhǔn)化】2、【多選題】一般常見的缺失值處理的方法有本題答案:【替換填充法#最近鄰插補填充法#回歸填充法#插值填充】3、【多選題】一般常見的數(shù)據(jù)歸一化的方法有本題答案:【最小最大規(guī)范化#零均值規(guī)范化】4、【判斷題】少量的異常值完全不會影響數(shù)據(jù)分析。本題答案:【錯誤】5、【判斷題】一般初步收集到的數(shù)據(jù)可能是帶有異常值的。本題答案:【正確】6、【判斷題】主成分分析可以降低數(shù)據(jù)維度。本題答案:【正確】第三周作業(yè)第三周測驗1、【單選題】SVM的中文全稱叫什么?本題答案:【支持向量機(jī)】2、【單選題】SVM算法的最小時間復(fù)雜度是O(n2),基于此,以下哪種規(guī)格的數(shù)據(jù)集并不適該算法?本題答案:【大數(shù)據(jù)集】3、【判斷題】費舍爾判別分析通過不同類別數(shù)據(jù)投影后中心點間的距離來衡量類間分離程度。本題答案:【正確】4、【判斷題】拉格朗日乘子法可用于線性可分SVM的模型求解。本題答案:【正確】5、【填空題】曼哈頓距離是各變量之差的()之和。本題答案:【絕對值】第四周作業(yè)第四周測驗1、【單選題】最小二乘方法的擬合程度衡量指標(biāo)是本題答案:【殘差平方和】2、【多選題】最典型的兩種擬合不佳的情況是本題答案:【欠擬合#過擬合】3、【判斷題】嶺回歸適用于樣本很少,但變量很多的回歸問題。本題答案:【正確】4、【判斷題】維數(shù)災(zāi)難是指當(dāng)變量指標(biāo)、特征逐步增加時導(dǎo)致計算量、計算難度成指數(shù)爆炸性增長,而模型準(zhǔn)確性卻在降低的情況。本題答案:【正確】5、【填空題】主元回歸分析是基于()算法的結(jié)果進(jìn)行后續(xù)回歸建模分析。本題答案:【主成分分析】第五周作業(yè)第五周測驗1、【多選題】閔可夫斯基距離是一組距離的定義,下列距離中屬于閔可夫斯基距離的有本題答案:【歐式距離#切比雪夫距離#曼哈頓距離】2、【多選題】在利用EM算法估計高斯混合模型參數(shù)的時候,需要預(yù)先設(shè)定的參數(shù)有本題答案:【高斯元的均值#高斯元的方差#高斯元的權(quán)重系數(shù)#類別個數(shù)】3、【判斷題】在區(qū)分某個算法是否是聚類算法時,往往可以通過該算法是否需要預(yù)先設(shè)定明確的類中心來判斷本題答案:【正確】4、【判斷題】如果兩個變量的相關(guān)系數(shù)為0,則說明兩個變量是獨立的。本題答案:【錯誤】5、【判斷題】樣本的順序會影響K均值聚類算法的結(jié)果。本題答案:【錯誤】6、【填空題】GMM模型是借助多個()分布的線性累加去估計任意的分布。本題答案:【高斯】7、【填空題】GMM模型需要預(yù)先設(shè)定高斯元個數(shù)去確定()個數(shù)。本題答案:【類別】第六周作業(yè)第六周測驗1、【單選題】在Bootstrap自助采樣法中,真實的情況是本題答案:【在每一次采樣中,樣本之間可能有重復(fù);在完成n次采樣之后,有些樣本可能沒有被采集到】2、【單選題】對于離散型隨機(jī)變量X,它的熵取決于本題答案:【X取每個值的概率】3、【判斷題】隨機(jī)森林只能選擇決策樹作為基分類器。本題答案:【錯誤】4、【判斷題】隨機(jī)森林的各個基分類器之間是互相獨立的,在訓(xùn)練的時候可以并行訓(xùn)練。本題答案:【正確】5、【判斷題】決策樹算法只能處理具有離散特征屬性的數(shù)據(jù)集,對于連續(xù)特征屬性的數(shù)據(jù)集無能為力。本題答案:【錯誤】第七周作業(yè)第七周測驗1、【單選題】CCA算法在求解時,分別在兩組變量中選取具有代表性的綜合變量Ui,Vi,每個綜合變量是原變量的線性組合,選擇綜合變量時的目標(biāo)是本題答案:【最大化兩者的相關(guān)系數(shù)】2、【單選題】相比于普通CCA算法,KernelCCA本題答案:【能分析兩組隨機(jī)變量之間的非線性關(guān)系】3、【多選題】關(guān)于典型相關(guān)分析CCA與主成分分析PCA,下面說法錯誤的是本題答案:【PCA可以視為一種降維技術(shù),CCA不可以視為一種降維技術(shù)#是否進(jìn)行歸一化,都不影響分析結(jié)果】4、【判斷題】典型相關(guān)分析適用于分析兩組變量之間的關(guān)系本題答案:【正確】5、【判斷題】對數(shù)據(jù)進(jìn)行歸一化操作會影響典型相關(guān)分析的結(jié)果本題答案:【錯誤】第八周作業(yè)第八周測驗1、【單選題】關(guān)于卷積神經(jīng)網(wǎng)絡(luò)CNN,以下說法錯誤的是:本題答案:【由于卷積核的大小一般是3*3或更大,因此卷積層得到的特征圖像一定比原圖像小?!?、【多選題】相較于傳統(tǒng)RNN,LSTM引入了獨特的門控機(jī)制。以下哪些是LSTM中包含的門結(jié)構(gòu):本題答案:【輸入門#輸出門#遺忘門】3、【多選題】關(guān)于卷積神經(jīng)網(wǎng)絡(luò)CNN與循環(huán)神經(jīng)網(wǎng)絡(luò)RNN,下面說法正確的有:本題答案:【CNN適用于圖像處理,而RNN適用于序列數(shù)據(jù)處理。#CNN和RNN都采用了權(quán)值共享機(jī)制以減少網(wǎng)絡(luò)中的參數(shù)量?!?、【判斷題】神經(jīng)網(wǎng)絡(luò)是一種模仿動物神經(jīng)網(wǎng)絡(luò)行為特征,進(jìn)行分布式并行信息處理的算法數(shù)學(xué)模型。它通過訓(xùn)練調(diào)整內(nèi)部節(jié)點之間相互連接的關(guān)系,從而達(dá)到處理信息的目的。本題答案:【正確】5、【判斷題】為了提高預(yù)測結(jié)果的精度,網(wǎng)絡(luò)結(jié)構(gòu)設(shè)置得越復(fù)雜越好,不必考慮訓(xùn)練網(wǎng)絡(luò)時所花費的時間。本題答案:【錯誤】第九周作業(yè)第九周測驗1、【單選題】關(guān)于去噪自編碼器DAE,以下說法錯誤的是:本題答案:【DAE的Loss函數(shù)用于最小化預(yù)測結(jié)果與噪聲數(shù)據(jù)間的誤差】2、【多選題】在稀疏自編碼器中,假設(shè)神經(jīng)元采用tanh作為激活函數(shù),則:本題答案:【當(dāng)神經(jīng)元的輸出接近1的時候,認(rèn)為它被激活。#當(dāng)神經(jīng)元的輸出接近-1的時候,認(rèn)為它被抑制?!?、【多選題】關(guān)于變分自編碼器VAE,以下說法正確的有:本題答案:【VAE是一類生成模型,可用于訓(xùn)練出一個樣本的生成器#

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論