【MOOC】紡織服裝專(zhuān)業(yè)人工智能技術(shù)導(dǎo)論-東華大學(xué) 中國(guó)大學(xué)慕課MOOC答案_第1頁(yè)
【MOOC】紡織服裝專(zhuān)業(yè)人工智能技術(shù)導(dǎo)論-東華大學(xué) 中國(guó)大學(xué)慕課MOOC答案_第2頁(yè)
【MOOC】紡織服裝專(zhuān)業(yè)人工智能技術(shù)導(dǎo)論-東華大學(xué) 中國(guó)大學(xué)慕課MOOC答案_第3頁(yè)
【MOOC】紡織服裝專(zhuān)業(yè)人工智能技術(shù)導(dǎo)論-東華大學(xué) 中國(guó)大學(xué)慕課MOOC答案_第4頁(yè)
免費(fèi)預(yù)覽已結(jié)束,剩余3頁(yè)可下載查看

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

【MOOC】紡織服裝專(zhuān)業(yè)人工智能技術(shù)導(dǎo)論-東華大學(xué)中國(guó)大學(xué)慕課MOOC答案課后自測(cè)題1、【單選題】以絨山羊/非絨山羊的分類(lèi)問(wèn)題為例,根據(jù)本章所講授的內(nèi)容及符號(hào)表達(dá)方式,回答以下問(wèn)題:(單選題)對(duì)于每一個(gè)樣本,其中,,樣本包含了個(gè)特征本題答案:【】2、【單選題】意味著該問(wèn)題屬于分類(lèi)問(wèn)題本題答案:【二元分類(lèi)問(wèn)題】3、【單選題】按照本課程約定的符號(hào)體系,若有個(gè)樣本構(gòu)成整個(gè)訓(xùn)練集,該集合可以表示為本題答案:【】4、【單選題】若將訓(xùn)練集記為矩陣X,其中包含了m個(gè)樣本,每個(gè)樣本的特征數(shù)量為個(gè),則X的維度為本題答案:【】5、【單選題】若令,且激活函數(shù)為Sigmoid,其正確計(jì)算方式為本題答案:【】6、【單選題】若令為真值y的預(yù)測(cè)值,下面關(guān)于交叉熵函數(shù)的正確計(jì)算方式為本題答案:【】7、【單選題】下面關(guān)于學(xué)習(xí)率α說(shuō)法正確的是本題答案:【學(xué)習(xí)率α需要根據(jù)實(shí)際訓(xùn)練過(guò)程的表現(xiàn)予以調(diào)?!?、【判斷題】向后傳播的推導(dǎo)過(guò)程,主要是基于鏈?zhǔn)椒▌t求偏導(dǎo),這個(gè)說(shuō)法正確嗎?本題答案:【正確】9、【判斷題】“整個(gè)訓(xùn)練集的代價(jià)函數(shù)J(w,b),實(shí)際上是全部訓(xùn)練數(shù)據(jù)的損失函數(shù)值加和之后的平均值”,這個(gè)說(shuō)法對(duì)嗎?本題答案:【正確】10、【判斷題】“在編寫(xiě)代碼之前,首先需要確定需要求解的目標(biāo)是什么。比如對(duì)于梯度下降算法而言,核心是求出dw和db,從而實(shí)現(xiàn)對(duì)w和b的更新”。這個(gè)說(shuō)法正確嗎?本題答案:【正確】課后自測(cè)題1、【單選題】1.在下圖所示的神經(jīng)網(wǎng)絡(luò)中,圓圈和箭頭的含義分別是______?本題答案:【圓圈代表神經(jīng)元,箭頭代表權(quán)重】2、【單選題】根據(jù)本單元講授的符號(hào)表達(dá)方式,的含義是____________本題答案:【第2個(gè)樣本的第3個(gè)特征在第1層神經(jīng)網(wǎng)絡(luò)中的權(quán)重值】3、【單選題】符號(hào)的含義是___________本題答案:【第層第個(gè)神經(jīng)元的激活值a】4、【單選題】圖中所示的激活函數(shù)中,哪個(gè)是tanh?本題答案:【左邊是sigmoid,右邊是tanh】5、【單選題】圖中所示的激活函數(shù),其名稱(chēng)是什么?本題答案:【ReLU】6、【單選題】根據(jù)本單元的表達(dá)方式,下圖的神經(jīng)網(wǎng)絡(luò)是___層神經(jīng)網(wǎng)絡(luò)?本題答案:【4】7、【單選題】對(duì)于第層神經(jīng)網(wǎng)絡(luò)而言,下述說(shuō)法正確的是________本題答案:【的維度為】8、【判斷題】當(dāng)神經(jīng)網(wǎng)絡(luò)由若干層組成時(shí),除了第一層的輸入是我們?cè)O(shè)置的原始特征之外,剩下的每一層的輸入,其實(shí)都是前一層所輸出的激活值。這個(gè)說(shuō)法正確與否?本題答案:【正確】9、【判斷題】在神經(jīng)網(wǎng)絡(luò)向后傳播的計(jì)算過(guò)程中,“我們需要對(duì)??求導(dǎo),因?yàn)??也是特征,有必要對(duì)其進(jìn)行優(yōu)化”,這個(gè)說(shuō)法正確嗎?本題答案:【錯(cuò)誤】10、【判斷題】“參數(shù)的維度并不隨著樣本數(shù)量的多少而改變,因?yàn)樗鼈兪巧窠?jīng)網(wǎng)絡(luò)架構(gòu)中用來(lái)調(diào)節(jié)每層神經(jīng)元對(duì)輸入特征影響的大小的?!边@個(gè)說(shuō)法正確嗎?本題答案:【正確】課后自測(cè)題1、【單選題】關(guān)于訓(xùn)練集、驗(yàn)證集、測(cè)試集,下述說(shuō)法正確的是:________本題答案:【以上都不對(duì)】2、【單選題】若數(shù)據(jù)集如圖所示,由×和○代表兩類(lèi)不同的數(shù)據(jù),下圖分別表示的是分類(lèi)過(guò)程中的哪種情況?本題答案:【左為高偏差,中為適當(dāng),右為高方差】3、【單選題】當(dāng)網(wǎng)絡(luò)初步訓(xùn)練完成,但是預(yù)測(cè)誤差較大時(shí),首先應(yīng)采取以下哪種措施?本題答案:【選擇新的網(wǎng)絡(luò)架構(gòu)】4、【單選題】當(dāng)網(wǎng)絡(luò)初步訓(xùn)練完成,且在訓(xùn)練集上表現(xiàn)良好,但是在測(cè)試集上表現(xiàn)不佳,首先應(yīng)采取以下哪種措施?本題答案:【這是高方差或者過(guò)擬合現(xiàn)象,首先應(yīng)該增加數(shù)據(jù)量或者進(jìn)行數(shù)據(jù)增廣】5、【單選題】在正則化中,,即前增加了一個(gè)系數(shù)。請(qǐng)問(wèn),這里超參數(shù)的取值范圍通常是:本題答案:【[0,1]】6、【單選題】關(guān)于神經(jīng)網(wǎng)絡(luò)的正則化方法,以下表述正確的是_____C_______。本題答案:【L2正則化、隨機(jī)失活正則化以及數(shù)據(jù)擴(kuò)增均屬于正則化方法的一種】7、【判斷題】“如果激活函數(shù)的輸入特征均經(jīng)過(guò)了零均值和標(biāo)準(zhǔn)方差化,方差是1,那么??也會(huì)調(diào)整到相似范圍,雖然沒(méi)有從根本上解決梯度消失和爆炸問(wèn)題。但它確實(shí)降低了梯度消失和爆炸產(chǎn)生的可能性”。這個(gè)說(shuō)法正確嗎?本題答案:【正確】課后自測(cè)題1、【多選題】在將數(shù)據(jù)集分割為若干個(gè)小批量后,往往訓(xùn)練時(shí)的代價(jià)函數(shù)曲線(xiàn)從下圖中左側(cè)的單一批量訓(xùn)練形態(tài),改變?yōu)橛覀?cè)所示的小批量訓(xùn)練形態(tài)。此時(shí),下述說(shuō)法正確的是:本題答案:【小批量之間彼此是相互獨(dú)立的,在第t-1個(gè)小批量上表現(xiàn)好的權(quán)重矩陣,未必在第t個(gè)小批量上也表現(xiàn)良好,反之亦然。兩個(gè)相鄰的小批量之間可能存在著起伏。#有的小批量上的數(shù)據(jù)容易訓(xùn)練,而有的小批量上的數(shù)據(jù)不容易訓(xùn)練。#由于訓(xùn)練數(shù)據(jù)都是人為標(biāo)注的,有可能存在某些小批量中,標(biāo)簽本身存在錯(cuò)誤,導(dǎo)致前一個(gè)小批量中可行的權(quán)重,在這個(gè)小批量中就是不可行的了。】2、【多選題】為了提高神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)速度,以下說(shuō)法正確的是本題答案:【從隨機(jī)梯度下降改為動(dòng)量梯度下降法,通常是一個(gè)不錯(cuò)的嘗試#從隨機(jī)梯度下降改為RMSprop梯度下降法,通常是一個(gè)不錯(cuò)的嘗試#從隨機(jī)梯度下降改為Adam梯度下降法,通常是一個(gè)不錯(cuò)的嘗試#采用學(xué)習(xí)率衰減的方式,通常是一個(gè)不錯(cuò)的嘗試】3、【判斷題】“在進(jìn)行數(shù)據(jù)準(zhǔn)備時(shí),通常通過(guò)隨機(jī)混洗(shuffle)和分區(qū)(partition)來(lái)達(dá)到較為合理的數(shù)據(jù)分布”,這個(gè)說(shuō)法正確與否?本題答案:【正確】4、【判斷題】“指數(shù)加權(quán)平均的所實(shí)現(xiàn)的是遵循指數(shù)衰減的系數(shù)與當(dāng)前值的按位相加之和”,這個(gè)說(shuō)法正確與否?本題答案:【錯(cuò)誤】5、【判斷題】“在使用指數(shù)加權(quán)平均時(shí),必須對(duì)最初階段的偏差予以修正”,這個(gè)說(shuō)法正確與否?本題答案:【錯(cuò)誤】6、【判斷題】“在動(dòng)量梯度下降法中,若參數(shù)β=0.9,則必須使用偏差修正技術(shù)”,這個(gè)說(shuō)法正確與否?本題答案:【錯(cuò)誤】7、【判斷題】“通俗地講,Adam優(yōu)化算法基本是動(dòng)量梯度下降法和RMSprop相結(jié)合的產(chǎn)物”,這個(gè)說(shuō)法正確與否?本題答案:【正確】8、【判斷題】“在大型神經(jīng)網(wǎng)絡(luò)中,由于參數(shù)眾多,此時(shí)的優(yōu)化函數(shù)往往存在于高維空間中,其優(yōu)化的難點(diǎn)其實(shí)是克服諸如平穩(wěn)段問(wèn)題”,這個(gè)說(shuō)法正確嗎?本題答案:【正確】9、【判斷題】“在許多神經(jīng)網(wǎng)絡(luò)的編程框架以及文獻(xiàn)報(bào)道中,會(huì)將梯度下降算法稱(chēng)之為優(yōu)化器(optimizer)”,這個(gè)說(shuō)法正確嗎?本題答案:【正確】10、【判斷題】“在克服平穩(wěn)段問(wèn)題時(shí),動(dòng)量梯度下降法,RMSprop梯度下降法,以及Adam梯度下降法,往往比隨機(jī)梯度下降法更為有效”,這個(gè)說(shuō)法正確嗎?本題答案:【正確】課后自測(cè)題1、【單選題】在神經(jīng)網(wǎng)絡(luò)的超參數(shù)中,以下說(shuō)法正確的是本題答案:【學(xué)習(xí)率更為重要】2、【單選題】對(duì)于測(cè)試集上批量歸一化的計(jì)算方法,下述表述正確的是________:本題答案:【通過(guò)指數(shù)加權(quán)平均的方式將計(jì)算出來(lái),并應(yīng)用于的計(jì)算中】3、【單選題】在多元分類(lèi)任務(wù)中,往往采用獨(dú)熱(one-hot)編碼的方式,即對(duì)于一個(gè)有m個(gè)樣本的訓(xùn)練集而言,若其為c分類(lèi)問(wèn)題,則Y將會(huì)是一個(gè)______的矩陣,這個(gè)矩陣中的每一列代表一個(gè)樣本,且每一列中只有一個(gè)元素為1,其他均為0。本題答案:【】4、【單選題】在Softmax分類(lèi)中,一般用到的損失函數(shù)為交叉熵的形式(cr

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論