華南理工大學(xué)《神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)》2021-2022學(xué)年期末試卷_第1頁
華南理工大學(xué)《神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)》2021-2022學(xué)年期末試卷_第2頁
華南理工大學(xué)《神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)》2021-2022學(xué)年期末試卷_第3頁
華南理工大學(xué)《神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)》2021-2022學(xué)年期末試卷_第4頁
全文預(yù)覽已結(jié)束

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

學(xué)校________________班級____________姓名____________考場____________準(zhǔn)考證號(hào)學(xué)校________________班級____________姓名____________考場____________準(zhǔn)考證號(hào)…………密…………封…………線…………內(nèi)…………不…………要…………答…………題…………第1頁,共3頁華南理工大學(xué)《神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)》2021-2022學(xué)年期末試卷題號(hào)一二三總分得分批閱人一、單選題(本大題共20個(gè)小題,每小題2分,共40分.在每小題給出的四個(gè)選項(xiàng)中,只有一項(xiàng)是符合題目要求的.)1、以下哪種方法可以提高深度學(xué)習(xí)模型的魯棒性?A.對抗訓(xùn)練B.模型融合C.增加訓(xùn)練輪數(shù)D.以上都是2、以下哪種神經(jīng)網(wǎng)絡(luò)常用于語音識(shí)別?()A.卷積神經(jīng)網(wǎng)絡(luò)B.循環(huán)神經(jīng)網(wǎng)絡(luò)C.生成對抗網(wǎng)絡(luò)D.自編碼器3、在卷積神經(jīng)網(wǎng)絡(luò)中,池化層的主要作用是什么?()A.增加特征數(shù)量B.減少特征數(shù)量C.增強(qiáng)特征表達(dá)D.提高計(jì)算效率4、深度學(xué)習(xí)模型在訓(xùn)練時(shí),如果驗(yàn)證集上的性能不再提升,應(yīng)該:A.繼續(xù)訓(xùn)練B.停止訓(xùn)練C.增加訓(xùn)練數(shù)據(jù)D.調(diào)整模型結(jié)構(gòu)5、以下哪種方法可以用于解決梯度消失問題?()A.使用ReLU激活函數(shù)B.增加網(wǎng)絡(luò)層數(shù)C.減小學(xué)習(xí)率D.增加訓(xùn)練數(shù)據(jù)6、深度學(xué)習(xí)模型訓(xùn)練中,早停法是為了防止:A.過擬合B.欠擬合C.計(jì)算資源浪費(fèi)D.模型復(fù)雜度過高7、深度學(xué)習(xí)中,以下哪種優(yōu)化算法可以自適應(yīng)調(diào)整每個(gè)參數(shù)的學(xué)習(xí)率?A.AdamB.RMSPropC.AdagradD.SGD8、在循環(huán)神經(jīng)網(wǎng)絡(luò)中,以下哪個(gè)門用于控制信息的遺忘?A.輸入門B.遺忘門C.輸出門D.更新門9、在深度學(xué)習(xí)框架中,TensorFlow主要的特點(diǎn)是()A.動(dòng)態(tài)圖計(jì)算B.易于調(diào)試C.高效的分布式訓(xùn)練D.以上都是10、以下哪種正則化方法可以對模型參數(shù)進(jìn)行約束?()A.L1正則化B.L2正則化C.DropoutD.以上都是11、在深度學(xué)習(xí)中,以下哪種情況可能需要進(jìn)行模型微調(diào)?A.新數(shù)據(jù)集與原數(shù)據(jù)集相似B.模型在原數(shù)據(jù)集上性能不佳C.計(jì)算資源有限D(zhuǎn).以上都不是12、在訓(xùn)練神經(jīng)網(wǎng)絡(luò)時(shí),學(xué)習(xí)率過大可能導(dǎo)致()A.收斂速度慢B.無法收斂C.收斂到局部最優(yōu)D.模型精度高13、以下哪種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)在處理圖像時(shí)具有平移不變性?A.全連接網(wǎng)絡(luò)B.卷積神經(jīng)網(wǎng)絡(luò)C.循環(huán)神經(jīng)網(wǎng)絡(luò)D.自編碼器14、在深度學(xué)習(xí)中,遷移學(xué)習(xí)的主要思路是()A.將一個(gè)模型的參數(shù)復(fù)制到另一個(gè)模型B.利用已有的模型在新數(shù)據(jù)上進(jìn)行訓(xùn)練C.同時(shí)訓(xùn)練多個(gè)模型并進(jìn)行融合D.以上都不是15、以下哪種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)可以自動(dòng)提取特征?()A.自編碼器B.多層感知機(jī)C.決策樹D.支持向量機(jī)16、以下哪種損失函數(shù)常用于二分類問題?A.均方誤差損失B.交叉熵?fù)p失C.絕對值損失D.Hinge損失17、在深度學(xué)習(xí)框架中,PyTorch的特點(diǎn)包括?()A.動(dòng)態(tài)計(jì)算圖B.易于調(diào)試C.豐富的預(yù)訓(xùn)練模型D.以上都是18、以下哪種優(yōu)化算法對學(xué)習(xí)率的自適應(yīng)調(diào)整效果較好?A.AdagradB.AdadeltaC.RMSPropD.Adam19、在深度學(xué)習(xí)中,以下哪種技術(shù)常用于解決梯度消失問題?A.LSTM單元B.批歸一化C.梯度裁剪D.以上都是20、下列關(guān)于深度學(xué)習(xí)中過擬合的描述,錯(cuò)誤的是()A.訓(xùn)練誤差小,測試誤差大B.模型過于復(fù)雜C.增加數(shù)據(jù)量可以緩解D.是期望的結(jié)果二、簡答題(本大題共4個(gè)小題,共40分)1、(本題10分)解釋如何使用深度學(xué)習(xí)進(jìn)行音頻分類。2、(本題10分)解釋在深度學(xué)習(xí)中如何應(yīng)用圖注意力網(wǎng)絡(luò)進(jìn)行圖分類。3、(本題10分)簡述深度學(xué)習(xí)中的自動(dòng)編碼器如何進(jìn)行特征提取。4、(本題10分)說明如何使用正則化方法防止深度學(xué)習(xí)模型過擬合。三、分析題(本大題共2個(gè)

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論