CNN卷積神經(jīng)網(wǎng)絡(luò)單元測(cè)試與答案_第1頁
CNN卷積神經(jīng)網(wǎng)絡(luò)單元測(cè)試與答案_第2頁
CNN卷積神經(jīng)網(wǎng)絡(luò)單元測(cè)試與答案_第3頁
CNN卷積神經(jīng)網(wǎng)絡(luò)單元測(cè)試與答案_第4頁
CNN卷積神經(jīng)網(wǎng)絡(luò)單元測(cè)試與答案_第5頁
已閱讀5頁,還剩3頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

一、單選題1、關(guān)于深度學(xué)習(xí)的說法正確的是哪個(gè)?A批規(guī)范化(batchnormalization)是在不引入新參數(shù)的情況下保證每一層網(wǎng)絡(luò)的輸入具有相同的分布B.與Sigmoid函數(shù)相比,Relu較不容易使網(wǎng)絡(luò)產(chǎn)生梯度消失C.梯度下降法實(shí)現(xiàn)簡(jiǎn)單,當(dāng)目標(biāo)函數(shù)是凸函數(shù)時(shí),可基于二階收斂快速到達(dá)目標(biāo)值D.用Sigmoid激活函數(shù)時(shí),如果權(quán)重初始化較大或較小時(shí),容易出現(xiàn)梯度飽和梯度消失,可選用Tanh函數(shù)改進(jìn)正確答案:B2、下面關(guān)于池化的描述中,錯(cuò)誤的是哪個(gè)?A.池化的常用方法包括最大化池化、最小化池化、平均化池化、全局池化B.在人臉識(shí)別中采用較多池化的原因是為了獲得人臉部的高層特征C.池化在CNN中可以減少較多的計(jì)算量,加快模型訓(xùn)練D.池化方法可以自定義正確答案:A3、下面關(guān)于CNN的描述中,錯(cuò)誤的說法是哪個(gè)?A.局部感知使網(wǎng)絡(luò)可以提取數(shù)據(jù)的局部特征,而權(quán)值共享大大降低了網(wǎng)絡(luò)的訓(xùn)練難度8.卷積核一般是有厚度的,即通道(channel),通道數(shù)量越多,獲得的特征圖(Featuremap)就越多^卷積是指對(duì)圖像的窗口數(shù)據(jù)和濾波矩陣做內(nèi)積的操作,在訓(xùn)練過程中濾波矩陣的大小和值不變D.SAME填充(padding)一般是向圖像邊緣添加0值正確答案:C4、下面關(guān)于深度學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu)的描述,正確的說法是哪個(gè)?A.在不同的網(wǎng)絡(luò)結(jié)構(gòu)中,層數(shù)與神經(jīng)元數(shù)量正相關(guān),層數(shù)越多,神經(jīng)元數(shù)量一定越多B.網(wǎng)絡(luò)結(jié)構(gòu)的層次越深,其學(xué)習(xí)的特征越多,10層的結(jié)構(gòu)要優(yōu)于5層的C.深層網(wǎng)絡(luò)結(jié)構(gòu)中,學(xué)習(xí)到的特征一般與神經(jīng)元的參數(shù)量有關(guān),也與樣本的特征多寡相關(guān)D.網(wǎng)絡(luò)的層次越深,其訓(xùn)練時(shí)間越久,5層的網(wǎng)絡(luò)要比4層的訓(xùn)練時(shí)間更長(zhǎng)正確答案:C5、假設(shè)輸入是一個(gè)300x300的彩色(RGB)圖像,使用全鏈接神經(jīng)網(wǎng)絡(luò)。如果第一個(gè)隱藏層有100個(gè)神經(jīng)元,那么這個(gè)隱藏層一共有多少個(gè)參數(shù)(包括偏置參數(shù))?A.27,000,001B.9,000,100C.27,000,100D.9,000,0016、假設(shè)輸入是一張300x300彩色圖像,第一個(gè)隱藏層使用了100個(gè)5*5卷積核做卷積操作,這個(gè)隱藏層有多少個(gè)參數(shù)(包括偏置參數(shù))?A.7601B.7600C.7500D.2501正確答案:B7、有一個(gè)44x44x16的輸入,并使用大小為5x5的32個(gè)卷積核進(jìn)行卷積,步長(zhǎng)為1,無填充(nopadding),輸出是多少?A.39*39*32B.40*40*32C.44*44*16D.29*29*32正確答案:B8、對(duì)于65x65x6的輸入特征圖,用32個(gè)5*5的卷積核(過濾器)進(jìn)行卷積,步幅為2,padding值為2,得到的特征圖大小是哪個(gè)?A.32*32*32B.33*33*32C.32*32*5D.65*65*12正確答案:B9、對(duì)于32x32x6的輸入特征圖,使用步長(zhǎng)為2,核大小為2的最大池化,請(qǐng)問輸出特征圖的大小是多少?B.32*32*3C.32*32*6D.16*16*6正確答案:D10、假設(shè)一個(gè)卷積神經(jīng)網(wǎng)絡(luò),第一個(gè)全連接層前的池化層輸出為12*12*250,其展開的向量長(zhǎng)度為?A.224B.3600C.36000D.3000正確答案:C11、假設(shè)某卷積層的輸入和輸出特征圖大小分別為63*63*6和31*31*12,卷積核大小是5*5,步長(zhǎng)為2,那么Padding值為多少?A.1B.2C.3D.4正確答案:A12、假設(shè)某卷積層的輸入特征圖大小為36*32*6,卷積核大小是5*3,通道為20個(gè),步長(zhǎng)為1,沒有padding,那么得到的特征圖大小為?A.27*30*20B.36*34*20C.32*28*613、下面哪種操作不能改善卷積網(wǎng)絡(luò)訓(xùn)練的穩(wěn)定性?A.沖量項(xiàng)84比歸一化(batchnormalization)C.動(dòng)態(tài)的學(xué)習(xí)步長(zhǎng)調(diào)整,例如AdamD提高mini-batch中的樣本個(gè)數(shù)正確答案:A14、有關(guān)卷積核的大小對(duì)卷積神經(jīng)網(wǎng)絡(luò)的影響,哪個(gè)說法是正確的?A.小的卷積核級(jí)聯(lián)的效果等價(jià)于大卷積核的效果,但權(quán)重等參數(shù)會(huì)大大減少B.過大的卷積核對(duì)應(yīng)大量的參數(shù),卷積神經(jīng)網(wǎng)絡(luò)不容易出現(xiàn)過擬合C.大的卷積核對(duì)應(yīng)的感受野比較大,更容易獲得圖像的特征D.小的卷積核可以獲得圖像比較細(xì)致的特征,它們組合起來可能降低網(wǎng)絡(luò)的分類準(zhǔn)確率正確答案:A15、對(duì)于神經(jīng)網(wǎng)絡(luò)而言,哪個(gè)不是輸入的標(biāo)準(zhǔn)化的作用?A.使得第一個(gè)隱層的輸入不至于過大或過小,提高網(wǎng)絡(luò)訓(xùn)練的收斂速度B.減少網(wǎng)絡(luò)的過擬合C.減少不同輸入特征數(shù)據(jù)量綱的差別D.降低網(wǎng)絡(luò)的計(jì)算量二、多選題1、以下有關(guān)卷積神經(jīng)網(wǎng)絡(luò)的說法,哪些是錯(cuò)誤的?A卷積核越大,即感受野越大,網(wǎng)絡(luò)需要優(yōu)化的參數(shù)越少,訓(xùn)練速度越快8.通過增加卷積核的大小和通道的個(gè)數(shù),可以提升卷積神經(jīng)網(wǎng)絡(luò)特征獲取的能力C.共享權(quán)重大大減少了參數(shù)的個(gè)數(shù),降低了網(wǎng)絡(luò)的復(fù)雜度口.卷積核中的取值都是事先人工設(shè)計(jì)的,在網(wǎng)絡(luò)的訓(xùn)練過程中不變化正確答案:A、D2、有關(guān)通道的說法,哪些說法是正確的?慶在卷積操作時(shí),每個(gè)卷積核要對(duì)輸入特征圖的所有通道分別做卷積后求和,得到對(duì)應(yīng)的新特征圖8.通道數(shù)越多,獲得的特征圖越多,網(wǎng)絡(luò)獲得的特征越充分^卷積層的輸入特征圖的通道數(shù)和輸出特征圖的通道數(shù)是相同的D.隨著卷積網(wǎng)絡(luò)深度的增加,一般使用更小的卷積核和更多的通道,兼顧訓(xùn)練速度和網(wǎng)絡(luò)分類性能正確答案:B、D3、下面有關(guān)卷積神經(jīng)網(wǎng)絡(luò)的說法哪些是正確的?A.在特征圖padding時(shí),各方向的填充像素?cái)?shù)不一定相同(不對(duì)稱填充),也不一定補(bǔ)08.在卷積神經(jīng)網(wǎng)絡(luò)中,卷積和池化的作用主要是分類,全連接層的作用主要是特征獲取^卷積神經(jīng)網(wǎng)絡(luò)的輸出層不一定用全連接網(wǎng)絡(luò),也可能得到比較好的性能口.卷積核的高和寬不一定是相等的,且一般大小取奇數(shù)正確答案:A、C、D4、以下哪些方法能改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練質(zhì)量?A.batchnomalizationB.dropoutC.增加更多的隱層數(shù),提高網(wǎng)絡(luò)的深度,深度增大性能也會(huì)不斷提升D.權(quán)重歸一化正確答案:A、B、D5、下面關(guān)于池

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論