




版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
深度學(xué)習(xí)及其應(yīng)用_復(fù)旦大學(xué)中國(guó)大學(xué)mooc課后章節(jié)答案期末考試題庫(kù)2023年GAN中的ModeCollapse問(wèn)題是指什么?
答案:
生成器只生成少數(shù)幾種樣本
有關(guān)循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)變種的說(shuō)法哪些是正確的?
答案:
RNN的變種增加了網(wǎng)絡(luò)的復(fù)雜性,訓(xùn)練過(guò)程難度一般會(huì)大一些。_RNN的變種可以在某些方面改進(jìn)RNN的不足,例如減少梯度消失、輸入句子詞匯上文文語(yǔ)義獲取等_這些RNN的變種結(jié)構(gòu)都有一定的調(diào)整,但大多都可以處理時(shí)序數(shù)據(jù)的分類(lèi)或預(yù)測(cè)問(wèn)題。
以下說(shuō)法錯(cuò)誤的有哪些?
答案:
類(lèi)似VGG、GoogLeNet等網(wǎng)絡(luò),AlexNet采用了卷積塊的結(jié)構(gòu)。_為了獲得不同尺度的特征,GoogLeNet采用了1X1,3X3,7X7等不同尺度的卷積核。_ResNet卷積神經(jīng)網(wǎng)絡(luò)使用了批量標(biāo)準(zhǔn)化(BN)增加了網(wǎng)絡(luò)的訓(xùn)練穩(wěn)定性,并像VGG算法利用了skip鏈接減少信息的損失。
循環(huán)神經(jīng)網(wǎng)絡(luò)一般可以有效處理以下哪些序列數(shù)據(jù)?
答案:
隨時(shí)間變化的數(shù)值型參數(shù)_聲音_文本數(shù)據(jù)
循環(huán)神經(jīng)網(wǎng)絡(luò)的損失函數(shù)是所有時(shí)刻的輸出誤差之和。
答案:
正確
長(zhǎng)短期記憶網(wǎng)絡(luò)(LSTM)通過(guò)遺忘門(mén)減少一般循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的短期記憶不足,但增加算法的計(jì)算復(fù)雜度。
答案:
正確
循環(huán)神經(jīng)網(wǎng)絡(luò)的深度是由RNNcell的時(shí)刻數(shù)量,或者是隱層的數(shù)量確定的,2種說(shuō)法都有一定的道理。
答案:
正確
循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)每一個(gè)時(shí)間步之間的遷移中使用了共享參數(shù)(權(quán)重等),與前饋神經(jīng)網(wǎng)絡(luò)比較更不容易引起梯度消失問(wèn)題
答案:
錯(cuò)誤
以下有關(guān)生成對(duì)抗網(wǎng)絡(luò)的說(shuō)法哪個(gè)是錯(cuò)誤的?
答案:
生成器和判別器的代價(jià)函數(shù)在訓(xùn)練過(guò)程中是同時(shí)優(yōu)化的
有關(guān)生成對(duì)抗網(wǎng)絡(luò)(GAN)的代價(jià)函數(shù),下面哪個(gè)說(shuō)法是錯(cuò)誤的?
答案:
一般來(lái)說(shuō),GAN通過(guò)訓(xùn)練總能達(dá)到代價(jià)函數(shù)的極小值
在目標(biāo)檢測(cè)算法中,IoU(IntersectionoverUnion)主要用于?
答案:
度量檢測(cè)框和真實(shí)框的重疊程度
下面哪種情況可能不能使用生成對(duì)抗網(wǎng)絡(luò)實(shí)現(xiàn)?
答案:
機(jī)器人取名字
對(duì)于生成對(duì)抗網(wǎng)絡(luò)(GAN)的訓(xùn)練,下面哪個(gè)說(shuō)法是正確的?
答案:
如果判別器發(fā)生了過(guò)擬合,那么生成器可能會(huì)生成一起很奇怪的樣本
在DCGAN中,判別器的激活函數(shù)可以使用LeakyReLU,而不采用Sigmoid的原因是以下哪個(gè)?
答案:
防止判別器在訓(xùn)練過(guò)程中發(fā)生梯度消失,降低鑒別器的能力
有關(guān)生成器和判別器的代價(jià)函數(shù),以下哪個(gè)說(shuō)法是錯(cuò)誤的?
答案:
通過(guò)一同調(diào)整生成器和判別器的權(quán)重等參數(shù),達(dá)到兩者總的代價(jià)函數(shù)平衡
有關(guān)生成器和判別器的交叉熵代價(jià)函數(shù),以下哪個(gè)說(shuō)法是錯(cuò)誤的?
答案:
當(dāng)訓(xùn)練生成器時(shí),希望判別器的輸出越逼近0越好
有關(guān)獲得較高質(zhì)量生成樣本的隱向量z的說(shuō)法,下面說(shuō)法錯(cuò)誤的是哪個(gè)?
答案:
可以隨機(jī)取值
與卷積神經(jīng)網(wǎng)絡(luò)不同,循環(huán)神經(jīng)網(wǎng)絡(luò)因?yàn)楣逃械臅r(shí)序性,很難在GPU上做并行訓(xùn)練。
答案:
正確
當(dāng)最初生成器的樣本分布與真實(shí)樣本分布不一致時(shí),以下哪個(gè)說(shuō)法是錯(cuò)誤的?
答案:
無(wú)法訓(xùn)練成功
比較自編碼器和生成對(duì)抗網(wǎng)絡(luò),以下哪個(gè)說(shuō)法是錯(cuò)誤的?
答案:
自編碼器可以作為一個(gè)生成對(duì)抗網(wǎng)絡(luò)使用
AlexNet的隱層神經(jīng)元的激活函數(shù)采用Sigmoid或Tanh。
答案:
錯(cuò)誤
增加DCGAN模型的訓(xùn)練穩(wěn)定性可以采用以下哪些措施?
答案:
生成器和判別器使用BN(batchnormalization)層_去除全連接層_使用卷積層代替池化層
以下哪些情景可以使用生成對(duì)抗網(wǎng)絡(luò)?
答案:
將衛(wèi)星圖轉(zhuǎn)化為谷歌地圖_將素描轉(zhuǎn)化為照片_將簡(jiǎn)單物體的文字描述轉(zhuǎn)化為現(xiàn)實(shí)圖片
以下哪些情景可以使用生成對(duì)抗網(wǎng)絡(luò)實(shí)現(xiàn)?
答案:
生成搞分辨率的街景_對(duì)損壞的人臉圖像進(jìn)行修復(fù)_由一個(gè)人年輕照片生成年老照片_教機(jī)器人跳舞
下面哪些是生成對(duì)抗網(wǎng)絡(luò)訓(xùn)練可能遇到的問(wèn)題?
答案:
總代價(jià)函數(shù)對(duì)生成器和判別器參數(shù)的梯度消失_生成器產(chǎn)生的樣本難以騙過(guò)判別器_生成對(duì)抗網(wǎng)絡(luò)訓(xùn)練緩慢,可能是生成器或判別器的結(jié)構(gòu)或參數(shù)設(shè)置不當(dāng)_生成器產(chǎn)生的樣本種類(lèi)單一,僅僅局限于真實(shí)樣本的局部分布
13.有關(guān)生成對(duì)抗網(wǎng)絡(luò)的訓(xùn)練,錯(cuò)誤的說(shuō)法是哪個(gè)?
答案:
類(lèi)似于卷積神經(jīng)網(wǎng)絡(luò),生成對(duì)抗網(wǎng)絡(luò)的訓(xùn)練也需要很多真實(shí)的樣本_判別網(wǎng)絡(luò)和生成網(wǎng)絡(luò)的代價(jià)函數(shù)是相同的,目標(biāo)是一致的_判別網(wǎng)絡(luò)和生成網(wǎng)絡(luò)的訓(xùn)練是并行的
生成對(duì)抗網(wǎng)絡(luò)(GAN)的判別器要區(qū)分真樣本和假樣本,因此GAN是一種監(jiān)督學(xué)習(xí)算法。
答案:
錯(cuò)誤
當(dāng)生成器和判別器的樣本分布不重疊時(shí),GAN算法的損失函數(shù)使用了JS散度的梯度始終為0,從而導(dǎo)致GAN的訓(xùn)練失敗
答案:
正確
生成對(duì)抗網(wǎng)絡(luò)是一種無(wú)監(jiān)督學(xué)習(xí)的分類(lèi)模型
答案:
錯(cuò)誤
由于生成對(duì)抗網(wǎng)絡(luò)可以生成與真實(shí)樣本相似的樣本,因此可以作為一種數(shù)據(jù)增強(qiáng)的方式,補(bǔ)充訓(xùn)練樣本的不足。
答案:
正確
生成對(duì)抗網(wǎng)絡(luò)只能處理圖像樣本,而不能處理聲音或文本等數(shù)據(jù)
答案:
錯(cuò)誤
以股票預(yù)測(cè)為例,在同樣的條件下,二維卷積的準(zhǔn)確度一定好好于一維卷積。
答案:
錯(cuò)誤
池化(下采樣)層的神經(jīng)元不具有需要優(yōu)化的參數(shù),但它們影響反向傳播的計(jì)算。
答案:
錯(cuò)誤
以下有關(guān)卷積核的說(shuō)法正確的是哪些?
答案:
使用多層小卷積堆疊可以增加網(wǎng)絡(luò)的非線性映射能力。_堆疊多層小卷積核的操作可以等同于大卷積核的操作。_使用小卷積核可以減少參數(shù)量。
下面關(guān)于池化的描述中,正確的的說(shuō)法有哪些?
答案:
池化方法也可以自定義_池化在CNN中沒(méi)有增加可訓(xùn)練的參數(shù),但減少較多的計(jì)算量,加快模型訓(xùn)練時(shí)間_在人臉識(shí)別中采用較多池化的原因是為了獲得人臉部的高層特征
以下哪些方法能改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練質(zhì)量?
答案:
權(quán)重歸一化_dropout_batchnomalization
以下哪種情況不屬于目標(biāo)檢測(cè)?
答案:
從一個(gè)人年輕照片預(yù)測(cè)未來(lái)的長(zhǎng)相
YOLOv2算法借鑒FasterRCNN算法,采用先驗(yàn)框,增加了候選區(qū)域數(shù)量,降低了召回率。
答案:
錯(cuò)誤
在卷積神經(jīng)網(wǎng)絡(luò)的深處,圖像的特征語(yǔ)義更豐富,特征圖尺度大,因此對(duì)于小物體的類(lèi)別判斷比用網(wǎng)絡(luò)的淺層特征圖性能好。
答案:
錯(cuò)誤
在遷移學(xué)習(xí)中,學(xué)習(xí)率在各個(gè)網(wǎng)絡(luò)層次可以不同,一般來(lái)說(shuō)卷積層設(shè)置的學(xué)習(xí)率更高一些,而全連接層的學(xué)習(xí)率可以適當(dāng)降低,這樣可以提高神經(jīng)網(wǎng)絡(luò)的訓(xùn)練效果。
答案:
錯(cuò)誤
在目標(biāo)檢測(cè)算法中,非極大值抑制(NMS)主要用于?
答案:
抑制重復(fù)的檢測(cè)結(jié)果
自編碼器(Autoencoder)主要用于()
答案:
特征提取和降維
以下哪個(gè)網(wǎng)絡(luò)沒(méi)有使用skipconnection?
答案:
FasterRCNN
在FasterRCNN算法中,RoIPooling的作用是以下哪項(xiàng)?
答案:
把輸入的特征圖變換得到固定尺寸的特征圖
在卷積神經(jīng)網(wǎng)絡(luò)中,最大池化可以起到減少過(guò)擬合的作用,而且豐富了特征。
答案:
錯(cuò)誤
有關(guān)語(yǔ)義分割的說(shuō)法,哪些是正確的敘述?
答案:
處理遮擋物體的分割問(wèn)題可以使用生成對(duì)抗網(wǎng)絡(luò)(GAN)_解決小物體分割可以使用空洞卷積和增大特征圖的分辨率
以下卷積神經(jīng)網(wǎng)絡(luò)模型沒(méi)有全連接隱層的是哪些?
答案:
ResNet_GoogleNet
下面哪個(gè)目標(biāo)檢測(cè)的過(guò)程
答案:
樣本選擇與預(yù)處理->區(qū)域選擇->特征獲取->分類(lèi)器分類(lèi)
長(zhǎng)短期記憶網(wǎng)絡(luò)(LSTM)中輸入門(mén)的作用是以下哪項(xiàng)?
答案:
控制對(duì)當(dāng)前時(shí)刻新輸入信息的擬合。
提升卷積神經(jīng)網(wǎng)絡(luò)對(duì)圖像的特征獲取能力有效的方法不包括以下哪些方面?
答案:
增加池化操作。
有關(guān)生成對(duì)抗網(wǎng)絡(luò)的訓(xùn)練,正確的說(shuō)法是哪個(gè)?
答案:
在訓(xùn)練時(shí),需要平衡判別網(wǎng)絡(luò)和生成網(wǎng)絡(luò)的能力
有關(guān)生成對(duì)抗網(wǎng)絡(luò)的訓(xùn)練,哪個(gè)說(shuō)法是正確的?
答案:
判別網(wǎng)絡(luò)和生成網(wǎng)絡(luò)的訓(xùn)練是交替進(jìn)行的
在長(zhǎng)短期記憶網(wǎng)絡(luò)中,使用了兩種激活函數(shù),下面哪種說(shuō)法是錯(cuò)誤的?
答案:
兩種激活函數(shù)的作用是相似的
以下哪種目標(biāo)識(shí)別算法沒(méi)有使用興趣區(qū)域(ROI)池化?
答案:
R-CNN
興趣區(qū)域(ROI)池化的作用是哪一個(gè)?
答案:
把不同大小的特征圖轉(zhuǎn)化為固定大小的向量
下面哪種目標(biāo)檢測(cè)算法需要考慮把候選區(qū)域改成統(tǒng)一的大???
答案:
R-CNN
有關(guān)通道的說(shuō)法,哪些說(shuō)法是正確的?
答案:
通道數(shù)越多,獲得的特征圖越多,網(wǎng)絡(luò)獲得的特征越充分_隨著卷積網(wǎng)絡(luò)深度的增加,一般使用更小的卷積核和更多的通道,兼顧訓(xùn)練速度和網(wǎng)絡(luò)分類(lèi)性能
假設(shè)某卷積層的輸入和輸出特征圖大小分別為63*63*6和31*31*12,卷積核大小是5*5,步長(zhǎng)為2,那么Padding值為多少?
答案:
1
以下有關(guān)卷積神經(jīng)網(wǎng)絡(luò)的說(shuō)法,哪些是錯(cuò)誤的?
答案:
卷積核中的取值都是事先人工設(shè)計(jì)的,在網(wǎng)絡(luò)的訓(xùn)練過(guò)程中不變化_卷積核越大,即感受野越大,網(wǎng)絡(luò)需要優(yōu)化的參數(shù)越少,訓(xùn)練速度越快
對(duì)于下圖的多通道卷積,其中用梯度下降法要優(yōu)化的參數(shù)(不含神經(jīng)元的偏置)是多少?【圖片】【圖片】
答案:
30
有關(guān)循環(huán)神經(jīng)網(wǎng)絡(luò)激活函數(shù)的說(shuō)法,以下哪個(gè)是錯(cuò)誤的?
答案:
Tanh函數(shù)相對(duì)于Sigmoid函數(shù)來(lái)說(shuō)梯度較小,收斂速度更快更慢
對(duì)于33x33x8的輸入特征圖,使用步長(zhǎng)為2,核大小為3*3的最大池化,請(qǐng)問(wèn)輸出特征圖的大小是多少?
答案:
15*15*8
下面有關(guān)梯度爆炸問(wèn)題的認(rèn)識(shí)哪個(gè)是正確的?
答案:
隱層的權(quán)重取值太大容易導(dǎo)致梯度爆炸,需要進(jìn)行截?cái)嗵幚?/p>
生成式對(duì)抗網(wǎng)絡(luò)中生成器和鑒別器的關(guān)系可以比喻為下列哪個(gè)?
答案:
信息安全軟件和病毒
下面關(guān)于循環(huán)神經(jīng)網(wǎng)絡(luò)RNN的描述中,錯(cuò)誤的是哪個(gè)?
答案:
RNN適合長(zhǎng)句的翻譯
對(duì)于神經(jīng)網(wǎng)絡(luò)而言,哪個(gè)不是輸入的標(biāo)準(zhǔn)化的作用?
答案:
降低網(wǎng)絡(luò)的計(jì)算量
有關(guān)卷積核的大小對(duì)卷積神經(jīng)網(wǎng)絡(luò)的影響,哪個(gè)說(shuō)法是正確的?
答案:
小的卷積核級(jí)聯(lián)的效果等價(jià)于大卷積核的效果,但權(quán)重等參數(shù)會(huì)大大減少
下面哪種操作不能改善卷積網(wǎng)絡(luò)訓(xùn)練的穩(wěn)定性?
答案:
沖量項(xiàng)
引入注意力機(jī)制后,Seq2Seq模型的上下文向量是對(duì)于解碼器的不同時(shí)刻是不同的,但訓(xùn)練后是穩(wěn)定不變的。
答案:
錯(cuò)誤
LSTM的遺忘門(mén)和輸入門(mén)都使用了哪種激活函數(shù)?
答案:
Sigmoid
假設(shè)某卷積層的輸入特征圖大小為36*32*6,卷積核大小是5*3,通道為20個(gè),步長(zhǎng)為1,沒(méi)有padding,那么得到的特征圖大小為?
答案:
32*30*20
假設(shè)一個(gè)卷積神經(jīng)網(wǎng)絡(luò),第一個(gè)全連接層前的池化層輸出為12*12*250,其展開(kāi)的向量長(zhǎng)度為?
答案:
36000
以下哪些有關(guān)提高小物體識(shí)別效果的說(shuō)法是正確的?
答案:
通過(guò)數(shù)據(jù)增強(qiáng)生成更多的小樣本圖像_增大感受野,改善小物體的特征獲取_增加圖像的分辨率
以下哪些方法可以減少深度神經(jīng)網(wǎng)絡(luò)模型的過(guò)擬合問(wèn)題?
答案:
BN(batchnormalization)_Dropout_損失函數(shù)的正則項(xiàng)
對(duì)于32x32x6的輸入特征圖,使用步長(zhǎng)為2,核大小為2的最大池化,請(qǐng)問(wèn)輸出特征圖的大小是多少?
答案:
16*16*6
Seq2seq模型是一對(duì)多對(duì)多的RNN模型組合。
答案:
錯(cuò)誤
使用帶注意力機(jī)制的Seq2Seq模型實(shí)現(xiàn)機(jī)器翻譯時(shí),增加了訓(xùn)練時(shí),但提升了翻譯的準(zhǔn)確度。
答案:
正確
Seq2Seq模型引入注意力機(jī)制后,編碼器各個(gè)時(shí)刻輸入對(duì)解碼器某個(gè)時(shí)刻輸出的影響程度可以用編碼器各個(gè)時(shí)刻隱層輸出與解碼器上一個(gè)時(shí)刻的隱層輸出計(jì)算。
答案:
正確
對(duì)于LSTM算法,注意力機(jī)制是要找出輸入序列的哪些部分或元素與輸出序列元素具有更強(qiáng)的相關(guān)性。
答案:
正確
下面關(guān)于編碼器和注意力機(jī)制的對(duì)比描述正確的說(shuō)法有哪些?
答案:
注意力機(jī)制的含義表示輸出與輸入之間的對(duì)應(yīng)關(guān)系_使用注意力機(jī)制之后會(huì)增加計(jì)算量,但是性能水平能夠得到提升
對(duì)于65x65x6的輸入特征圖,用32個(gè)5*5的卷積核(過(guò)濾器)進(jìn)行卷積,步幅為2,padding值為2,得到的特征圖大小是哪個(gè)?
答案:
33*33*32
有一個(gè)44x44x16的輸入,并使用大小為5x5的32個(gè)卷積核進(jìn)行卷積,步長(zhǎng)為1,無(wú)填充(nopadding),輸出是多少?
答案:
40*40*32
假設(shè)輸入是一張300×300彩色圖像,第一個(gè)隱藏層使用了100個(gè)5*5卷積核做卷積操作,這個(gè)隱藏層有多少個(gè)參數(shù)(包括偏置參數(shù))?
答案:
7600
假設(shè)輸入是一個(gè)300×300的彩色(RGB)圖像,使用全鏈接神經(jīng)網(wǎng)絡(luò)。如果第一個(gè)隱藏層有100個(gè)神經(jīng)元,那么這個(gè)隱藏層一共有多少個(gè)參數(shù)(包括偏置參數(shù))?
答案:
27,000,100
下面關(guān)于深度學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu)的描述,正確的說(shuō)法是哪個(gè)?
答案:
深層網(wǎng)絡(luò)結(jié)構(gòu)中,學(xué)習(xí)到的特征一般與神經(jīng)元的參數(shù)量有關(guān),也與樣本的特征多寡相關(guān)
下面哪種算法的非極大值抑制(NMS)放在邊框精修步驟的前面?
答案:
R-CNN
下面哪種目標(biāo)檢測(cè)算法候選框中的物體分類(lèi)沒(méi)有采用卷積神經(jīng)網(wǎng)絡(luò)?
答案:
R-CNN
在目標(biāo)檢測(cè)算法中,下面哪個(gè)不是把分類(lèi)和Bbox回歸的損失函數(shù)統(tǒng)一考慮的優(yōu)點(diǎn)?
答案:
減少了網(wǎng)絡(luò)的過(guò)擬合
自編碼器對(duì)樣本進(jìn)行變換得到的向量不一定能覆蓋潛在空間任意的任意采樣和插值。
答案:
正確
自編碼解碼器需要與注意力機(jī)制結(jié)合起來(lái)才能更好地?cái)M合輸入和輸出的關(guān)系
答案:
正確
有關(guān)聲音信號(hào)的處理,以下哪些說(shuō)法是正確的?
答案:
對(duì)于聲音數(shù)據(jù),可以先通過(guò)CNN來(lái)進(jìn)行高維特征的提取,再使用RNN對(duì)時(shí)間相關(guān)性進(jìn)行建模。_對(duì)于一維的聲音序列或二維的頻譜圖,都可以使用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行特征提取,學(xué)習(xí)相鄰幀的關(guān)系等。_在聲音處理中,深度神經(jīng)網(wǎng)絡(luò)的低層可以提取一些聲音的特征,而高層提取類(lèi)別間的判別信息。
下面有關(guān)編碼解碼器(自編碼器)的說(shuō)法,哪些是正確的?
答案:
自編碼器用于數(shù)據(jù)壓縮時(shí)時(shí)有損的_自編碼器可以作為一種數(shù)據(jù)降維技術(shù)_自編碼器可以用于數(shù)據(jù)去噪,即把含有噪聲的樣本還原
在帶有注意力機(jī)制的編碼解碼器中,以下哪個(gè)說(shuō)法是正確的?
答案:
在計(jì)算權(quán)重值時(shí),與當(dāng)前詞越近,權(quán)重值越大
下面哪項(xiàng)不是編碼解碼器的功能?
答案:
銀行客戶(hù)分組
下面使用深度學(xué)習(xí)做情感分析的說(shuō)法錯(cuò)誤的是哪個(gè)?
答案:
情感分析是一個(gè)分類(lèi)問(wèn)題,不需要人工標(biāo)注樣本
下面哪種算法一般不適合做微博用戶(hù)的情感分析?
答案:
編碼解碼器
下面哪個(gè)不是影響卷積神經(jīng)網(wǎng)絡(luò)性能的參數(shù)?
答案:
輸入圖片的清晰度
人工獲得聲音的特征與深度學(xué)習(xí)獲得特征相比,以下哪個(gè)說(shuō)法是正確的?
答案:
通過(guò)人工和卷積神經(jīng)網(wǎng)絡(luò)結(jié)合的方式獲得特征綜合性能更好
下面關(guān)于CNN的描述中,錯(cuò)誤的說(shuō)法是哪個(gè)?
答案:
卷積是指對(duì)圖像的窗口數(shù)據(jù)和濾波矩陣做內(nèi)積的操作,在訓(xùn)練過(guò)程中濾波矩陣的大小和值不變
關(guān)于深度學(xué)習(xí)的說(shuō)法正確的是哪個(gè)?
答案:
與Sigmoid函數(shù)相比,Relu較不容易使網(wǎng)絡(luò)產(chǎn)生梯度消失
有關(guān)深度學(xué)習(xí)的不足,以下哪些看法是正確的?
答案:
深度神經(jīng)網(wǎng)絡(luò)一般要優(yōu)化的參數(shù)眾多,因此對(duì)計(jì)算資源的要求比較高_(dá)深度學(xué)習(xí)算法可以獲得圖像、文本和聲音等數(shù)據(jù)的特征,但難以解釋這些特征_深度學(xué)習(xí)算法對(duì)數(shù)據(jù)量的要求一般都比較高,當(dāng)樣本不足時(shí)往往效果不好
深度學(xué)習(xí)算法的三要素是指以下哪些方面?
答案:
學(xué)習(xí)準(zhǔn)則_模型_優(yōu)化算法
下面哪種目標(biāo)識(shí)別算法的候選區(qū)域分類(lèi)與邊框修整是分離的?
答案:
R-CNN
下面有關(guān)R-CNN的說(shuō)法哪些是錯(cuò)誤的?
答案:
每個(gè)候選區(qū)域都要使用一個(gè)AlexNet分類(lèi)_候選區(qū)域的生成使用了選擇性搜索算法,這些候選區(qū)域產(chǎn)生后就要利用非極大值抑制篩選一部分。
與R-CNN相比,有關(guān)Fast-RCNN的說(shuō)法正確的是哪些?
答案:
Fast-RCNN將候選區(qū)域的特征獲取和分類(lèi)放在一個(gè)卷積神經(jīng)網(wǎng)絡(luò)_舍棄了R-CNN的多尺度池化,并且對(duì)全連接層矩陣相乘使用了SVD,提高了算法的速度_候選框的目標(biāo)分類(lèi)和邊框精調(diào)都由卷積神經(jīng)網(wǎng)絡(luò)承擔(dān),這也提高了算法的速度
有關(guān)YOLO(v1)算法,以下哪些說(shuō)法是正確的?
答案:
因?yàn)橐粋€(gè)網(wǎng)格對(duì)應(yīng)的邊框B通常取2,所以YOLOv1對(duì)于有重疊的物體或者是中心落在一個(gè)網(wǎng)格的小物體往往只能識(shí)別其中的一個(gè)。_由于候選區(qū)域只能從SXS個(gè)有限的網(wǎng)格選擇,因此YOLOv1算法的準(zhǔn)確性不如FasterR-CNN_候選區(qū)域生成、分類(lèi)和回歸等階段使用一個(gè)VGG16網(wǎng)絡(luò)統(tǒng)一為端對(duì)端的目標(biāo)檢測(cè)過(guò)程
假設(shè)一個(gè)全卷積神經(jīng)網(wǎng)絡(luò),全連接層前的卷積層輸出為24*24*25,其展開(kāi)的向量長(zhǎng)度為?
答案:
14400
Seq2Seq模型引入注意力機(jī)制后,解碼器某個(gè)時(shí)刻的輸入語(yǔ)義向量的權(quán)重直接影響因素是哪些?
答案:
解碼器上一時(shí)刻隱層的輸出_編碼器各個(gè)時(shí)刻隱單元的輸出
在計(jì)算上下文向量時(shí),使用了解碼器各個(gè)時(shí)刻隱層的輸出,而不是編碼器的輸入,以下哪個(gè)說(shuō)法是正確的?
答案:
可以把編碼器的輸入之間的語(yǔ)義關(guān)系與解碼器的輸出之間的語(yǔ)義關(guān)系更好地對(duì)應(yīng)
在計(jì)算上下文向量時(shí),使用了以下哪種函數(shù)?
答案:
Softmax
編碼器使用雙向LSTM的作用是以下哪項(xiàng)?
答案:
更好地?cái)M合編碼器輸入詞之間的語(yǔ)義關(guān)系
下面關(guān)于卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的描述,哪個(gè)是正確的說(shuō)法?
答案:
深層網(wǎng)絡(luò)結(jié)構(gòu)中,隱層的特征表征一般與神經(jīng)元的參數(shù)和樣本有關(guān)。
下面關(guān)于池化的描述中,錯(cuò)誤的是哪個(gè)?
答案:
池化的常用方法包括最小化池化、全局池化。
對(duì)于某深度學(xué)習(xí)模型而言,假設(shè)解決某個(gè)問(wèn)題能夠獲得的訓(xùn)練樣本比較少,類(lèi)似問(wèn)題已經(jīng)有預(yù)訓(xùn)練好的模型,西面哪種方法利用預(yù)訓(xùn)練好的模型可能獲得較好的效果?
答案:
只訓(xùn)練最后幾層神經(jīng)元
深度學(xué)習(xí)涉及大量的矩陣運(yùn)算,假設(shè)需要計(jì)算三個(gè)矩陣A,B,C的乘積為ABC,它們的尺寸分別是m*n,n*p,P*q,且m
答案:
(AB)C
以下哪些目標(biāo)檢測(cè)算法中候選區(qū)域的生成沒(méi)有采用了選擇性搜索算法?
答案:
YOLOv1_FasterR-CNN
以下哪個(gè)有關(guān)卷積神經(jīng)網(wǎng)絡(luò)的說(shuō)法是錯(cuò)誤的?
答案:
輸入一個(gè)300*300的彩色圖,經(jīng)過(guò)10個(gè)5*5的卷積核,隱層的參數(shù)量是260(含偏置)
卷積神經(jīng)網(wǎng)絡(luò)隱層神經(jīng)元的數(shù)量與下面哪些因素?zé)o關(guān)?
答案:
激活函數(shù)
區(qū)域提名算法會(huì)很大程度上影響目標(biāo)檢測(cè)算法的速度和檢測(cè)精度。
答案:
正確
目標(biāo)檢測(cè)算法的正負(fù)樣本是人工事先標(biāo)注的。
答案:
錯(cuò)誤
下面有關(guān)神經(jīng)網(wǎng)絡(luò)梯度消失說(shuō)法錯(cuò)誤的是()
答案:
網(wǎng)絡(luò)梯度消失可以通過(guò)減少隱層神經(jīng)元的個(gè)數(shù)減弱。
與FasterR-CNN相比,YOLOv1目標(biāo)檢測(cè)的速度更快的一個(gè)主要原因是省去了候選框(區(qū)域)生成步驟。
答案:
錯(cuò)誤
使用帶注意力機(jī)制的Seq2Seq模型實(shí)現(xiàn)機(jī)器翻譯時(shí),把一句中文翻譯成英語(yǔ)和法語(yǔ)時(shí),解碼器不同時(shí)刻對(duì)應(yīng)的上下文向量是以下哪種情況?
答案:
不相同
在使用SeqSeq模型實(shí)現(xiàn)機(jī)器翻譯時(shí),解碼器的輸入(非上下文向量部分)和輸出之間的映射作用是以下哪一項(xiàng)?
答案:
擬合解碼器輸出詞之間的順序關(guān)系
在SeqSeq模型中,以下有關(guān)上下文向量(語(yǔ)義表示向量)C的說(shuō)法錯(cuò)誤的是哪個(gè)?
答案:
上下文向量中的元素需要當(dāng)做網(wǎng)絡(luò)參數(shù)訓(xùn)練得到。
下面有關(guān)Seq2Seq模型的說(shuō)法哪個(gè)是錯(cuò)誤的?
答案:
引入注意力機(jī)制后,解碼器不同時(shí)刻的輸入對(duì)應(yīng)的語(yǔ)義向量是相同的。
以下哪種情景不適合采用Seq2Seq模型?
答案:
車(chē)牌識(shí)別
有關(guān)Faster-RCNN的說(shuō)法錯(cuò)誤的是哪些?
答案:
目標(biāo)分類(lèi)與邊框精修的輸入來(lái)自于區(qū)域提名網(wǎng)絡(luò)。_候選區(qū)域的生成與目標(biāo)分類(lèi)、邊框精修的工作是同一個(gè)子網(wǎng)絡(luò)完成的。
對(duì)于FastR-CNN算法,不需要在每個(gè)候選區(qū)域都使用一個(gè)卷積網(wǎng)絡(luò)進(jìn)行特征獲取。
答案:
正確
對(duì)于目標(biāo)檢測(cè)算法,非極大值抑制主要是去除冗余的邊框,一般放在候選框確定有物體和分類(lèi)后再做。
答案:
正確
在選擇深度學(xué)習(xí)開(kāi)源框架時(shí),下面哪個(gè)不是主要考慮的因素?
答案:
價(jià)格
下面哪個(gè)不是深度學(xué)習(xí)的常見(jiàn)框架?
答案:
MySQL
與傳統(tǒng)的分類(lèi)機(jī)器學(xué)習(xí)算法相比,深度學(xué)習(xí)網(wǎng)絡(luò)不同之處不是下面哪項(xiàng)?
答案:
深度學(xué)習(xí)算法不需要對(duì)數(shù)據(jù)進(jìn)行預(yù)處理
有關(guān)深度學(xué)習(xí)的說(shuō)法,哪個(gè)是正確的?
答案:
深度學(xué)習(xí)的基礎(chǔ)是神經(jīng)網(wǎng)絡(luò),因此深度學(xué)習(xí)算法基本可以使用梯度下降法
下面關(guān)于循環(huán)神經(jīng)網(wǎng)絡(luò)RNN的描述中,不正確的說(shuō)法是哪些?
答案:
在RNN的后向傳播中,累積殘差僅包括當(dāng)前時(shí)間輸出層傳回的殘差_在RNN中,每個(gè)時(shí)間步網(wǎng)絡(luò)的參數(shù)是不同的,每一時(shí)間步的輸入和輸出也是不一樣的
以下有關(guān)目標(biāo)檢測(cè)的說(shuō)法哪些是正確的?
答案:
在FasterR-CNN中,候選框是通過(guò)特征圖的點(diǎn)使用RPN(區(qū)域生成網(wǎng)絡(luò))生成。_對(duì)于YOLOv1等單階段的目標(biāo)檢測(cè)算法,不需要做區(qū)域生成(regionproposal),可以直接使用卷積網(wǎng)絡(luò)預(yù)測(cè)物體的分類(lèi)和位置。_FastR-CNN可以把selectivesearch提取的候選框通過(guò)ROIPooling轉(zhuǎn)化為固定大小的特征圖。
以下哪種問(wèn)題不適合使用深度學(xué)習(xí)解決?
答案:
銀行信用卡客戶(hù)欺詐檢測(cè)
有關(guān)數(shù)據(jù)增強(qiáng)的說(shuō)法正確是哪些?
答案:
對(duì)于分類(lèi)問(wèn)題,數(shù)據(jù)增強(qiáng)是減少數(shù)據(jù)不平衡的一種方法。_數(shù)據(jù)增強(qiáng)會(huì)增加樣本的個(gè)數(shù),因此可能會(huì)減少過(guò)擬合_對(duì)于手寫(xiě)體的識(shí)別,對(duì)樣本的反轉(zhuǎn)、旋轉(zhuǎn)、裁剪、變形和縮放等操作會(huì)提高神經(jīng)網(wǎng)絡(luò)的識(shí)別效果
減少神經(jīng)網(wǎng)絡(luò)過(guò)擬合的說(shuō)法,以下哪些是正確的?
答案:
在神經(jīng)網(wǎng)絡(luò)訓(xùn)練過(guò)程中類(lèi)似dropout減少神經(jīng)元或相關(guān)鏈接權(quán)的數(shù)量_通過(guò)正則化可以減少網(wǎng)絡(luò)參數(shù)的取值或個(gè)數(shù),一定程度可能減少過(guò)擬合_利用L1或L2正則化可以使權(quán)重衰減,從而一定程度上減少過(guò)擬合
關(guān)于模型參數(shù)(權(quán)重值)的描述,正確的說(shuō)法是哪些?
答案:
每一次Epoch都會(huì)對(duì)之前的參數(shù)進(jìn)行調(diào)整,迭代次數(shù)越多,損失函數(shù)一般越小_訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型存儲(chǔ)于一定結(jié)構(gòu)的神經(jīng)元之間的權(quán)重和神經(jīng)元的偏置中_在訓(xùn)練神經(jīng)網(wǎng)絡(luò)過(guò)程中,參數(shù)不斷調(diào)整,其調(diào)整的依據(jù)是基于損失函數(shù)不斷減少
激活函數(shù)通常具有以下哪些性質(zhì)?
答案:
可微性_單調(diào)性_非線性_計(jì)算簡(jiǎn)單
有關(guān)神經(jīng)網(wǎng)絡(luò)訓(xùn)練過(guò)程的說(shuō)法正確的是?
答案:
使用增加訓(xùn)練次數(shù)的方法不一定可以減少代價(jià)函數(shù)的取值_對(duì)神經(jīng)網(wǎng)絡(luò)訓(xùn)練的優(yōu)化需要綜合考慮激活函數(shù)、網(wǎng)絡(luò)結(jié)構(gòu)、權(quán)重更新方法等多種因素_神經(jīng)網(wǎng)絡(luò)權(quán)重的初始化大小會(huì)對(duì)網(wǎng)絡(luò)的訓(xùn)練結(jié)果影響
假設(shè)卷積神經(jīng)網(wǎng)絡(luò)某卷積層的輸入和輸出特征圖大小分別為63*63*16和33*33*64,卷積核大小是3*3,步長(zhǎng)為2,那么Padding值為多少?
答案:
2
以下有關(guān)深度神經(jīng)網(wǎng)絡(luò)超參數(shù)的說(shuō)法,錯(cuò)誤的是哪些?
答案:
批樣本的數(shù)量以及動(dòng)量參數(shù)都控制著梯度下降的方向,不會(huì)影響網(wǎng)絡(luò)訓(xùn)練的速度和效果。_卷積核的數(shù)量、卷積核的大小以及卷積核參數(shù)等都是網(wǎng)絡(luò)的超參,對(duì)網(wǎng)絡(luò)的性能都有一定的影響。
下面關(guān)于長(zhǎng)短期記憶神經(jīng)網(wǎng)絡(luò)LSTM的描述中,正確的說(shuō)法是哪些?
答案:
與RNN相比,LSTM中引入更多參數(shù),所以其訓(xùn)練周期更久_LSTM中使用Sigmoid實(shí)現(xiàn)門(mén)限控制,而用TanH實(shí)現(xiàn)數(shù)據(jù)處理_LSTM中門(mén)的開(kāi)關(guān)程度是由信息的權(quán)重決定的,即訓(xùn)練過(guò)程中記住重要信息
下面有關(guān)神經(jīng)網(wǎng)絡(luò)小批量訓(xùn)練的批量對(duì)網(wǎng)絡(luò)性能的影響說(shuō)法哪些是錯(cuò)誤的?
答案:
批量小,網(wǎng)絡(luò)訓(xùn)練樣本集損失減少越快,網(wǎng)絡(luò)泛化能力較強(qiáng)_批量小,網(wǎng)絡(luò)的準(zhǔn)確率高,訓(xùn)練速度慢一些_批量大,網(wǎng)絡(luò)檢驗(yàn)樣本集分類(lèi)準(zhǔn)確率較低,達(dá)到同樣的網(wǎng)絡(luò)分類(lèi)準(zhǔn)確率需要更多的輪次。
對(duì)于神經(jīng)網(wǎng)絡(luò)隱層神經(jīng)元的數(shù)量,如果數(shù)量太少會(huì)導(dǎo)致網(wǎng)絡(luò)擬合能力不足,數(shù)量太多會(huì)導(dǎo)致網(wǎng)絡(luò)訓(xùn)練速度慢,并且網(wǎng)絡(luò)的泛化能力可能弱。
答案:
正確
對(duì)于欠擬合的卷積神經(jīng)網(wǎng)絡(luò)模型,可以增加模型的寬度或深度,或者對(duì)數(shù)據(jù)集進(jìn)行增強(qiáng)操作。
答案:
正確
對(duì)于過(guò)擬合的卷積神經(jīng)網(wǎng)絡(luò)模型,可以增加dropout和batchnorm(BN)層,而且過(guò)擬合越嚴(yán)重,可以在越多的層增加dropout+BN。
答案:
正確
以下不屬于超參的是哪個(gè)因素?
答案:
輸出編碼形式
一個(gè)含有2個(gè)隱層的BP神經(jīng)網(wǎng)絡(luò),神經(jīng)元個(gè)數(shù)都為20,輸入和輸出節(jié)點(diǎn)分別有8和5個(gè)節(jié)點(diǎn),這個(gè)網(wǎng)絡(luò)的權(quán)重和偏置數(shù)分別是多少?
答案:
660,45
下面關(guān)于單個(gè)神經(jīng)元輸入輸出正確的是哪個(gè)?
答案:
一個(gè)神經(jīng)元可以有多個(gè)輸入和多個(gè)輸出
有關(guān)數(shù)據(jù)預(yù)處理對(duì)神經(jīng)網(wǎng)絡(luò)的影響,以下哪個(gè)說(shuō)法是錯(cuò)誤的?
答案:
BP神經(jīng)網(wǎng)絡(luò)的輸入屬性不需要篩選,因?yàn)榫W(wǎng)絡(luò)本身有特征獲取能力
梯度消失問(wèn)題的認(rèn)識(shí)哪個(gè)是正確的?
答案:
隱藏層太多時(shí),可能導(dǎo)致靠近輸入層的權(quán)重的偏導(dǎo)數(shù)太小而得不到更新
sigmoid激活函數(shù)y=1/(1+【圖片】)的導(dǎo)數(shù)是以下哪一個(gè)?
答案:
y(1-y)
有關(guān)BP網(wǎng)絡(luò)的說(shuō)法哪個(gè)是錯(cuò)誤的?
答案:
交叉熵也可以作為回歸預(yù)測(cè)問(wèn)題的損失函數(shù)
有關(guān)神經(jīng)網(wǎng)絡(luò)參數(shù)初始化的說(shuō)法錯(cuò)誤的是哪個(gè)?
答案:
權(quán)重和偏置都可以取全零初始化
有關(guān)BP神經(jīng)網(wǎng)絡(luò)的說(shuō)法,錯(cuò)誤的是哪個(gè)?
答案:
訓(xùn)練時(shí)新樣本的加入對(duì)已經(jīng)學(xué)習(xí)的結(jié)果沒(méi)什么影響
關(guān)于訓(xùn)練樣本的描述中,正確的說(shuō)法是哪個(gè)?
答案:
樣本越少,模型的方差越大
下面有關(guān)神經(jīng)網(wǎng)絡(luò)的說(shuō)法錯(cuò)誤的是?
答案:
神經(jīng)網(wǎng)絡(luò)神經(jīng)元的輸出都是傳給其他神經(jīng)元,不能再反饋回來(lái)
下面哪個(gè)選項(xiàng)不是神經(jīng)網(wǎng)絡(luò)訓(xùn)練過(guò)程中過(guò)擬合的防止方法?
答案:
增加學(xué)習(xí)率
有關(guān)神經(jīng)網(wǎng)絡(luò)訓(xùn)練時(shí)使用的學(xué)習(xí)率參數(shù)說(shuō)法錯(cuò)誤的是?
答案:
學(xué)習(xí)率過(guò)大更容易導(dǎo)致訓(xùn)練陷入局部極小值。
GoogLeNet中1X1卷積核的作用是控制輸入的通道個(gè)數(shù),減少卷積操作參數(shù),還能起到shortcut的作用
答案:
正確
大的卷積核可以獲得大粒度的特征,而小的卷積核可以獲得比較局部的圖像特征
答案:
正確
梯度消失和梯度爆炸不會(huì)導(dǎo)致下面哪種情況?
答案:
梯度爆炸會(huì)加快網(wǎng)絡(luò)訓(xùn)練,更易達(dá)到最優(yōu)解
以下哪個(gè)不是AlexNet的創(chuàng)新點(diǎn)?
答案:
共享權(quán)重
AlexNet使用ReLU激活函數(shù)的好處不包括以下哪個(gè)方面?
答案:
梯度為0時(shí)神經(jīng)元難以正常工作
在池化中,當(dāng)步長(zhǎng)小于卷積核的大小時(shí)會(huì)稱(chēng)為重疊池化。與非重疊池化相比,下面哪個(gè)不是重疊池化的優(yōu)點(diǎn)?
答案:
減少計(jì)算量
有關(guān)VGG網(wǎng)絡(luò)的說(shuō)法,以下哪個(gè)說(shuō)法是錯(cuò)誤的?
答案:
卷積層與池化層是一一配對(duì)的
VGG對(duì)圖像的分類(lèi)準(zhǔn)確度高于AlexNet的原因可能不是下面的哪一項(xiàng)?
答案:
訓(xùn)練次數(shù)多
以下卷積神經(jīng)網(wǎng)絡(luò)優(yōu)化的方法正確的是哪個(gè)?
答案:
增加池化層的個(gè)數(shù)可以提高網(wǎng)絡(luò)訓(xùn)練參數(shù),但降低了網(wǎng)絡(luò)性能
實(shí)例分割包括目標(biāo)檢測(cè)和語(yǔ)義分割,在圖像中將目標(biāo)檢測(cè)出來(lái)后,對(duì)圖像中的每個(gè)像素打上實(shí)例目標(biāo)標(biāo)簽。
答案:
正確
在神經(jīng)網(wǎng)絡(luò)的權(quán)重初始化方法中,He和Xavier初始化的權(quán)重都與相鄰兩層神經(jīng)元的個(gè)數(shù)有關(guān)。
答案:
正確
以下哪些網(wǎng)絡(luò)包含上采樣操作?
答案:
Yolov3_UNet
Seq2Seq模型引入注意力機(jī)制后,以下哪些不是解碼器某個(gè)時(shí)刻的輸入語(yǔ)義向量的權(quán)重直接影響因素?
答案:
編碼器的輸入_解碼器該時(shí)刻的輸出
有關(guān)深度神經(jīng)網(wǎng)絡(luò)預(yù)訓(xùn)練模型的說(shuō)法,正確的是哪些?
答案:
當(dāng)新的數(shù)據(jù)量少且數(shù)據(jù)與原數(shù)據(jù)集類(lèi)似,可以對(duì)輸出層訓(xùn)練即可,不需要對(duì)模型參數(shù)做過(guò)多的調(diào)整_使用預(yù)訓(xùn)練模型意味著難以自由改變網(wǎng)絡(luò)結(jié)構(gòu)和參數(shù),限制了其應(yīng)用場(chǎng)合
提高圖像分類(lèi)的準(zhǔn)確度,可以考慮以下哪些方法?
答案:
增加輸入圖像的分辨率_調(diào)整超參_數(shù)據(jù)增強(qiáng),增加訓(xùn)練數(shù)據(jù)
有關(guān)過(guò)擬合問(wèn)題的說(shuō)法哪些是正確的?
答案:
分類(lèi)算法一般都會(huì)遇到過(guò)擬合問(wèn)題_決策樹(shù)的過(guò)擬合可以采用剪枝方法
注意力機(jī)制中,Softmax函數(shù)的作用是什么?
答案:
將注意力權(quán)重歸一化
多頭注意力機(jī)制(Multi-HeadAttention)的主要作用是?
答案:
提高模型的準(zhǔn)確率
注意力機(jī)制中,Query、Key和Value的作用分別是什么?
答案:
Query和Key用于計(jì)算注意力權(quán)重,Value用于提取信息
在GAN的訓(xùn)練過(guò)程中,生成器和判別器的目標(biāo)函數(shù)分別是什么?
答案:
生成器:最小化生成樣本與真實(shí)樣本之間的差異;判別器:最大化將真實(shí)樣本和生成樣本正確分類(lèi)的概率
在深度學(xué)習(xí)中,數(shù)據(jù)增強(qiáng)的主要作用是?
答案:
提高模型預(yù)測(cè)準(zhǔn)確率
與神經(jīng)網(wǎng)絡(luò)模型泛化能力相似的說(shuō)法是哪個(gè)?
答案:
對(duì)測(cè)試樣本的推廣能力
對(duì)于YOLOv1算法,下面哪種做法可能不能增加其檢測(cè)精度?
答案:
刪除非極大值抑制步驟(NMS)
ResNet的特點(diǎn)不包括以下哪一項(xiàng)?
答案:
與VGG比較,因?yàn)槟P蜕疃仍黾?,參?shù)也明顯增加。
下面關(guān)于強(qiáng)化學(xué)習(xí)的描述中,哪個(gè)說(shuō)法是錯(cuò)誤的?
答案:
隨機(jī)策略選擇估計(jì)報(bào)酬最大的動(dòng)作
有關(guān)一般卷積神經(jīng)網(wǎng)絡(luò)的組成,下面哪種說(shuō)法是正確的?
答案:
卷積神經(jīng)網(wǎng)絡(luò)的層次結(jié)構(gòu)依次是由輸入層、卷積層、激活層、池化層和全連接層組成
假設(shè)卷積神經(jīng)網(wǎng)絡(luò)某隱層的特征圖大小是19*19*8,其中8是通道數(shù),使用大小為3*3的12個(gè)卷積核,步長(zhǎng)為2,沒(méi)有padding對(duì)此隱層進(jìn)行操作,得到的特征圖大小是?
答案:
9*9*12
卷積神經(jīng)網(wǎng)絡(luò)最后都需要2層或多層全連接層,才能起到分類(lèi)的功能
答案:
錯(cuò)誤
batchnormalization(BN)可以改善網(wǎng)絡(luò)訓(xùn)練的穩(wěn)定性,但也會(huì)一定程度上影響卷積神經(jīng)網(wǎng)絡(luò)的分類(lèi)性能
答案:
正確
交疊池化(即池化核大小比步長(zhǎng)大)可以減少特征圖的信息損失,但增加了計(jì)算量
答案:
正確
哪些權(quán)重的取值或調(diào)整方法可以改善卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練和性能?
答案:
He初始化_dropout
以下有關(guān)卷積神經(jīng)網(wǎng)絡(luò)的說(shuō)法哪些是正確的?
答案:
增加卷積神經(jīng)網(wǎng)絡(luò)每層卷積核的多樣性可以改善網(wǎng)絡(luò)的性能_采用小卷積的級(jí)聯(lián)可以起到大卷積的作用,但減少了網(wǎng)絡(luò)的參數(shù)和過(guò)擬合,因此可能獲得較高的分類(lèi)性能_單純?cè)黾泳矸e神經(jīng)網(wǎng)絡(luò)的深度不一定能獲得比較好的性能
提升卷積神經(jīng)網(wǎng)絡(luò)對(duì)圖像的特征獲取能力有效的方法包括以下哪些方面?
答案:
同一隱層組合不同大小的卷積核函數(shù)_采用shortcut等方式,隨著網(wǎng)絡(luò)層次的加深,減少特征的損失_采用不同大小的卷積:在開(kāi)始的卷積層采用大卷積核獲得粗大的特征,然后再后續(xù)的卷積層采用小卷積核獲得細(xì)致的特征
提高卷積神經(jīng)網(wǎng)絡(luò)分類(lèi)準(zhǔn)確性,以下哪些方法可能是有效的?
答案:
增加可調(diào)整參數(shù)的隱層數(shù)目_采用小卷積核,提高通道的個(gè)數(shù)_使用圖像進(jìn)行旋轉(zhuǎn)、裁剪、拉伸、裁剪等進(jìn)行樣本增強(qiáng)
關(guān)于深度學(xué)習(xí)的說(shuō)法中,下面哪些說(shuō)法是錯(cuò)誤的?
答案:
批標(biāo)準(zhǔn)化(batchnormalization)使每一和隱層的輸入具有相同的分布_用Sigmoid激活函數(shù)時(shí),如果權(quán)重初始化較大時(shí),容易出現(xiàn)梯度消失,Tanh函數(shù)可以大為改進(jìn)_當(dāng)目標(biāo)函數(shù)是凸函數(shù)時(shí),梯度下降法實(shí)現(xiàn)簡(jiǎn)單,可到達(dá)最大目標(biāo)值
對(duì)于卷積神經(jīng)網(wǎng)絡(luò)而言,減少梯度消失可以采用以下哪些方法?
答案:
skipconnection_減少網(wǎng)絡(luò)深度(隱層個(gè)數(shù))_增大學(xué)習(xí)率
ResNet的特點(diǎn)不包括以下哪一點(diǎn)?
答案:
模型參數(shù)明顯增加
ResNet中引入shortcut的功能不包括以下哪一個(gè)?
答案:
減少了計(jì)算量
對(duì)于GoogLeNet網(wǎng)絡(luò),以下哪個(gè)說(shuō)法是錯(cuò)誤的?
答案:
GoogLeNetL的兩個(gè)輔助分類(lèi)器的主要目的是增加分類(lèi)子模型,提高分類(lèi)準(zhǔn)確度
以下哪些方法可以提高深度比較大的卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練效果?
答案:
shortcut連接_dropout_正則化
以下哪些方法可以用于減少神經(jīng)網(wǎng)絡(luò)的過(guò)擬合問(wèn)題?
答案:
批標(biāo)準(zhǔn)化_數(shù)據(jù)增強(qiáng)_損失函數(shù)正則化
下面關(guān)于損失函數(shù)的描述中,正確的是哪些?
答案:
損失函數(shù)定義了機(jī)器在學(xué)習(xí)特征過(guò)程中的規(guī)則,即定義了學(xué)習(xí)的目標(biāo)。_損失函數(shù)通常作為學(xué)習(xí)準(zhǔn)則與優(yōu)化問(wèn)題相聯(lián)系,即通過(guò)最小化損失函數(shù)求解和評(píng)估模型。
下面哪個(gè)選項(xiàng)是FasterR-CNN算法的主要貢獻(xiàn)?
答案:
提出了候選區(qū)域生成網(wǎng)絡(luò)(RPN)
對(duì)于3*3的特征圖,采用dilationrate=2的空洞卷積,得到的特征圖大小是?
答案:
5*5
Softplus激活函數(shù)的表達(dá)式是哪個(gè)?
答案:
f(x)=ln?(e^x+1)
下面有關(guān)數(shù)據(jù)增強(qiáng),哪個(gè)說(shuō)法錯(cuò)誤的?
答案:
數(shù)據(jù)增強(qiáng)只有是樣本數(shù)量少的情況下執(zhí)行。
當(dāng)生成器產(chǎn)生的樣本分布與真實(shí)樣本分布不一致時(shí),以下哪個(gè)說(shuō)法是錯(cuò)誤的?
答案:
無(wú)法訓(xùn)練成功。
RCNN算法分為以下步驟,分別是:(a)提取區(qū)域提名(b)區(qū)域分類(lèi)和調(diào)邊框(c)計(jì)算CNN特征,請(qǐng)問(wèn)下列何者順序正確?
答案:
(a)(c)(b)
下面關(guān)于卷積神經(jīng)網(wǎng)絡(luò)的描述中,正確的說(shuō)法是哪些?
答案:
卷積層通道數(shù)量越多或者通道對(duì)應(yīng)的核大小越多樣,獲得的特征就越充分_SAME填充和VALID填充的主要區(qū)別是前者向圖像邊緣添加0值,而后者可能對(duì)圖像邊緣的特征獲取不足
哪些方法能減少深度學(xué)習(xí)的梯度消失問(wèn)題?
答案:
ResNet網(wǎng)絡(luò)使用的shortcut連接_使用ReLU激活函數(shù)
在RNN中,使用Attention機(jī)制的目的是?
答案:
可以提高模型的準(zhǔn)確率
門(mén)控循環(huán)單元(GRU)相比LSTM有什么不同?
答案:
GRU的計(jì)算速度更快
有關(guān)卷積神經(jīng)網(wǎng)絡(luò)的說(shuō)法哪個(gè)是正確的?
答案:
在卷積層后面使用池化操作,可以減少網(wǎng)絡(luò)可以訓(xùn)練的參數(shù)量
有一個(gè)45x45x16的特征圖輸入(16位通道數(shù)),并使用大小為3x3的64個(gè)卷積核進(jìn)行卷積,步長(zhǎng)為1,填充為1,輸出特征圖是多少?
答案:
45*45*64
假設(shè)有5個(gè)大小為5x5、ValidPadding,步長(zhǎng)(S)為1的卷積核。此時(shí)如果向這一層傳入一個(gè)維度為224x224x3的數(shù)據(jù),那么神經(jīng)網(wǎng)絡(luò)下一層的數(shù)據(jù)維度是多少?
答案:
220x220x5
下列對(duì)于生成式對(duì)抗網(wǎng)絡(luò)的敘述,哪個(gè)是錯(cuò)誤的?
答案:
僅由一個(gè)生成網(wǎng)絡(luò)與一個(gè)判別網(wǎng)絡(luò)組成
以下哪個(gè)關(guān)于卷積神經(jīng)網(wǎng)絡(luò)的說(shuō)法是錯(cuò)誤的?
答案:
卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練時(shí)值學(xué)習(xí)每層神經(jīng)元的閾值
對(duì)于某卷積層,關(guān)于卷積核大小的描述(假設(shè)通道數(shù)固定)正確的是哪個(gè)?
答案:
卷積核越小,更新參數(shù)的計(jì)算量越少,但更容易得到局部的特征。
對(duì)于卷積神經(jīng)網(wǎng)絡(luò)而言,淺層特征圖適用于目標(biāo)檢測(cè)的定位任務(wù),而深層特征圖適用于分類(lèi)任務(wù)。
答案:
正確
有些目標(biāo)檢測(cè)算法(例如SSD)提取了不同尺度的特征圖來(lái)做檢測(cè),大尺度特征圖可以用來(lái)檢測(cè)小物體,而小尺度特征圖檢測(cè)大物體。
答案:
正確
根據(jù)過(guò)去幾天的平均氣溫預(yù)測(cè)未來(lái)一天的平均氣溫可以使用循環(huán)神經(jīng)網(wǎng)絡(luò)完成
答案:
正確
GoogLeNet使用了全局平均池化替代全連接層,使網(wǎng)絡(luò)參數(shù)大幅減少。
答案:
正確
有關(guān)循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的理解,以下哪些說(shuō)法是正確的?
答案:
某個(gè)時(shí)刻t輸入和輸出之間的關(guān)系可以通過(guò)隱層神經(jīng)元擬合_對(duì)于只有在最后一個(gè)時(shí)刻有輸出的RNN,可以擬合輸入的時(shí)序數(shù)據(jù)之間的關(guān)系對(duì)應(yīng)的類(lèi)別,例如微博用戶(hù)有關(guān)某事件的情感分析_某個(gè)時(shí)刻t,隱層神經(jīng)元擬合了上一時(shí)刻輸入與輸出以及當(dāng)前輸入與輸出的關(guān)系
在卷積網(wǎng)絡(luò)中,卷積層的參數(shù)是卷積核和偏置,池化層沒(méi)有參數(shù),因此在誤差反向傳播時(shí)只要優(yōu)化卷積層的參數(shù)。
答案:
正確
下面有關(guān)卷積神經(jīng)網(wǎng)絡(luò)的說(shuō)法哪些是正確的?
答案:
在特征圖padding時(shí),各方向的填充像素?cái)?shù)不一定相同(不對(duì)稱(chēng)填充),也不一定補(bǔ)0_卷積神經(jīng)網(wǎng)絡(luò)的輸出層不一定用全連接網(wǎng)絡(luò),也可能得到比較好的性能_卷積核的高和寬不一定是相等的,且一般大小取奇數(shù)
Yolov3的改進(jìn)之一是網(wǎng)絡(luò)輸出的激活函數(shù)不再使用Softmax,而分類(lèi)損失采用二分類(lèi)交叉損失熵,以適應(yīng)有重疊的多標(biāo)簽分類(lèi)。
答案:
正確
在設(shè)計(jì)卷積神經(jīng)網(wǎng)絡(luò)時(shí),開(kāi)始時(shí)網(wǎng)絡(luò)的深度盡可能深一些,當(dāng)這個(gè)網(wǎng)絡(luò)的性能還不錯(cuò)時(shí),再考慮減少網(wǎng)絡(luò)的層次,提升準(zhǔn)確度。
答案:
錯(cuò)誤
下面哪些關(guān)于卷積神經(jīng)網(wǎng)絡(luò)的說(shuō)法是正確的?
答案:
激活函數(shù)為T(mén)anh的深層神經(jīng)網(wǎng)絡(luò)可以看成一個(gè)復(fù)合的非線性多元函數(shù)_ReLU非線性激活函數(shù)的收斂速度比Sigmoid可能快一些
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 模具專(zhuān)利權(quán)及版權(quán)聯(lián)合許可補(bǔ)充協(xié)議
- 唇腭裂公益協(xié)議書(shū)
- 電商物流配送服務(wù)創(chuàng)新與應(yīng)用合作協(xié)議
- 小動(dòng)物認(rèn)領(lǐng)協(xié)議書(shū)
- 擦玻璃安全協(xié)議書(shū)
- 股權(quán)債轉(zhuǎn)股協(xié)議書(shū)
- 找人寫(xiě)婚前協(xié)議書(shū)
- 理療店學(xué)徒協(xié)議書(shū)
- 購(gòu)買(mǎi)抵賬房協(xié)議書(shū)
- 足浴店個(gè)人轉(zhuǎn)讓協(xié)議書(shū)
- 人才盤(pán)點(diǎn)與人才儲(chǔ)備計(jì)劃設(shè)計(jì)合同
- 醫(yī)美公司保密協(xié)議書(shū)
- 道路交通安全宣傳課件
- 藝術(shù)基金授課協(xié)議書(shū)
- 2024年廣東省普寧市事業(yè)單位公開(kāi)招聘警務(wù)崗筆試題帶答案
- 《農(nóng)業(yè)機(jī)械操作培訓(xùn)》課件
- 2025委托維修服務(wù)合同模板
- 廣告設(shè)計(jì)師項(xiàng)目實(shí)操試題及答案
- 企業(yè)安全環(huán)保責(zé)任體系構(gòu)建與實(shí)施路徑
- 陜西電網(wǎng)面試試題及答案
- 2025下半年廣東省東莞市事業(yè)單位考試筆試易考易錯(cuò)模擬試題(共500題)試卷后附參考答案
評(píng)論
0/150
提交評(píng)論