




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
【MOOC答案】《深度學(xué)習(xí)及其應(yīng)用》(復(fù)旦大學(xué))章節(jié)作業(yè)慕課答案
有些題目順序不一致,下載后按鍵盤ctrl+F進(jìn)行搜索第一單元神經(jīng)網(wǎng)絡(luò)基礎(chǔ)神經(jīng)網(wǎng)絡(luò)基礎(chǔ)1.單選題:以下哪個(gè)選項(xiàng)最能描述早停(earlystopping)在解決過擬合問題中的作用?
選項(xiàng):
A、在訓(xùn)練過程中及時(shí)停止,防止模型過擬合
B、提前停止訓(xùn)練,以避免模型欠擬合
C、增加模型的復(fù)雜度,以提高泛化能力
D、增加訓(xùn)練集的大小,以減少過擬合的風(fēng)險(xiǎn)
答案:【在訓(xùn)練過程中及時(shí)停止,防止模型過擬合】2.單選題:以下哪個(gè)方法可以有效減少神經(jīng)網(wǎng)絡(luò)的過擬合?
選項(xiàng):
A、增加模型復(fù)雜度
B、增加訓(xùn)練集的大小
C、減少訓(xùn)練輪次
D、使用正則化技術(shù)
答案:【使用正則化技術(shù)】3.單選題:過擬合是指神經(jīng)網(wǎng)絡(luò)在訓(xùn)練集上表現(xiàn)良好,但在測試集上表現(xiàn)較差。以下哪個(gè)選項(xiàng)最能描述過擬合的原因?
選項(xiàng):
A、模型復(fù)雜度過低
B、模型復(fù)雜度過高
C、訓(xùn)練集和測試集之間的分布差異
D、數(shù)據(jù)量過小
答案:【模型復(fù)雜度過高】4.單選題:在梯度下降法中,以下哪種激活函數(shù)常用于處理二分類問題?
選項(xiàng):
A、Sigmoid函數(shù)
B、ReLU函數(shù)
C、Tanh函數(shù)
D、Softmax函數(shù)
答案:【Sigmoid函數(shù)】5.單選題:梯度下降法中的激活函數(shù)對于神經(jīng)網(wǎng)絡(luò)的訓(xùn)練有什么作用?
選項(xiàng):
A、增加模型的復(fù)雜度
B、控制梯度的傳播
C、加速收斂速度
D、減少過擬合的風(fēng)險(xiǎn)
答案:【控制梯度的傳播】6.單選題:在梯度下降法中,批量梯度下降(BatchGradientDescent)和隨機(jī)梯度下降(StochasticGradientDescent)的主要區(qū)別是什么?
選項(xiàng):
A、批量梯度下降使用全部訓(xùn)練數(shù)據(jù),而隨機(jī)梯度下降使用單個(gè)樣本
B、批量梯度下降只更新部分參數(shù),而隨機(jī)梯度下降更新所有參數(shù)
C、批量梯度下降收斂速度更快,而隨機(jī)梯度下降更容易陷入局部最優(yōu)
D、批量梯度下降適用于大規(guī)模數(shù)據(jù)集,而隨機(jī)梯度下降適用于小規(guī)模數(shù)據(jù)集
答案:【批量梯度下降使用全部訓(xùn)練數(shù)據(jù),而隨機(jī)梯度下降使用單個(gè)樣本】7.單選題:在BP神經(jīng)網(wǎng)絡(luò)中,用于分類的損失函數(shù)通常使用什么來衡量預(yù)測值和真實(shí)值之間的差異?
選項(xiàng):
A、均方誤差
B、交叉熵?fù)p失
C、對數(shù)損失
D、KL散度
答案:【交叉熵?fù)p失】8.單選題:BP神經(jīng)網(wǎng)絡(luò)中的隱藏層有什么作用?
選項(xiàng):
A、提取輸入數(shù)據(jù)的特征
B、執(zhí)行分類任務(wù)
C、計(jì)算輸出層的誤差
D、更新權(quán)重和偏置
答案:【提取輸入數(shù)據(jù)的特征】9.單選題:BP神經(jīng)網(wǎng)絡(luò)中進(jìn)行輸入歸一化的作用主要包括以下哪一項(xiàng)?
選項(xiàng):
A、加快模型訓(xùn)練速度
B、防止梯度消失或梯度爆炸問題
C、減少模型的復(fù)雜度
D、提高模型的可解釋性
答案:【防止梯度消失或梯度爆炸問題】10.單選題:下列哪一項(xiàng)不是BP神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)存在的問題?
選項(xiàng):
A、容易陷入局部最優(yōu)解
B、輸入數(shù)據(jù)維度過高
C、梯度消失
D、學(xué)習(xí)率選擇不當(dāng)
答案:【輸入數(shù)據(jù)維度過高】11.單選題:sigmoid激活函數(shù)y=1/(1+)的導(dǎo)數(shù)是以下哪一個(gè)?
選項(xiàng):
A、y(1-y)
B、1-
C、1+lnx
D、1-lnx
答案:【y(1-y)】12.單選題:有關(guān)BP網(wǎng)絡(luò)的說法哪個(gè)是錯(cuò)誤的?
選項(xiàng):
A、在使用梯度下降時(shí),加上沖量項(xiàng)會減少訓(xùn)練的速度,但可能會減少陷入局部極小值的可能
B、與批量梯度下降法相比,使用小批量梯度下降法可以提高訓(xùn)練速度,但達(dá)到全局最優(yōu)解可能需要更多的迭代次數(shù)
C、交叉熵也可以作為回歸預(yù)測問題的損失函數(shù)
D、神經(jīng)元的激活函數(shù)選擇影響神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過程和最終性能
答案:【交叉熵也可以作為回歸預(yù)測問題的損失函數(shù)】13.單選題:有關(guān)神經(jīng)網(wǎng)絡(luò)參數(shù)初始化的說法錯(cuò)誤的是哪個(gè)?
選項(xiàng):
A、權(quán)重和偏置都可以取全零初始化
B、使用正態(tài)分布初始化,但權(quán)重取太大或太小都會影響網(wǎng)絡(luò)的訓(xùn)練
C、Xavier初始化可以減少梯度消失
D、合適的權(quán)重初始化可以加快神經(jīng)網(wǎng)絡(luò)的訓(xùn)練和效果
答案:【權(quán)重和偏置都可以取全零初始化】14.單選題:有關(guān)BP神經(jīng)網(wǎng)絡(luò)的說法,錯(cuò)誤的是哪個(gè)?
選項(xiàng):
A、易陷入局部極小值
B、訓(xùn)練次數(shù)多,學(xué)習(xí)效率低,收斂速度慢
C、隱層節(jié)點(diǎn)的選取缺乏理論指導(dǎo)
D、訓(xùn)練時(shí)新樣本的加入對已經(jīng)學(xué)習(xí)的結(jié)果沒什么影響
答案:【訓(xùn)練時(shí)新樣本的加入對已經(jīng)學(xué)習(xí)的結(jié)果沒什么影響】15.單選題:下面哪個(gè)選項(xiàng)不是神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程中過擬合的防止方法?
選項(xiàng):
A、增加學(xué)習(xí)率
B、L2正則化
C、dropout
D、提前終止
答案:【增加學(xué)習(xí)率】16.單選題:有關(guān)神經(jīng)網(wǎng)絡(luò)訓(xùn)練時(shí)使用的學(xué)習(xí)率參數(shù)說法錯(cuò)誤的是?
選項(xiàng):
A、學(xué)習(xí)率可以與其他網(wǎng)絡(luò)參數(shù)一起訓(xùn)練,對降低代價(jià)函數(shù)是有利的。
B、學(xué)習(xí)率過大更容易導(dǎo)致訓(xùn)練陷入局部極小值。
C、學(xué)習(xí)率可以隨著訓(xùn)練誤差動(dòng)態(tài)調(diào)整效果更好。
D、網(wǎng)絡(luò)訓(xùn)練時(shí)剛開始學(xué)習(xí)率可以大一些,以便提高學(xué)習(xí)速度,隨后應(yīng)減少學(xué)習(xí)率,以免引起學(xué)習(xí)震蕩。
答案:【學(xué)習(xí)率過大更容易導(dǎo)致訓(xùn)練陷入局部極小值?!?7.單選題:以下不屬于超參的是哪個(gè)因素?
選項(xiàng):
A、激活函數(shù)
B、學(xué)習(xí)步長(率)和沖量引子
C、輸出編碼形式
D、mini-batch的樣本數(shù)
答案:【輸出編碼形式】18.單選題:一個(gè)含有2個(gè)隱層的BP神經(jīng)網(wǎng)絡(luò),神經(jīng)元個(gè)數(shù)都為20,輸入和輸出節(jié)點(diǎn)分別有8和5個(gè)節(jié)點(diǎn),這個(gè)網(wǎng)絡(luò)的權(quán)重和偏置數(shù)分別是多少?
選項(xiàng):
A、660,45
B、3200,45
C、16000,48
D、3000,32
答案:【660,45】19.單選題:下面關(guān)于單個(gè)神經(jīng)元輸入輸出正確的是哪個(gè)?
選項(xiàng):
A、一個(gè)神經(jīng)元只能擁有一個(gè)輸入和一個(gè)輸出
B、一個(gè)神經(jīng)元只能擁有一個(gè)輸入但可以有多個(gè)輸出
C、一個(gè)神經(jīng)元可以有多個(gè)輸入和多個(gè)輸出
D、一個(gè)神經(jīng)元可以擁有多個(gè)輸入但只有一個(gè)輸出
答案:【一個(gè)神經(jīng)元可以有多個(gè)輸入和多個(gè)輸出】20.單選題:有關(guān)數(shù)據(jù)預(yù)處理對神經(jīng)網(wǎng)絡(luò)的影響,以下哪個(gè)說法是錯(cuò)誤的?
選項(xiàng):
A、對于非數(shù)值型的屬性,可以使用獨(dú)熱(onehot)編碼或模糊化轉(zhuǎn)換成數(shù)值
B、連續(xù)性屬性可以采用最小最大值歸一化,減少數(shù)值過大和不同屬性量綱不同對網(wǎng)絡(luò)的影響
C、預(yù)處理與否對神經(jīng)網(wǎng)絡(luò)的訓(xùn)練速度和分類準(zhǔn)確率影響比較大
D、BP神經(jīng)網(wǎng)絡(luò)的輸入屬性不需要篩選,因?yàn)榫W(wǎng)絡(luò)本身有特征獲取能力
答案:【BP神經(jīng)網(wǎng)絡(luò)的輸入屬性不需要篩選,因?yàn)榫W(wǎng)絡(luò)本身有特征獲取能力】21.單選題:梯度消失問題的認(rèn)識哪個(gè)是正確的?
選項(xiàng):
A、隱藏層太多時(shí),可能導(dǎo)致靠近輸入層的權(quán)重的偏導(dǎo)數(shù)太小而得不到更新
B、神經(jīng)元處于Sigmoid等激活函數(shù)的飽和區(qū)工作
C、隱藏層神經(jīng)元的個(gè)數(shù)太多導(dǎo)致
D、隱層的權(quán)重取值太小不容易導(dǎo)致梯度消失
答案:【隱藏層太多時(shí),可能導(dǎo)致靠近輸入層的權(quán)重的偏導(dǎo)數(shù)太小而得不到更新】22.多選題:減少神經(jīng)網(wǎng)絡(luò)過擬合的說法,以下哪些是正確的?
選項(xiàng):
A、通過正則化可以減少網(wǎng)絡(luò)參數(shù)的取值或個(gè)數(shù),一定程度可能減少過擬合
B、通過增加數(shù)據(jù)擾動(dòng)的數(shù)據(jù)增強(qiáng)增加了神經(jīng)網(wǎng)絡(luò)的過擬合
C、利用L1或L2正則化可以使權(quán)重衰減,從而一定程度上減少過擬合
D、在神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程中類似dropout減少神經(jīng)元或相關(guān)鏈接權(quán)的數(shù)量
答案:【通過正則化可以減少網(wǎng)絡(luò)參數(shù)的取值或個(gè)數(shù),一定程度可能減少過擬合;利用L1或L2正則化可以使權(quán)重衰減,從而一定程度上減少過擬合;在神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程中類似dropout減少神經(jīng)元或相關(guān)鏈接權(quán)的數(shù)量】23.多選題:有關(guān)數(shù)據(jù)增強(qiáng)的說法正確是哪些?
選項(xiàng):
A、對于分類問題,數(shù)據(jù)增強(qiáng)是減少數(shù)據(jù)不平衡的一種方法。
B、對于手寫體的識別,對樣本的反轉(zhuǎn)、旋轉(zhuǎn)、裁剪、變形和縮放等操作會提高神經(jīng)網(wǎng)絡(luò)的識別效果
C、數(shù)據(jù)增強(qiáng)會增加樣本的個(gè)數(shù),因此可能會減少過擬合
D、數(shù)據(jù)增強(qiáng)帶來了噪聲,因此一般會降低神經(jīng)網(wǎng)絡(luò)模型的效果
答案:【對于分類問題,數(shù)據(jù)增強(qiáng)是減少數(shù)據(jù)不平衡的一種方法。;對于手寫體的識別,對樣本的反轉(zhuǎn)、旋轉(zhuǎn)、裁剪、變形和縮放等操作會提高神經(jīng)網(wǎng)絡(luò)的識別效果;數(shù)據(jù)增強(qiáng)會增加樣本的個(gè)數(shù),因此可能會減少過擬合】24.單選題:BP網(wǎng)絡(luò)的訓(xùn)練過程實(shí)質(zhì)上是網(wǎng)絡(luò)權(quán)重和神經(jīng)元偏置組成的損失函數(shù)最小化的計(jì)算過程。
選項(xiàng):
A、正確
B、錯(cuò)誤
答案:【正確】25.單選題:神經(jīng)網(wǎng)絡(luò)的全連接是指網(wǎng)絡(luò)的任一層的每一個(gè)神經(jīng)元與上一層(加入存在的話)的神經(jīng)元都有連接。
選項(xiàng):
A、正確
B、錯(cuò)誤
答案:【正確】第二單元深度學(xué)習(xí)在人工智能中的應(yīng)用深度學(xué)習(xí)的應(yīng)用1.單選題:有關(guān)深度學(xué)習(xí)的說法,哪個(gè)是正確的?
選項(xiàng):
A、深度學(xué)習(xí)可以解決任意的機(jī)器學(xué)習(xí)問題
B、深度學(xué)習(xí)比較適合處理有大量樣本的視頻、圖像、聲音、文本等多模態(tài)數(shù)據(jù)的分析,這些數(shù)據(jù)的分析需要人工進(jìn)行特征提取,這是與傳統(tǒng)的機(jī)器學(xué)習(xí)不同的
C、對于分類問題,深度學(xué)習(xí)算法一定優(yōu)于傳統(tǒng)的機(jī)器學(xué)習(xí)算法
D、深度學(xué)習(xí)的基礎(chǔ)是神經(jīng)網(wǎng)絡(luò),因此深度學(xué)習(xí)算法基本可以使用梯度下降法
答案:【深度學(xué)習(xí)的基礎(chǔ)是神經(jīng)網(wǎng)絡(luò),因此深度學(xué)習(xí)算法基本可以使用梯度下降法】2.單選題:有關(guān)人工智能、深度學(xué)習(xí)和機(jī)器學(xué)習(xí)的關(guān)系,以下哪個(gè)認(rèn)識是錯(cuò)誤的?
選項(xiàng):
A、機(jī)器學(xué)習(xí)是人工智能的核心技術(shù)之一,也是實(shí)現(xiàn)人工智能的重要基礎(chǔ)。
B、深度學(xué)習(xí)與機(jī)器學(xué)習(xí)是相對獨(dú)立的技術(shù)
C、深度學(xué)習(xí)算法和傳統(tǒng)的機(jī)器學(xué)習(xí)算法構(gòu)成了機(jī)器學(xué)習(xí)理論體系
D、深度學(xué)習(xí)是處理計(jì)算機(jī)視覺、聽覺和文字的有效機(jī)器學(xué)習(xí)技術(shù),促進(jìn)了人工智能的應(yīng)用和發(fā)展
答案:【深度學(xué)習(xí)與機(jī)器學(xué)習(xí)是相對獨(dú)立的技術(shù)】3.單選題:以下哪種問題不適合使用深度學(xué)習(xí)解決?
選項(xiàng):
A、人臉識別
B、銀行信用卡客戶欺詐檢測
C、自動(dòng)導(dǎo)播語音合成
D、機(jī)器人寫·詩
答案:【銀行信用卡客戶欺詐檢測】4.單選題:深度學(xué)習(xí)模型中的“深度”一詞指的是什么?
選項(xiàng):
A、模型中隱藏層的數(shù)量
B、模型的計(jì)算復(fù)雜度
C、模型所需的數(shù)據(jù)量
D、模型訓(xùn)練的時(shí)間
答案:【模型中隱藏層的數(shù)量】5.單選題:深度學(xué)習(xí)在人工智能中的應(yīng)用范圍較廣,其中包括:
選項(xiàng):
A、語音識別和圖像處理
B、邏輯推理和問題解決
C、數(shù)據(jù)庫管理和數(shù)據(jù)挖掘
D、網(wǎng)絡(luò)安全和密碼學(xué)
答案:【語音識別和圖像處理】6.單選題:以下哪個(gè)框架不是深度學(xué)習(xí)框架?
選項(xiàng):
A、TensorFlow
B、PyTorch
C、Keras
D、Scikit-learn
答案:【Scikit-learn】7.單選題:在選擇深度學(xué)習(xí)開源框架時(shí),下面哪個(gè)不是主要考慮的因素?
選項(xiàng):
A、易用性
B、效率高
C、容易學(xué)習(xí)、功能多
D、價(jià)格
答案:【價(jià)格】8.單選題:下面哪個(gè)不是深度學(xué)習(xí)的常見框架?
選項(xiàng):
A、PaddlePaddle
B、TensorFlow
C、MySQL
D、Pytorch
答案:【MySQL】9.單選題:與傳統(tǒng)的分類機(jī)器學(xué)習(xí)算法相比,深度學(xué)習(xí)網(wǎng)絡(luò)不同之處不是下面哪項(xiàng)?
選項(xiàng):
A、不需要人工進(jìn)行特征工程,深度學(xué)習(xí)算法本身具有一定的特征提取能力
B、深度學(xué)習(xí)算法需要的數(shù)據(jù)量和算力更大,但性能更好
C、深度學(xué)習(xí)算法不需要對數(shù)據(jù)進(jìn)行預(yù)處理
D、深度學(xué)習(xí)的算法解釋性一般比較弱,對數(shù)據(jù)依賴性強(qiáng)
答案:【深度學(xué)習(xí)算法不需要對數(shù)據(jù)進(jìn)行預(yù)處理】10.單選題:以下哪種方法不是用于提升深度學(xué)習(xí)模型泛化能力的技術(shù)?
選項(xiàng):
A、早期停止(EarlyStopping)
B、數(shù)據(jù)增強(qiáng)(DataAugmentation)
C、增大模型復(fù)雜度(IncreasingModelComplexity)
D、Dropout正則化(DropoutRegularization)
答案:【增大模型復(fù)雜度(IncreasingModelComplexity)】11.單選題:在深度學(xué)習(xí)模型訓(xùn)練中,使用哪種策略可以幫助加速模型的收斂?
選項(xiàng):
A、減小學(xué)習(xí)率
B、增加模型層數(shù)
C、減少訓(xùn)練數(shù)據(jù)量
D、使用動(dòng)量(Momentum)或Adam優(yōu)化器
答案:【使用動(dòng)量(Momentum)或Adam優(yōu)化器】12.多選題:有關(guān)深度學(xué)習(xí)的不足,以下哪些看法是正確的?
選項(xiàng):
A、深度學(xué)習(xí)算法對數(shù)據(jù)量的要求一般都比較高,當(dāng)樣本不足時(shí)往往效果不好
B、深度神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)一般比較復(fù)雜,訓(xùn)練速度快
C、深度神經(jīng)網(wǎng)絡(luò)一般要優(yōu)化的參數(shù)眾多,因此對計(jì)算資源的要求比較高
D、深度學(xué)習(xí)算法可以獲得圖像、文本和聲音等數(shù)據(jù)的特征,但難以解釋這些特征
答案:【深度學(xué)習(xí)算法對數(shù)據(jù)量的要求一般都比較高,當(dāng)樣本不足時(shí)往往效果不好;深度神經(jīng)網(wǎng)絡(luò)一般要優(yōu)化的參數(shù)眾多,因此對計(jì)算資源的要求比較高;深度學(xué)習(xí)算法可以獲得圖像、文本和聲音等數(shù)據(jù)的特征,但難以解釋這些特征】13.多選題:深度學(xué)習(xí)算法的三要素是指以下哪些方面?
選項(xiàng):
A、模型
B、學(xué)習(xí)準(zhǔn)則
C、數(shù)據(jù)
D、優(yōu)化算法
答案:【模型;學(xué)習(xí)準(zhǔn)則;優(yōu)化算法】第三單元卷積神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)及其應(yīng)用1.單選題:對于神經(jīng)網(wǎng)絡(luò)而言,哪個(gè)不是輸入的標(biāo)準(zhǔn)化的作用?
選項(xiàng):
A、減少不同輸入特征數(shù)據(jù)量綱的差別
B、使得第一個(gè)隱層的輸入不至于過大或過小,提高網(wǎng)絡(luò)訓(xùn)練的收斂速度
C、降低網(wǎng)絡(luò)的計(jì)算量
D、減少網(wǎng)絡(luò)的過擬合
答案:【降低網(wǎng)絡(luò)的計(jì)算量】2.單選題:有關(guān)卷積核的大小對卷積神經(jīng)網(wǎng)絡(luò)的影響,哪個(gè)說法是正確的?
選項(xiàng):
A、大的卷積核對應(yīng)的感受野比較大,更容易獲得圖像的特征
B、小的卷積核級聯(lián)的效果等價(jià)于大卷積核的效果,但權(quán)重等參數(shù)會大大減少
C、過大的卷積核對應(yīng)大量的參數(shù),卷積神經(jīng)網(wǎng)絡(luò)不容易出現(xiàn)過擬合
D、小的卷積核可以獲得圖像比較細(xì)致的特征,它們組合起來可能降低網(wǎng)絡(luò)的分類準(zhǔn)確率
答案:【小的卷積核級聯(lián)的效果等價(jià)于大卷積核的效果,但權(quán)重等參數(shù)會大大減少】3.單選題:下面哪種操作不能改善卷積網(wǎng)絡(luò)訓(xùn)練的穩(wěn)定性?
選項(xiàng):
A、批歸一化(batchnormalization)
B、動(dòng)態(tài)的學(xué)習(xí)步長調(diào)整,例如Adam
C、沖量項(xiàng)
D、提高mini-batch中的樣本個(gè)數(shù)
答案:【沖量項(xiàng)】4.單選題:對于下圖的多通道卷積,其中用梯度下降法要優(yōu)化的參數(shù)(不含神經(jīng)元的偏置)是多少?
選項(xiàng):
A、30
B、27
C、75
D、78
答案:【27】5.單選題:對于65x65x6的輸入特征圖,用32個(gè)5*5的卷積核(過濾器)進(jìn)行卷積,步幅為2,padding值為2,得到的特征圖大小是哪個(gè)?
選項(xiàng):
A、33*33*32
B、32*32*32
C、65*65*12
D、32*32*5
答案:【33*33*32】6.單選題:有一個(gè)44x44x16的輸入,并使用大小為5x5的32個(gè)卷積核進(jìn)行卷積,步長為1,無填充(nopadding),輸出是多少?
選項(xiàng):
A、29*29*32
B、39*39*32
C、44*44*16
D、40*40*32
答案:【40*40*32】7.單選題:假設(shè)輸入是一張300×300彩色圖像,第一個(gè)隱藏層使用了100個(gè)5*5卷積核做卷積操作,這個(gè)隱藏層有多少個(gè)參數(shù)(包括偏置參數(shù))?
選項(xiàng):
A、2501
B、7601
C、7500
D、7600
答案:【7600】8.單選題:假設(shè)輸入是一個(gè)300×300的彩色(RGB)圖像,使用全鏈接神經(jīng)網(wǎng)絡(luò)。如果第一個(gè)隱藏層有100個(gè)神經(jīng)元,那么這個(gè)隱藏層一共有多少個(gè)參數(shù)(包括偏置參數(shù))?
選項(xiàng):
A、9,000,001
B、9,000,100
C、27,000,001
D、27,000,100
答案:【27,000,100】9.單選題:下面關(guān)于深度學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu)的描述,正確的說法是哪個(gè)?
選項(xiàng):
A、網(wǎng)絡(luò)的層次越深,其訓(xùn)練時(shí)間越久,5層的網(wǎng)絡(luò)要比4層的訓(xùn)練時(shí)間更長
B、深層網(wǎng)絡(luò)結(jié)構(gòu)中,學(xué)習(xí)到的特征一般與神經(jīng)元的參數(shù)量有關(guān),也與樣本的特征多寡相關(guān)
C、網(wǎng)絡(luò)結(jié)構(gòu)的層次越深,其學(xué)習(xí)的特征越多,10層的結(jié)構(gòu)要優(yōu)于5層的
D、在不同的網(wǎng)絡(luò)結(jié)構(gòu)中,層數(shù)與神經(jīng)元數(shù)量正相關(guān),層數(shù)越多,神經(jīng)元數(shù)量一定越多
答案:【深層網(wǎng)絡(luò)結(jié)構(gòu)中,學(xué)習(xí)到的特征一般與神經(jīng)元的參數(shù)量有關(guān),也與樣本的特征多寡相關(guān)】10.單選題:下面關(guān)于CNN的描述中,錯(cuò)誤的說法是哪個(gè)?
選項(xiàng):
A、SAME填充(padding)一般是向圖像邊緣添加0值
B、卷積是指對圖像的窗口數(shù)據(jù)和濾波矩陣做內(nèi)積的操作,在訓(xùn)練過程中濾波矩陣的大小和值不變
C、局部感知使網(wǎng)絡(luò)可以提取數(shù)據(jù)的局部特征,而權(quán)值共享大大降低了網(wǎng)絡(luò)的訓(xùn)練難度
D、卷積核一般是有厚度的,即通道(channel),通道數(shù)量越多,獲得的特征圖(Featuremap)就越多
答案:【卷積是指對圖像的窗口數(shù)據(jù)和濾波矩陣做內(nèi)積的操作,在訓(xùn)練過程中濾波矩陣的大小和值不變】11.單選題:下面關(guān)于池化的描述中,錯(cuò)誤的是哪個(gè)?
選項(xiàng):
A、池化方法可以自定義
B、池化在CNN中可以減少較多的計(jì)算量,加快模型訓(xùn)練
C、在人臉識別中采用較多池化的原因是為了獲得人臉部的高層特征
D、池化的常用方法包括最大化池化、最小化池化、平均化池化、全局池化
答案:【池化的常用方法包括最大化池化、最小化池化、平均化池化、全局池化】12.單選題:關(guān)于深度學(xué)習(xí)的說法正確的是哪個(gè)?
選項(xiàng):
A、用Sigmoid激活函數(shù)時(shí),如果權(quán)重初始化較大或較小時(shí),容易出現(xiàn)梯度飽和梯度消失,可選用Tanh函數(shù)改進(jìn)
B、批規(guī)范化(batchnormalization)是在不引入新參數(shù)的情況下保證每一層網(wǎng)絡(luò)的輸入具有相同的分布
C、與Sigmoid函數(shù)相比,Relu較不容易使網(wǎng)絡(luò)產(chǎn)生梯度消失
D、梯度下降法實(shí)現(xiàn)簡單,當(dāng)目標(biāo)函數(shù)是凸函數(shù)時(shí),可基于二階收斂快速到達(dá)目標(biāo)值
答案:【與Sigmoid函數(shù)相比,Relu較不容易使網(wǎng)絡(luò)產(chǎn)生梯度消失】13.單選題:假設(shè)某卷積層的輸入特征圖大小為36*32*6,卷積核大小是5*3,通道為20個(gè),步長為1,沒有padding,那么得到的特征圖大小為?
選項(xiàng):
A、32*30*20
B、27*30*20
C、32*28*6
D、36*34*20
答案:【32*30*20】14.單選題:假設(shè)某卷積層的輸入和輸出特征圖大小分別為63*63*6和31*31*12,卷積核大小是5*5,步長為2,那么Padding值為多少?
選項(xiàng):
A、1
B、2
C、3
D、4
答案:【1】15.單選題:假設(shè)一個(gè)卷積神經(jīng)網(wǎng)絡(luò),第一個(gè)全連接層前的池化層輸出為12*12*250,其展開的向量長度為?
選項(xiàng):
A、36000
B、224
C、3000
D、3600
答案:【36000】16.單選題:對于32x32x6的輸入特征圖,使用步長為2,核大小為2的最大池化,請問輸出特征圖的大小是多少?
選項(xiàng):
A、16*16*6
B、32*32*3
C、16*16*3
D、32*32*6
答案:【16*16*6】17.多選題:以下有關(guān)卷積核的說法正確的是哪些?
選項(xiàng):
A、堆疊多層小卷積核的操作可以等同于大卷積核的操作。
B、使用小卷積核可以減少參數(shù)量。
C、使用多層小卷積堆疊可以增加網(wǎng)絡(luò)的非線性映射能力。
D、卷積核網(wǎng)絡(luò)性能越大越好。
答案:【堆疊多層小卷積核的操作可以等同于大卷積核的操作。;使用小卷積核可以減少參數(shù)量。;使用多層小卷積堆疊可以增加網(wǎng)絡(luò)的非線性映射能力?!?8.多選題:下面關(guān)于池化的描述中,正確的的說法有哪些?
選項(xiàng):
A、池化方法也可以自定義
B、池化在CNN中沒有增加可訓(xùn)練的參數(shù),但減少較多的計(jì)算量,加快模型訓(xùn)練時(shí)間
C、在人臉識別中采用較多池化的原因是為了獲得人臉部的高層特征
D、池化的常用方法包括最大化池化、最小化池化、平均化池化、全局池化
答案:【池化方法也可以自定義;池化在CNN中沒有增加可訓(xùn)練的參數(shù),但減少較多的計(jì)算量,加快模型訓(xùn)練時(shí)間;在人臉識別中采用較多池化的原因是為了獲得人臉部的高層特征】19.多選題:以下哪些方法能改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練質(zhì)量?
選項(xiàng):
A、權(quán)重歸一化
B、dropout
C、batchnomalization
D、增加更多的隱層數(shù),提高網(wǎng)絡(luò)的深度,深度增大性能也會不斷提升
答案:【權(quán)重歸一化;dropout;batchnomalization】20.多選題:下面有關(guān)卷積神經(jīng)網(wǎng)絡(luò)的說法哪些是正確的?
選項(xiàng):
A、卷積核的高和寬不一定是相等的,且一般大小取奇數(shù)
B、在特征圖padding時(shí),各方向的填充像素?cái)?shù)不一定相同(不對稱填充),也不一定補(bǔ)0
C、在卷積神經(jīng)網(wǎng)絡(luò)中,卷積和池化的作用主要是分類,全連接層的作用主要是特征獲取
D、卷積神經(jīng)網(wǎng)絡(luò)的輸出層不一定用全連接網(wǎng)絡(luò),也可能得到比較好的性能
答案:【卷積核的高和寬不一定是相等的,且一般大小取奇數(shù);在特征圖padding時(shí),各方向的填充像素?cái)?shù)不一定相同(不對稱填充),也不一定補(bǔ)0;卷積神經(jīng)網(wǎng)絡(luò)的輸出層不一定用全連接網(wǎng)絡(luò),也可能得到比較好的性能】21.多選題:有關(guān)通道的說法,哪些說法是正確的?
選項(xiàng):
A、卷積層的輸入特征圖的通道數(shù)和輸出特征圖的通道數(shù)是相同的
B、通道數(shù)越多,獲得的特征圖越多,網(wǎng)絡(luò)獲得的特征越充分
C、隨著卷積網(wǎng)絡(luò)深度的增加,一般使用更小的卷積核和更多的通道,兼顧訓(xùn)練速度和網(wǎng)絡(luò)分類性能
D、在卷積操作時(shí),每個(gè)卷積核要對輸入特征圖的所有通道分別做卷積后求和,得到對應(yīng)的新特征圖
答案:【通道數(shù)越多,獲得的特征圖越多,網(wǎng)絡(luò)獲得的特征越充分;隨著卷積網(wǎng)絡(luò)深度的增加,一般使用更小的卷積核和更多的通道,兼顧訓(xùn)練速度和網(wǎng)絡(luò)分類性能】22.多選題:以下有關(guān)卷積神經(jīng)網(wǎng)絡(luò)的說法,哪些是錯(cuò)誤的?
選項(xiàng):
A、卷積核中的取值都是事先人工設(shè)計(jì)的,在網(wǎng)絡(luò)的訓(xùn)練過程中不變化
B、共享權(quán)重大大減少了參數(shù)的個(gè)數(shù),降低了網(wǎng)絡(luò)的復(fù)雜度
C、通過增加卷積核的大小和通道的個(gè)數(shù),可以提升卷積神經(jīng)網(wǎng)絡(luò)特征獲取的能力
D、卷積核越大,即感受野越大,網(wǎng)絡(luò)需要優(yōu)化的參數(shù)越少,訓(xùn)練速度越快
答案:【卷積核中的取值都是事先人工設(shè)計(jì)的,在網(wǎng)絡(luò)的訓(xùn)練過程中不變化;卷積核越大,即感受野越大,網(wǎng)絡(luò)需要優(yōu)化的參數(shù)越少,訓(xùn)練速度越快】23.單選題:以股票預(yù)測為例,在同樣的條件下,二維卷積的準(zhǔn)確度一定好好于一維卷積。
選項(xiàng):
A、正確
B、錯(cuò)誤
答案:【錯(cuò)誤】24.單選題:在卷積網(wǎng)絡(luò)中,卷積層的參數(shù)是卷積核和偏置,池化層沒有參數(shù),因此在誤差反向傳播時(shí)只要優(yōu)化卷積層的參數(shù)。
選項(xiàng):
A、正確
B、錯(cuò)誤
答案:【正確】25.單選題:GoogLeNet使用了全局平均池化替代全連接層,使網(wǎng)絡(luò)參數(shù)大幅減少。
選項(xiàng):
A、正確
B、錯(cuò)誤
答案:【正確】26.單選題:池化(下采樣)層的神經(jīng)元不具有需要優(yōu)化的參數(shù),但它們影響反向傳播的計(jì)算。
選項(xiàng):
A、正確
B、錯(cuò)誤
答案:【錯(cuò)誤】第四單元典型卷積神經(jīng)網(wǎng)絡(luò)算法典型卷積神經(jīng)網(wǎng)絡(luò)算法1.單選題:AlexNet使用ReLU激活函數(shù)的好處不包括以下哪個(gè)方面?
選項(xiàng):
A、緩解了梯度消失問題
B、提高l網(wǎng)絡(luò)訓(xùn)練速度
C、梯度為0時(shí)神經(jīng)元難以正常工作
D、開銷小、計(jì)算快
答案:【梯度為0時(shí)神經(jīng)元難以正常工作】2.單選題:以下哪個(gè)不是AlexNet的創(chuàng)新點(diǎn)?
選項(xiàng):
A、dropout
B、Relu激活函數(shù)和重疊池化
C、雙GPU訓(xùn)練
D、共享權(quán)重
答案:【共享權(quán)重】3.單選題:梯度消失和梯度爆炸不會導(dǎo)致下面哪種情況?
選項(xiàng):
A、梯度消失會導(dǎo)致網(wǎng)絡(luò)訓(xùn)練變慢
B、梯度消失使網(wǎng)絡(luò)性能不佳,分類準(zhǔn)確度低
C、梯度爆炸使網(wǎng)絡(luò)訓(xùn)練時(shí)代價(jià)函數(shù)震蕩,不利于收斂
D、梯度爆炸會加快網(wǎng)絡(luò)訓(xùn)練,更易達(dá)到最優(yōu)解
答案:【梯度爆炸會加快網(wǎng)絡(luò)訓(xùn)練,更易達(dá)到最優(yōu)解】4.單選題:ResNet的特點(diǎn)不包括以下哪一點(diǎn)?
選項(xiàng):
A、減少深層網(wǎng)絡(luò)的梯度消失問題
B、特征的重用
C、增強(qiáng)特征的獲取能力
D、模型參數(shù)明顯增加
答案:【模型參數(shù)明顯增加】5.單選題:ResNet中引入shortcut的功能不包括以下哪一個(gè)?
選項(xiàng):
A、ResNet的梯度通過shortcut回到更早的層,緩解了網(wǎng)絡(luò)因?yàn)樯疃仍龃髮?dǎo)致的梯度消失
B、引出了殘差模塊,簡化了學(xué)習(xí)
C、改善了網(wǎng)絡(luò)的特征獲取能力
D、減少了計(jì)算量
答案:【減少了計(jì)算量】6.單選題:對于GoogLeNet網(wǎng)絡(luò),以下哪個(gè)說法是錯(cuò)誤的?
選項(xiàng):
A、為適應(yīng)不同大學(xué)的圖形特征的獲取,采用了多種大小的卷積核
B、網(wǎng)絡(luò)的寬度和深度都得到了加強(qiáng),特征獲得更充分
C、通過線性堆疊各種Inception模塊,在不明顯增加網(wǎng)絡(luò)課訓(xùn)練參數(shù)的情況下,提升網(wǎng)絡(luò)的性能
D、GoogLeNetL的兩個(gè)輔助分類器的主要目的是增加分類子模型,提高分類準(zhǔn)確度
答案:【GoogLeNetL的兩個(gè)輔助分類器的主要目的是增加分類子模型,提高分類準(zhǔn)確度】7.單選題:以下卷積神經(jīng)網(wǎng)絡(luò)優(yōu)化的方法正確的是哪個(gè)?
選項(xiàng):
A、卷積層使用卷積+ReLU+batchnormalization的結(jié)構(gòu)
B、mini-batch的batch值越大越好
C、增加池化層的個(gè)數(shù)可以提高網(wǎng)絡(luò)訓(xùn)練參數(shù),但降低了網(wǎng)絡(luò)性能
D、激活函數(shù)盡量選擇Sigmoid等函數(shù),提高網(wǎng)絡(luò)的非線性擬合能力
答案:【增加池化層的個(gè)數(shù)可以提高網(wǎng)絡(luò)訓(xùn)練參數(shù),但降低了網(wǎng)絡(luò)性能】8.單選題:VGG對圖像的分類準(zhǔn)確度高于AlexNet的原因可能不是下面的哪一項(xiàng)?
選項(xiàng):
A、較小的卷積核
B、更多的隱層(深度大)
C、訓(xùn)練次數(shù)多
D、多個(gè)卷積層組成的模塊
答案:【訓(xùn)練次數(shù)多】9.單選題:有關(guān)VGG網(wǎng)絡(luò)的說法,以下哪個(gè)說法是錯(cuò)誤的?
選項(xiàng):
A、多個(gè)3X3小卷積的級聯(lián)效果與5X5和7X7的大卷積核功能相仿
B、使用了dropout減少過擬合
C、使用不同數(shù)量的卷積核拼成模塊,同一模塊特征圖的尺寸不變。
D、卷積層與池化層是一一配對的
答案:【卷積層與池化層是一一配對的】10.單選題:在池化中,當(dāng)步長小于卷積核的大小時(shí)會稱為重疊池化。與非重疊池化相比,下面哪個(gè)不是重疊池化的優(yōu)點(diǎn)?
選項(xiàng):
A、損失信息少
B、獲得的圖像特更豐富
C、提高卷積神經(jīng)網(wǎng)絡(luò)的正確率
D、減少計(jì)算量
答案:【減少計(jì)算量】11.多選題:哪些權(quán)重的取值或調(diào)整方法可以改善卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練和性能?
選項(xiàng):
A、He初始化
B、batchnormalization
C、dropout
D、任意隨機(jī)初始化
答案:【He初始化;dropout】12.多選題:以下有
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 船舶拆除作業(yè)的現(xiàn)場布置考核試卷
- 航天器空間站空間機(jī)械臂維修技術(shù)考核試卷
- 葡萄酒釀造過程中的釀造產(chǎn)業(yè)鏈整合與創(chuàng)新實(shí)踐探討考核試卷
- 皮革表面處理技術(shù)與工藝考核試卷
- 證券市場私募基金管理考核試卷
- 貨幣經(jīng)紀(jì)公司市場趨勢分析能力測試考核試卷
- 療養(yǎng)院護(hù)理信息化安全管理考核試卷
- 裝飾裝修工程中的合同履行與爭議解決考核試卷
- 肺炎個(gè)案護(hù)理模板
- 網(wǎng)絡(luò)信息安全防護(hù)與應(yīng)急響應(yīng)協(xié)議
- 2025年江蘇交控招聘筆試參考題庫含答案解析
- 銀行柜員職業(yè)規(guī)劃
- 試驗(yàn)外委合同模板
- 《云南民族交通文化》課件
- 齊魯文化(齊魯師范學(xué)院)知到智慧樹章節(jié)答案
- 《中國現(xiàn)代影視作品中反派人物形象塑造歷程與特點(diǎn)淺析》15000字(論文)
- GB/T 44758-2024工業(yè)用硝酸銀
- 經(jīng)濟(jì)類高等數(shù)學(xué)(下)期末考試模擬試卷1及參考答案
- 養(yǎng)老院老人興趣小組活動(dòng)制度
- 《能力陷阱》課件
- 廣東省廣州市八區(qū)聯(lián)考2025屆高一物理第一學(xué)期期末教學(xué)質(zhì)量檢測試題含解析
評論
0/150
提交評論