2023年秋江蘇開放大學(xué)神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)形考三作業(yè)_第1頁(yè)
2023年秋江蘇開放大學(xué)神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)形考三作業(yè)_第2頁(yè)
2023年秋江蘇開放大學(xué)神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)形考三作業(yè)_第3頁(yè)
2023年秋江蘇開放大學(xué)神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)形考三作業(yè)_第4頁(yè)
2023年秋江蘇開放大學(xué)神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)形考三作業(yè)_第5頁(yè)
已閱讀5頁(yè),還剩24頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

2023年秋江蘇開放大學(xué)神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)形考三作業(yè)試題列表單選題題型:?jiǎn)芜x題客觀題分值2分難度:一般得分:21深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)屬于機(jī)器學(xué)習(xí)中的那哪種模型A深度無(wú)監(jiān)督學(xué)習(xí)深度監(jiān)督學(xué)習(xí)C深度半監(jiān)督學(xué)習(xí)D深度強(qiáng)化學(xué)習(xí)學(xué)生答案:B老師點(diǎn)評(píng):題型:?jiǎn)芜x題客觀題分值2分難度:一般得分:22對(duì)于非連續(xù)目標(biāo)在深度神經(jīng)網(wǎng)絡(luò)的優(yōu)化過程中,下面哪種梯度下降方法是最好的?A1-BFGS拉格朗日松弛SubgradontmethodCSGDDAdaGrad學(xué)生答案:B老師點(diǎn)評(píng):題型:?jiǎn)芜x題客觀題分值2分難度:一般得分:23深度學(xué)習(xí)中,不經(jīng)常使用的初始化參數(shù)W(權(quán)重矩陣)的方法是哪種?常量初始化BMSRA

初始化C高斯分布初始化DXavier初始化學(xué)生答案:A老師點(diǎn)評(píng):題型:?jiǎn)芜x題客觀題分值2分難度:一般得分:24請(qǐng)問以下和神經(jīng)網(wǎng)絡(luò)中的dropout作用機(jī)制類似的是?ABoostingBaggingCStackingD都不是學(xué)生答案:B老師點(diǎn)評(píng):題型:?jiǎn)芜x題客觀題分值2分難度:一般得分:25關(guān)于CNN,以下說法錯(cuò)議的是ACNNCNNCCNN

用于解決圖像的分類及回歸問題最初是由Hinton教授提出的是一種判別模型D第一個(gè)經(jīng)典CNN

模型是LeNet學(xué)生答案:B老師點(diǎn)評(píng):題型:?jiǎn)芜x題客觀題分值2分難度:一般得分:26關(guān)于神經(jīng)網(wǎng)絡(luò)中經(jīng)典使用的優(yōu)化器,以下說法正確的是A對(duì)于輕量級(jí)神經(jīng)網(wǎng)絡(luò),使用AdamBAdam的收數(shù)速度比RMSprop

比使用RMSprop

更合適相比于Adam

或RMSprop

等優(yōu)化器,SGD的收效效果是最好的D相比于SGD或RMSprop

等優(yōu)化器,Adam9

收做效果是最好的學(xué)生答案:C老師點(diǎn)評(píng):題型:?jiǎn)芜x題客觀題分值2分難度:一般得分:27反向傳播算法一開始計(jì)算什么內(nèi)容的梯度,之后將其反向傳播?A都不對(duì)B各個(gè)輸入樣本的平方差之和預(yù)測(cè)結(jié)果與樣本標(biāo)簽之間的誤差D各個(gè)網(wǎng)絡(luò)權(quán)重的平方差之和學(xué)生答案:C老師點(diǎn)評(píng):題型:?jiǎn)芜x題客觀題分值2分難度:一般得分:28神經(jīng)網(wǎng)絡(luò),非線性激活函數(shù)包括sigmoid/tanh/ReLU其他說法都不正確B總是輸出0/1C只在最后輸出層才會(huì)用到D加速反向傳播時(shí)的梯度計(jì)算學(xué)生答案:A老師點(diǎn)評(píng):題型:?jiǎn)芜x題客觀題分值2分難度:一般得分:29聲明1:可以通過將所有權(quán)重初始化為0來(lái)訓(xùn)練網(wǎng)絡(luò)。聲明2:可以通過將偏差初始化為0來(lái)很好地訓(xùn)練網(wǎng)絡(luò)以上哪些陳述是真實(shí)的?A1對(duì)2錯(cuò)1錯(cuò)2對(duì)C1和2都錯(cuò)D1和2都對(duì)

等學(xué)生答案:B老師點(diǎn)評(píng):題型:?jiǎn)芜x題客觀題分值2分難度:一般得分:210當(dāng)訓(xùn)練一個(gè)神經(jīng)網(wǎng)絡(luò)來(lái)作圖像識(shí)別任務(wù)時(shí),通常會(huì)繪制一張訓(xùn)練集誤差和交叉訓(xùn)練集誤差圖來(lái)進(jìn)行調(diào)試。在上圖中,最好在哪個(gè)時(shí)間停止訓(xùn)練?ABBACCDD學(xué)生答案:C老師點(diǎn)評(píng):題型:?jiǎn)芜x題客觀題分值2分難度:一般得分:211請(qǐng)閱讀以下情景:情景1:你擁有一份阿卡迪亞市(Arcadiacity)地圖的數(shù)據(jù),數(shù)據(jù)中包含市內(nèi)和郊區(qū)的航拍圖片。你的任務(wù)是將城市劃分為工業(yè)區(qū)、農(nóng)場(chǎng)以及山川河流等自然區(qū)域等等。情景2:你擁有一份阿卡迪亞市(Arcadiacity)地圖的數(shù)據(jù),數(shù)據(jù)中包含詳細(xì)的公路網(wǎng)和各個(gè)地標(biāo)之間的距離,而這些都是以圖表的形式呈現(xiàn)的。你的任務(wù)是找出任意兩個(gè)地標(biāo)之間的最短距離。深度學(xué)習(xí)可以在情景1中應(yīng)用但無(wú)法應(yīng)用在情景2中,這種說法是:A正確B錯(cuò)誤學(xué)生答案:B老師點(diǎn)評(píng):題型:?jiǎn)芜x題客觀題分值2分難度:一般得分:212有許多種梯度下降算法,其中兩種最出名的方法是I-BFGS和SGD.I-BFGS根據(jù)二階梯度下降而SGD是根據(jù)一階梯度下降的。在下述哪些場(chǎng)景中,會(huì)更加偏向于使用I-BFGS而不是SGD?場(chǎng)景1:數(shù)據(jù)很稀疏場(chǎng)景2:神經(jīng)網(wǎng)絡(luò)的參數(shù)數(shù)量較少A場(chǎng)景2B都不會(huì)選擇I-BFGSC場(chǎng)景1兩種情況都是學(xué)生答案:D老師點(diǎn)評(píng):題型:?jiǎn)芜x題客觀題分值2分難度:一般得分:213普通反向傳播算法和隨時(shí)間的反向傳播算法(BPTT)有什么技術(shù)上的不同?與普通反向傳播不同的是,BPTT會(huì)在每個(gè)時(shí)間步長(zhǎng)內(nèi)疊加所有對(duì)應(yīng)權(quán)重的梯度B與普通反向傳播不同的是,BPTT會(huì)在每個(gè)時(shí)間步長(zhǎng)內(nèi)減去所有對(duì)應(yīng)權(quán)重的梯度學(xué)生答案:A老師點(diǎn)評(píng):題型:?jiǎn)芜x題客觀題分值2分難度:一般得分:214深應(yīng)學(xué)習(xí)中,以下哪方法不能解決過擬合的問題減小學(xué)習(xí)率B數(shù)據(jù)增強(qiáng)C參數(shù)正則化D提前停止訓(xùn)練學(xué)生答案:A老師點(diǎn)評(píng):題型:?jiǎn)芜x題客觀題分值2分難度:一般得分:215假設(shè)你下載了一個(gè)已經(jīng)在一個(gè)很大的文本語(yǔ)料庫(kù)上訓(xùn)練過的詞嵌入的數(shù)據(jù),然后你要用這個(gè)詞嵌入來(lái)訓(xùn)練RNN

并用于識(shí)別一段文字中的情感,判斷這段文字的內(nèi)容是否表達(dá)了“快樂”。那么即便“欣喜若狂”這個(gè)詞沒有出現(xiàn)在你的小訓(xùn)練集中,你的RNN認(rèn)為“我欣喜若狂”應(yīng)該被貼上y=1的標(biāo)簽。A錯(cuò)誤B正確

也會(huì)學(xué)生答案:B老師點(diǎn)評(píng):題型:?jiǎn)芜x題客觀題分值2分難度:一般得分:216相對(duì)于DNN

模型,CNN

模型做了哪些改變?A使用了DropoutB使用了relu激活函數(shù)局部連接、參數(shù)共享D增加了batchnormalization學(xué)生答案:C老師點(diǎn)評(píng):題型:?jiǎn)芜x題客觀題分值2分難度:一般得分:217如果一個(gè)神經(jīng)網(wǎng)絡(luò)用于預(yù)測(cè)一種事物的分類,例如分為A,B.CD四類,那么下列哪一個(gè)激活函數(shù)適用于該神經(jīng)網(wǎng)絡(luò)的輸出層SoftmaxBSigmoidCReluDTanH學(xué)生答案:A老師點(diǎn)評(píng):題型:?jiǎn)芜x題客觀題分值2分難度:一般得分:218下列關(guān)于深度學(xué)習(xí)說法錯(cuò)誤的是ALSTM

在一定程度上解決了傳統(tǒng)RNN

梯度滿失或梯度爆炸的問題只要參數(shù)設(shè)置合理,深險(xiǎn)學(xué)習(xí)的效果至少應(yīng)優(yōu)于傳統(tǒng)機(jī)器學(xué)習(xí)算法CCNN

相比于全連接的優(yōu)勢(shì)之一是樓型復(fù)雜度低,緩解過擬合學(xué)生答案:B老師點(diǎn)評(píng):題型:?jiǎn)芜x題客觀題分值2分難度:一般得分:219你有一個(gè)63x63x16的輸入,有32個(gè)過濾器進(jìn)行卷積,每個(gè)過濾器的大小為7x7,步幅為1,你想要使用“same”的卷積方式,請(qǐng)問padding的值是多少?3B1C7D2學(xué)生答案:A老師點(diǎn)評(píng):題型:?jiǎn)芜x題客觀題分值2分難度:一般得分:220以下關(guān)于深度神經(jīng)網(wǎng)絡(luò)的說法中錯(cuò)誤的是增大L2正則項(xiàng)的系數(shù)有助于減緩梯度消失問題B若batchsize過小,batchnormalization的效果會(huì)出現(xiàn)退化C在使用SGD訓(xùn)練時(shí),若訓(xùn)練loss的變化逐漸平緩不再明顯下降時(shí),通??梢酝ㄟ^減少learningrate的方式使其再進(jìn)一步下降D使用梯度裁剪(gradientclipping)有助于減緩梯度爆炸問題學(xué)生答案:A老師點(diǎn)評(píng):題型:?jiǎn)芜x題客觀題分值2分難度:一般得分:221假設(shè)你的輸入是一個(gè)300x300的彩色(RGB)圖像,而你沒有使用卷積神經(jīng)網(wǎng)絡(luò)。如果第一個(gè)隱藏層有100個(gè)神經(jīng)元,每個(gè)神經(jīng)元與輸入層進(jìn)行全連接,那么這個(gè)隱藏層有多少個(gè)參數(shù)(包括偏置參數(shù))?A9,000,001B9,000,10027,000,100D27,000,001學(xué)生答案:C老師點(diǎn)評(píng):題型:?jiǎn)芜x題客觀題分值2分難度:一般得分:222Dropout是一種在深度學(xué)習(xí)環(huán)境中應(yīng)用的正規(guī)化手段。它是這樣運(yùn)作的:在一次循環(huán)中我們先隨機(jī)選擇神經(jīng)層中的一些單元并將其臨時(shí)隱藏,然后再進(jìn)行該次循環(huán)中神經(jīng)網(wǎng)絡(luò)的訓(xùn)練和優(yōu)化過程。在下一次循環(huán)中,我們又將隱藏另外一些神經(jīng)元,如此直至訓(xùn)練結(jié)束。根據(jù)以上描述,Dropout技術(shù)在下列哪種神經(jīng)層中將無(wú)法發(fā)揮顯著優(yōu)勢(shì)?ARNN

層B卷積層C仿射層D均不對(duì)學(xué)生答案:A老師點(diǎn)評(píng):題型:?jiǎn)芜x題客觀題分值2分難度:一般得分:223Sigmoid是神經(jīng)網(wǎng)絡(luò)中最常用到的一種激活函數(shù),除非當(dāng)梯度太大導(dǎo)致激活函數(shù)被彌散,這叫作神經(jīng)元飽和。這就是為什么ReLU會(huì)被提出來(lái),因?yàn)镽eLU可以使得梯度在正向時(shí)輸出值與原始值一樣。這就是為什么ReLU會(huì)被提出來(lái),因?yàn)镽eLU可以使得梯度在正向時(shí)輸出值與原始值一樣。這是否意味著在神經(jīng)網(wǎng)絡(luò)中ReLU單元永遠(yuǎn)不會(huì)飽和?A錯(cuò)誤B正確學(xué)生答案:A老師點(diǎn)評(píng):題型:?jiǎn)芜x題客觀題分值2分難度:一般得分:224你正在訓(xùn)練一個(gè)RNN

網(wǎng)絡(luò),你發(fā)現(xiàn)你的權(quán)重與激活值都是“NaN”,下列選項(xiàng)中,哪一個(gè)是導(dǎo)致這個(gè)問題的最有可能的原因?AReLU函數(shù)作為激活函數(shù)g(.),在計(jì)算g(z)時(shí),z的數(shù)值過大了梯度爆炸CSigmoid函數(shù)作為激活函數(shù)g(.),在計(jì)算g(z)時(shí),z的數(shù)值過大了D梯度消失學(xué)生答案:B老師點(diǎn)評(píng):題型:?jiǎn)芜x題客觀題分值2分難度:一般得分:225以下哪個(gè)是深度學(xué)習(xí)中神經(jīng)網(wǎng)絡(luò)的激活函數(shù)ReLUBSin(x)CCEDDropout學(xué)生答案:A老師點(diǎn)評(píng):題型:?jiǎn)芜x題客觀題分值2分難度:一般得分:226假設(shè)你的任務(wù)是使用一首曲子的前半部分來(lái)預(yù)測(cè)樂譜的未來(lái)幾個(gè)小節(jié),比如輸入的內(nèi)容如下的是包含音符的一張樂譜圖片:關(guān)于這類問題,哪種架構(gòu)的神經(jīng)網(wǎng)絡(luò)最好?A神經(jīng)圖靈機(jī)B附加有循環(huán)單元的卷積神經(jīng)網(wǎng)絡(luò)C端到端完全連接的神經(jīng)網(wǎng)絡(luò)D都不可用學(xué)生答案:B老師點(diǎn)評(píng):題型:?jiǎn)芜x題客觀題分值2分難度:一般得分:227圖片修復(fù)是需要人類專家來(lái)進(jìn)行修復(fù)的,這對(duì)于修復(fù)受損照片和視頻非常有幫助。下圖是一個(gè)圖像修復(fù)的例子?,F(xiàn)在人們?cè)谘芯咳绾斡蒙疃葘W(xué)習(xí)來(lái)解決圖片修復(fù)的問題。對(duì)于這個(gè)問題,哪種損失函數(shù)適用于計(jì)算像素區(qū)域的修復(fù)?A兩種方法均不可B歐式距離損失函數(shù)(Euclideanloss)C兩種方法皆可D負(fù)對(duì)數(shù)似然度損失函數(shù)(Negative-logLikelihoodloss)學(xué)生答案:C老師點(diǎn)評(píng):題型:?jiǎn)芜x題客觀題分值2分難度:一般得分:228在深度學(xué)習(xí)網(wǎng)絡(luò)中,以下哪種技術(shù)不是主要用來(lái)做網(wǎng)絡(luò)正則化的(提升模型泛化施力)APoolingBdropoutCEarlystopping參數(shù)共享學(xué)生答案:D老師點(diǎn)評(píng):題型:?jiǎn)芜x題客觀題分值2分難度:一般得分:229下面哪種方法沒辦法直接應(yīng)用于自然語(yǔ)言處理的任務(wù)?A卷積神經(jīng)網(wǎng)絡(luò)主成分分析(PCA)C循環(huán)神經(jīng)網(wǎng)絡(luò)D去語(yǔ)法模型學(xué)生答案:B老師點(diǎn)評(píng):題型:?jiǎn)芜x題客觀題分值2分難度:一般得分:230下面哪個(gè)敘述是對(duì)的?Dropout對(duì)一個(gè)神經(jīng)元隨機(jī)屏蔽輸入權(quán)重Dropconnect對(duì)一個(gè)神經(jīng)元隨機(jī)屏蔽輸入和輸出權(quán)重都是錯(cuò)的B1是錯(cuò)的,2是對(duì)的C都是對(duì)的D1是對(duì)的,2是錯(cuò)的學(xué)生答案:A老師點(diǎn)評(píng):題型:?jiǎn)芜x題客觀題分值2分難度:一般得分:231想象一下,你有一個(gè)28x28的圖片,并使用輸入深度為3和輸出深度為8在上面運(yùn)行一個(gè)3x3的卷積神經(jīng)網(wǎng)塔,注意,步幅padding是1,你正在用相同的填充(padding),當(dāng)使用給定的參數(shù)時(shí),輸出特征圖的尺寸是多少?28寬、28高、8深B13寬、28高、8深C28寬、13高,8深D13寬、13高、8深學(xué)生答案:A老師點(diǎn)評(píng):題型:?jiǎn)芜x題客觀題分值2分難度:一般得分:232在CNN

中使用1x1卷積時(shí),下列哪一項(xiàng)是正確的?A它可以幫助降低維數(shù)所有上述C可以用于特征池D由于小的內(nèi)核大小,它會(huì)減少過擬合學(xué)生答案:B老師點(diǎn)評(píng):題型:?jiǎn)芜x題客觀題分值2分難度:一般得分:233對(duì)于MLP,輸入層中的節(jié)點(diǎn)數(shù)為10,隱藏層為5.從輸入層到隱藏層的最大連接數(shù)是?A超過50B這是一個(gè)任意值C小于5050學(xué)生答案:D老師點(diǎn)評(píng):題型:?jiǎn)芜x題客觀題分值2分難度:一般得分:234在下列哪些應(yīng)用中,我們可以使用深度學(xué)習(xí)來(lái)解決問題?A蛋白質(zhì)結(jié)構(gòu)預(yù)測(cè)B外來(lái)粒子的檢測(cè)C化學(xué)反應(yīng)的預(yù)測(cè)所有這些學(xué)生答案:D老師點(diǎn)評(píng):題型:?jiǎn)芜x題客觀題分值2分難度:一般得分:235Dropout率和正則化有什么關(guān)系?(提示:我們定義Dropout率為保留一個(gè)神經(jīng)元為激活狀態(tài)的概率)Dropout率越高,正則化程度越低BDropout率越高,正則化程度越高學(xué)生答案:A老師點(diǎn)評(píng):題型:?jiǎn)芜x題客觀題分值2分難度:一般得分:236梯度爆炸問題是指在訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)的時(shí)候,梯度變得過大而損失函數(shù)變?yōu)闊o(wú)窮。在RNN

中,下面哪種方法可以較好地處理梯度爆炸問題?A用改良的網(wǎng)絡(luò)結(jié)構(gòu)比如LSTM和GRUsB所有方法都不行梯度裁剪DDropout學(xué)生答案:C老師點(diǎn)評(píng):題型:?jiǎn)芜x題客觀題分值2分難度:一般得分:237你認(rèn)為把下面這個(gè)過濾器應(yīng)用到灰度圖像會(huì)怎么樣?A會(huì)檢測(cè)圖像對(duì)比度B會(huì)檢測(cè)水平邊緣C會(huì)檢測(cè)45度邊緣D會(huì)檢測(cè)垂直邊緣學(xué)生答案:D老師點(diǎn)評(píng):題型:?jiǎn)芜x題客觀題分值2分難度:一般得分:238在構(gòu)建一個(gè)神經(jīng)網(wǎng)絡(luò)時(shí),batchsize通常選擇2的次方,比如256和512。這是為什么呢?A當(dāng)不用偶數(shù)時(shí),損失值會(huì)很奇怪當(dāng)內(nèi)存使用最優(yōu)時(shí)可以方便神經(jīng)網(wǎng)絡(luò)并行化C當(dāng)用偶數(shù)是梯度下降優(yōu)化效果最好D這些原因都不對(duì)學(xué)生答案:B老師點(diǎn)評(píng):題型:?jiǎn)芜x題客觀題分值2分難度:一般得分:239當(dāng)構(gòu)建一個(gè)神經(jīng)網(wǎng)絡(luò)進(jìn)行圖片的語(yǔ)義分割時(shí),通常采用下面哪種順序?A不能確定先用卷積神經(jīng)網(wǎng)絡(luò)處理輸入,再用反卷積神經(jīng)網(wǎng)絡(luò)得到輸出C先用反卷積神經(jīng)網(wǎng)絡(luò)處理輸入,再用卷積神經(jīng)網(wǎng)絡(luò)得到輸出學(xué)生答案:B老師點(diǎn)評(píng):題型:?jiǎn)芜x題客觀題分值2分難度:一般得分:240深度學(xué)習(xí)中的不同最優(yōu)化方式,如SGD,ADAM

下列說法中正確的是A同樣的初始學(xué)習(xí)率情況下,ADAM

比SGD容易過擬合B在實(shí)際場(chǎng)景下,應(yīng)盡最使用ADAM,避免使用SGDC同樣的初始學(xué)習(xí)率情況下,ADAM

收斂速度總是快于SGD方法相同超參數(shù)數(shù)是情況下,比起白適應(yīng)的學(xué)習(xí)率調(diào)整方式,SGD加手動(dòng)調(diào)節(jié)通常會(huì)取得更好效果學(xué)生答案:D老師點(diǎn)評(píng):題型:?jiǎn)芜x題客觀題分值2分難度:一般得分:241你有一個(gè)63x63x16的輸入,并使用大小為7x7的32個(gè)過濾器進(jìn)行卷積,使用步幅為2和無(wú)填充,請(qǐng)問輸出是多少?A29x29x16B16x16x3229x29x32D16x16x16學(xué)生答案:C老師點(diǎn)評(píng):題型:?jiǎn)芜x題客觀題分值2分難度:一般得分:242隨著句子的長(zhǎng)度越來(lái)越多,神經(jīng)翻譯機(jī)器將句意表征為固定維度向量的過程將愈加困難,為了解決這類問題,下面哪項(xiàng)是我們可以采用的?A使用遞歸單元代替循環(huán)單元B所有選項(xiàng)均不對(duì)使用注意力機(jī)制(attentionmechanism)D使用字符級(jí)別翻譯(characterleveltranslation學(xué)生答案:C老師點(diǎn)評(píng):題型:?jiǎn)芜x題客觀題分值2分難度:中等得分:243給定一個(gè)長(zhǎng)度為n的不完整單詞序列,我們希望預(yù)測(cè)下一個(gè)字母是什么。比如輸入是“predictio(9個(gè)字母組成),希望預(yù)測(cè)第十個(gè)字母是什么。下面哪種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)適用于解決這個(gè)工作?A受限波爾茲曼機(jī)循環(huán)神經(jīng)網(wǎng)絡(luò)C卷積神經(jīng)網(wǎng)絡(luò)D全連接神經(jīng)網(wǎng)絡(luò)學(xué)生答案:B老師點(diǎn)評(píng):題型:?jiǎn)芜x題客觀題分值2分難度:簡(jiǎn)單得分:2))44深度學(xué)習(xí)可以用在下列哪些NLP任務(wù)中?A問答系統(tǒng)B情感分析C機(jī)器翻譯所有選項(xiàng)學(xué)生答案:D老師點(diǎn)評(píng):題型:?jiǎn)芜x題客觀題分值2分難度:一般得分:245圖像挖掘中常用卷積神經(jīng)網(wǎng)絡(luò)(DNN)作為基礎(chǔ)結(jié)構(gòu),以下關(guān)于卷積操作(conv)和池化(pooling)的說法正確的是?Aconvopooling

都基于局部相關(guān)性Bcon和pooling都基于平移不變性cov基于平移不變性,pooling基于局部相關(guān)性Dconv基于局部相關(guān)性,pooling基于平移不變性學(xué)生答案:C老師點(diǎn)評(píng):題型:?jiǎn)芜x題客觀題分值2分難度:一般得

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論