殘差學(xué)習(xí)完整_第1頁
殘差學(xué)習(xí)完整_第2頁
殘差學(xué)習(xí)完整_第3頁
殘差學(xué)習(xí)完整_第4頁
殘差學(xué)習(xí)完整_第5頁
已閱讀5頁,還剩9頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

殘差學(xué)習(xí)

2017年9月25日深度殘差學(xué)習(xí)圖像識別

被引用次數(shù):3753什么是深度學(xué)習(xí)?DeepLearningisStackingLayersandLearningEnd-to-End

卷積神經(jīng)網(wǎng)絡(luò)(CNN)的結(jié)構(gòu)卷積層:和輸入卷積得到featuremap,對featuremap應(yīng)用激活函數(shù)增加模型的非線性性。池化層:減小分辨率;增加接收域的大??;節(jié)省計(jì)算量;translation/noise不變性。全連接層:從所有的featuremap中學(xué)習(xí)到全局特征。深度學(xué)習(xí)解決的任務(wù)Classification

DetectionSemanticSegmentation

深度學(xué)習(xí)進(jìn)展殘差學(xué)習(xí)的引入深度對于神經(jīng)網(wǎng)絡(luò)的效果有非常大的影響,VGG-16將AlexNet的8層提高到了16層,在視覺任務(wù)中取得了很大的提高。那么堆疊更多的層就能獲得更好的效果嗎?層數(shù)增加帶來的困難:梯度彌散阻止了網(wǎng)絡(luò)收斂。normalizedinitialization和normalizationlayers可以很大程度的解決這個(gè)問題,使數(shù)十層的神經(jīng)網(wǎng)絡(luò)也可以利用SGD訓(xùn)練收斂。但是當(dāng)更深的網(wǎng)絡(luò)能夠收斂,另一個(gè)問題出現(xiàn)了:degradation

更深的神經(jīng)網(wǎng)絡(luò)有更大的訓(xùn)練誤差和測試誤差殘差學(xué)習(xí)的引入degradation現(xiàn)象說明了不是所有的系統(tǒng)都容易o(hù)ptimize,一個(gè)淺的網(wǎng)絡(luò)和深的counterpart之間存在什么關(guān)系?我們可以構(gòu)造這樣一個(gè)更深的Model:theaddedlayersareidentitymapping,andtheotherlayersarecopiedfromthelearnedshallowermodel.這個(gè)解的存在說明deepermodel不應(yīng)該比shallowercounterpart有更高的訓(xùn)練誤差,但是實(shí)驗(yàn)結(jié)果顯示,目前的solver找不到這個(gè)解或更優(yōu)的解。為了解決這個(gè)問題,本文提出了deepresiduallearningframework.不讓堆疊的幾層網(wǎng)絡(luò)直接擬合想要的分布H(x),而讓他們間接的擬合殘差分布F(x):=H(x)?x。殘差學(xué)習(xí)殘差學(xué)習(xí):殘差學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu)殘差網(wǎng)絡(luò)結(jié)構(gòu)參數(shù)主要特點(diǎn):verydeep100+layernetsskipconnectionsacrosslayersbatchnormalizationImageNetClassification實(shí)驗(yàn)結(jié)果TrainingonImageNet。Thincurvesdenotetrainingerror,andboldcurvesdenotevalidationerrorofthecentercrops.Left:plainnetworksof18and34layers.Right:ResNetsof18and34layers.在plain網(wǎng)絡(luò)中,34層的網(wǎng)絡(luò)訓(xùn)練誤差高于18層。但是在殘差網(wǎng)絡(luò)中,34層網(wǎng)絡(luò)優(yōu)于18層網(wǎng)絡(luò)。這說明退化問題被解決,增加深度可以提高神經(jīng)網(wǎng)絡(luò)的精度。ImageNet:1000classes1.28milliontrainingimages100ktestimagesDeeperBottleneckArchitectures為了計(jì)算量的考慮,本文提出了一種bottleneck結(jié)構(gòu),parameter-freeidentityshortcuts對于bottleneck結(jié)構(gòu)非常重要,有效的縮小時(shí)間復(fù)雜度和模型尺寸,在此基礎(chǔ)上本文構(gòu)造了50、101和152-layerResNets。較之前的神經(jīng)網(wǎng)絡(luò),模型的深度得到了極大的提升!152層single-model的結(jié)果超過了過去所有ensemble的結(jié)果。更深的殘差網(wǎng)絡(luò)結(jié)構(gòu)。左:abuildingblock(on56×56featuremaps)forResNet-34。右:bottleneckbuildingblockforResNet-50/101/152。single-modelresultsontheImageNetvalidationsetCIFAR-10andAnalysisCIFAR更小的數(shù)據(jù)集50ktrainingimages10ktesting10classes構(gòu)造更深的網(wǎng)絡(luò),1202層!測試誤差超過110層,可能因?yàn)檫^擬合。Left:plainnetworks.Middle:ResNets.Right:ResNetswith110and1202layers.其他應(yīng)用利用residuallearning和batchnormalization加速訓(xùn)練過程同時(shí)提高去噪效果總結(jié)提出了一種殘差學(xué)習(xí)框架顯著的增

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論