CNN卷積神經(jīng)網(wǎng)絡(luò)_第1頁
CNN卷積神經(jīng)網(wǎng)絡(luò)_第2頁
CNN卷積神經(jīng)網(wǎng)絡(luò)_第3頁
CNN卷積神經(jīng)網(wǎng)絡(luò)_第4頁
CNN卷積神經(jīng)網(wǎng)絡(luò)_第5頁
已閱讀5頁,還剩14頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

卷積神經(jīng)網(wǎng)絡(luò)(CNN)

1.CNN概述2.CNN的層級結(jié)構(gòu)3.卷積網(wǎng)絡(luò)工作流程4.CNN的應(yīng)用簡述1.CNN概述2.CNN的層級結(jié)構(gòu)3.卷積網(wǎng)絡(luò)工作流程4.CNN的應(yīng)用簡述1.概述卷積神經(jīng)網(wǎng)絡(luò)是一種特殊的深層的神經(jīng)網(wǎng)絡(luò)模型,它的特殊性體現(xiàn)在兩個方面,一方面它的神經(jīng)元間的連接是非全連接的,

另一方面同一層中某些神經(jīng)元之間的連接的權(quán)重是共享的(即相同的)。它的非全連接和權(quán)值共享的網(wǎng)絡(luò)結(jié)構(gòu)使之更類似于生物神經(jīng)網(wǎng)絡(luò),降低了網(wǎng)絡(luò)模型的復(fù)雜度(對于很難學(xué)習(xí)的深層結(jié)構(gòu)來說,這是非常重要的),減少了權(quán)值的數(shù)量。

回想一下BP神經(jīng)網(wǎng)絡(luò)。BP網(wǎng)絡(luò)每一層節(jié)點是一個線性的一維排列狀態(tài),層與層的網(wǎng)絡(luò)節(jié)點之間是全連接的。這樣設(shè)想一下,如果BP網(wǎng)絡(luò)中層與層之間的節(jié)點連接不再是全連接,而是局部連接的。這樣,就是一種最簡單的一維卷積網(wǎng)絡(luò)。1.CNN概述2.CNN的層級結(jié)構(gòu)3.卷積網(wǎng)絡(luò)工作流程4.CNN的應(yīng)用簡述2.卷積神經(jīng)網(wǎng)絡(luò)的層級結(jié)構(gòu) ?輸入層:用于數(shù)據(jù)的輸入。

?卷積層:使用卷積核進(jìn)行特征提取和特征映射。

?池化層:進(jìn)行下采樣,對特征圖稀疏處理,減少數(shù)據(jù)運算量。

?激勵層:由于卷積也是一種線性運算,因此需要增加非線性映射。 ?全連接層:通常在CNN的尾部進(jìn)行重新擬合,減少特征信息的損失。輸入層該層要做的主要是對原始圖像數(shù)據(jù)進(jìn)行預(yù)處理,其中包括:?去均值?歸一化?PCA?白化PCA是指通過拋棄攜帶信息量較少的維度,保留主要的特征信息來對數(shù)據(jù)進(jìn)行降維處理,思路上是使用少數(shù)幾個有代表性、互不相關(guān)的特征來代替原先的大量的、存在一定相關(guān)性的特征,從而加速機(jī)器學(xué)習(xí)進(jìn)程。PCA可用于特征提取,數(shù)據(jù)壓縮,去噪聲,降維等操作。

白化的目的是去掉數(shù)據(jù)之間的相關(guān)聯(lián)度和令方差均一化,由于圖像中相鄰像素之間具有很強(qiáng)的相關(guān)性,所以用于訓(xùn)練時很多輸入是冗余的。這時候去相關(guān)的操作就可以采用白化操作,從而使得:

1.減少特征之間的相關(guān)性2.特征具有相同的方差卷積層在卷積層中定義一個權(quán)值矩陣,用于提取來自輸入層圖像中的特征。輸出維度下面了解輸出尺寸的問題。有三個超參數(shù)可以控制輸出的大小。1.

過濾器數(shù)量-激活圖的深度等于過濾器的數(shù)量。2.步幅(Stride)-如果步幅是

1,那么我們處理圖片的精細(xì)度就進(jìn)入單像素級別了。更高的步幅意味著同時處理更多的像素,從而產(chǎn)生較小的輸出量。3.

零填充(zero

padding)-這有助于我們保留輸入圖像的尺寸。如果添加了單零填充,則單步幅過濾器的運動會保持在原圖尺寸。我們可以用一個公式來計算輸出尺寸。輸出圖像的空間尺寸可以計算為([W-F

+

2P]

/

S)+1。在這里,W

是輸入尺寸,F(xiàn)

是過濾器的尺寸,P

是填充數(shù)量,S

是步幅數(shù)字。假如我們有一張

32*32*3

的輸入圖像,我們使用

10

個尺寸為

3*3*3

的過濾器,單步幅和零填充。那么

W=32,F(xiàn)=3,P=0,S=1。輸出深度等于應(yīng)用的濾波器的數(shù)量,即

10,輸出尺寸大小為

([32-3+0]/1)+1

=

30。因此輸出尺寸是

30*30*10。池化層也叫下采樣層。該層的功能是對輸入的特征圖進(jìn)行壓縮,簡化網(wǎng)絡(luò)計算復(fù)雜度。一般有兩種計算方式:Maxpooling:取“池化視野”矩陣中的最大值A(chǔ)veragepooling:取“池化視野”矩陣中的平均值激勵層激勵層主要對卷積層的輸出進(jìn)行一個非線性映射,因為卷積層的計算還是一種線性計算。使用的激勵函數(shù)一般為ReLU函數(shù):f(x)=max(x,0)全連接層全連接層的參數(shù)很多。前向計算過程,是一個線性的加權(quán)求和的過程,全連接層的每一個輸出都可以看成前一層的每一個結(jié)點乘以一個權(quán)重系數(shù)W,最后加上一個偏置值b得到。其中,x1、x2、x3為全連接層的輸入,a1、a2、a3為輸出。接下來就可以通過BP反向傳播進(jìn)行訓(xùn)練了。1.CNN概述2.CNN的層級結(jié)構(gòu)3.卷積網(wǎng)絡(luò)工作流程4.CNN的應(yīng)用簡述3.卷積網(wǎng)絡(luò)工作流程1.CNN概述2.CNN的層級結(jié)構(gòu)3.卷積網(wǎng)絡(luò)工作流程4.CNN的應(yīng)用簡述4.CNN的應(yīng)用簡述卷積神經(jīng)網(wǎng)絡(luò)包括一維卷積神經(jīng)網(wǎng)

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論