神經(jīng)網(wǎng)絡(luò)第2章-BP神經(jīng)網(wǎng)絡(luò)_第1頁
神經(jīng)網(wǎng)絡(luò)第2章-BP神經(jīng)網(wǎng)絡(luò)_第2頁
神經(jīng)網(wǎng)絡(luò)第2章-BP神經(jīng)網(wǎng)絡(luò)_第3頁
神經(jīng)網(wǎng)絡(luò)第2章-BP神經(jīng)網(wǎng)絡(luò)_第4頁
神經(jīng)網(wǎng)絡(luò)第2章-BP神經(jīng)網(wǎng)絡(luò)_第5頁
已閱讀5頁,還剩18頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

1、第第2章章 BP神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò) 已經(jīng)發(fā)展了數(shù)十上百種神經(jīng)網(wǎng)絡(luò)模型,應用最廣泛的是已經(jīng)發(fā)展了數(shù)十上百種神經(jīng)網(wǎng)絡(luò)模型,應用最廣泛的是誤差反向傳播算法誤差反向傳播算法(Back Propagation Algorithm,簡稱,簡稱BP算法算法),相應的網(wǎng)絡(luò)稱為,相應的網(wǎng)絡(luò)稱為BP網(wǎng)絡(luò)。網(wǎng)絡(luò)。由多層處理單元組成,每層神經(jīng)元個數(shù)不同,通過樣本自由多層處理單元組成,每層神經(jīng)元個數(shù)不同,通過樣本自學習建立網(wǎng)絡(luò)輸入變量和輸出變量之間的非線性映射關(guān)系。學習建立網(wǎng)絡(luò)輸入變量和輸出變量之間的非線性映射關(guān)系。 2-1 BP神經(jīng)網(wǎng)絡(luò)基本原理神經(jīng)網(wǎng)絡(luò)基本原理 BP網(wǎng)絡(luò)一般由輸入層、隱層和輸出層組成,隱層可以網(wǎng)絡(luò)一般由

2、輸入層、隱層和輸出層組成,隱層可以為一層或多層,每層上的神經(jīng)元稱為節(jié)點或單元。為一層或多層,每層上的神經(jīng)元稱為節(jié)點或單元。 標準標準BP模型由模型由3個神經(jīng)元層次組成,如圖個神經(jīng)元層次組成,如圖2.1所示,輸入所示,輸入層有層有L個處理單元,中間的隱層有個處理單元,中間的隱層有M個處理單元,輸出個處理單元,輸出層有層有N個處理單元。個處理單元。 標準標準BP模型由模型由3個神經(jīng)元層次組成,如圖個神經(jīng)元層次組成,如圖2.1所示,輸入所示,輸入層有層有L個處理單元,中間的隱層有個處理單元,中間的隱層有M個處理單元,輸出個處理單元,輸出層有層有N個處理單元。個處理單元。 圖圖2.1 三層三層BP神經(jīng)

3、網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)BP網(wǎng)絡(luò)誤差反向傳播算法的基本網(wǎng)絡(luò)誤差反向傳播算法的基本思想思想 BP網(wǎng)絡(luò)按照感知器的工作網(wǎng)絡(luò)按照感知器的工作原理進行信息處理:原理進行信息處理: niiixtWfty1)()(2-1) 式中式中 為為t時刻輸出,時刻輸出, 為輸入向量的一個分量,為輸入向量的一個分量, 為為t時時刻第刻第i個輸入的加權(quán),個輸入的加權(quán),為閾值,為閾值, 為作用函數(shù)。為作用函數(shù)。 )(tyix f)(tWi感知器的學習規(guī)則為感知器的學習規(guī)則為 iiixtydtWtW)()() 1(2-2) 式中式中為學習率為學習率 ,d為期望輸出為期望輸出(又稱教師信號又稱教師信號), 為感知器的輸出。為感知器的輸出

4、。 ) 10()(ty感知器通過不斷調(diào)整權(quán)重,使得感知器通過不斷調(diào)整權(quán)重,使得 對一切樣本對一切樣本均保持不變時,學習過程就結(jié)束。均保持不變時,學習過程就結(jié)束。), 1(niWiBP網(wǎng)絡(luò)誤差反向傳播算法的基本思想是:網(wǎng)絡(luò)誤差反向傳播算法的基本思想是:根據(jù)輸出層內(nèi)各處理單元的正確輸出與實際輸出之間根據(jù)輸出層內(nèi)各處理單元的正確輸出與實際輸出之間的誤差進行連接權(quán)系數(shù)的調(diào)整,使網(wǎng)絡(luò)的輸出盡可能接近的誤差進行連接權(quán)系數(shù)的調(diào)整,使網(wǎng)絡(luò)的輸出盡可能接近期望的輸出,直到滿足事先給定的允許誤差,學習停止。期望的輸出,直到滿足事先給定的允許誤差,學習停止。 由于隱層的存在,輸出層對產(chǎn)生誤差的學習必須通過各層由于隱

5、層的存在,輸出層對產(chǎn)生誤差的學習必須通過各層連接權(quán)值的調(diào)整進行,因此,隱層要能對輸出層反傳過來連接權(quán)值的調(diào)整進行,因此,隱層要能對輸出層反傳過來的誤差進行學習,這是的誤差進行學習,這是BP網(wǎng)絡(luò)的一個主要特征。網(wǎng)絡(luò)的一個主要特征。 BP網(wǎng)絡(luò)的學習算法網(wǎng)絡(luò)的學習算法 考慮考慮BP網(wǎng)絡(luò)中某神經(jīng)元網(wǎng)絡(luò)中某神經(jīng)元j如圖如圖1.2所示,它有所示,它有m個輸入信個輸入信號號 ,每個輸入通過各自的權(quán)系數(shù),每個輸入通過各自的權(quán)系數(shù) 與神經(jīng)元與神經(jīng)元j相聯(lián)系。第相聯(lián)系。第j神經(jīng)元的綜合輸入量神經(jīng)元的綜合輸入量 為為 mixi1ijWjI 圖圖1.2 神經(jīng)單元模型神經(jīng)單元模型1w1x2xix2wiwjyjimiij

6、jxWI1(2-3) 式中式中 稱為該神經(jīng)元的門檻值或閾值。為了統(tǒng)一表達式,稱為該神經(jīng)元的門檻值或閾值。為了統(tǒng)一表達式,可以令可以令 ,將上式改寫成將上式改寫成 j,jojW10 ximiijjxWI0(2-4) 第第j神經(jīng)元的輸出神經(jīng)元的輸出 為為 jy jjjIfy (2-5) 式中式中 為神經(jīng)元為神經(jīng)元j的傳遞函數(shù)或響應函數(shù),是非線性的傳遞函數(shù)或響應函數(shù),是非線性可微非遞減函數(shù),對各神經(jīng)元可取同一形式??晌⒎沁f減函數(shù),對各神經(jīng)元可取同一形式。 jf傳遞函數(shù)傳遞函數(shù) 通常有通常有jf0-1型型 (2-6) 10jIf時當時當00jjII雙曲正切型雙曲正切型 (2-8) )exp()/exp

7、()exp()exp()tanh(jjjjjjIIIIIIf )exp(1 1jjIIfSigmoid型型 (2-7)目前,用得較多的傳遞函數(shù)是目前,用得較多的傳遞函數(shù)是Sigmoid型函數(shù)或稱為型函數(shù)或稱為S型型函數(shù)。函數(shù)。BP網(wǎng)絡(luò)的自學習是通過若干個已知輸入和輸出的樣本,網(wǎng)絡(luò)的自學習是通過若干個已知輸入和輸出的樣本,來調(diào)整權(quán)系數(shù)來調(diào)整權(quán)系數(shù) 完成的。要求對樣本完成的。要求對樣本 ,網(wǎng)絡(luò)輸出網(wǎng)絡(luò)輸出 和樣本期望輸出和樣本期望輸出 的差值平方和極小,即的差值平方和極小,即ijW)1(Ppp, po pdmin2121jmjpjpjpodE(2-9) 現(xiàn)在考慮圖現(xiàn)在考慮圖2.2所示所示BP網(wǎng)絡(luò),

8、用序號網(wǎng)絡(luò),用序號13分別表示輸入層、分別表示輸入層、隱層和輸出層,為統(tǒng)一符號,規(guī)定右上角標表示層的序隱層和輸出層,為統(tǒng)一符號,規(guī)定右上角標表示層的序號,對第號,對第p樣本,第樣本,第 層的神經(jīng)元層的神經(jīng)元j的輸入和輸出分別用的輸入和輸出分別用 和和 表示,而對應層的神經(jīng)元個數(shù)為表示,而對應層的神經(jīng)元個數(shù)為 ,對圖,對圖2.2而而言,言, 。則網(wǎng)絡(luò)的正向運算為。則網(wǎng)絡(luò)的正向運算為llpjilpjolmNmMmLm321,現(xiàn)在考慮圖現(xiàn)在考慮圖2.2所示所示BP網(wǎng)絡(luò),用序號網(wǎng)絡(luò),用序號13分別表示輸入層、分別表示輸入層、隱層和輸出層,為統(tǒng)一符號,規(guī)定右上角標表示層的序隱層和輸出層,為統(tǒng)一符號,規(guī)定

9、右上角標表示層的序號,對第號,對第p樣本,第樣本,第 層的神經(jīng)元層的神經(jīng)元j的輸入和輸出分別用的輸入和輸出分別用 和和 表示,而對應層的神經(jīng)元個數(shù)為表示,而對應層的神經(jīng)元個數(shù)為 ,對圖,對圖2.2而而言,言, 。則網(wǎng)絡(luò)的正向運算為。則網(wǎng)絡(luò)的正向運算為llpjilpjolmNmMmLm321,圖圖2.2 三層三層BP神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)輸入層輸入層 (2-10)隱層或輸出層隱層或輸出層 lpjljlpjlpkmkljklpjifooWil10111pjpjio1, 1mj)3, 2, 1(lmjl12)-(211)-(2式中式中 表示第表示第 層的神經(jīng)元層的神經(jīng)元 與第與第 層的神經(jīng)元層的神經(jīng)元 之

10、間的權(quán)系數(shù)。之間的權(quán)系數(shù)。ljkW) 1( lklj網(wǎng)絡(luò)第網(wǎng)絡(luò)第 層的神經(jīng)元層的神經(jīng)元j的計算輸出的計算輸出 和樣本期望輸出和樣本期望輸出 的差值記為的差值記為lljpoljpdljpljpljpod)3, 2( l(2-13)要對網(wǎng)絡(luò)的權(quán)系數(shù)不斷進行修正,使得要對網(wǎng)絡(luò)的權(quán)系數(shù)不斷進行修正,使得 小于事先給定小于事先給定的允許誤差,才能完成學習過程,訓練結(jié)束。對于第的允許誤差,才能完成學習過程,訓練結(jié)束。對于第 次學習過程,權(quán)系數(shù)修正量次學習過程,權(quán)系數(shù)修正量 可借鑒不包含隱層的可借鑒不包含隱層的Delta學習算法學習算法(或或 學習算法學習算法)按下式進行調(diào)整按下式進行調(diào)整(也參見式也參見式

11、(2-2)ljp) 1( t) 1( tWljk 1) 1(ljpljpljkotW)3, 2( l(2-14)式中式中為修正因子,一般取小于為修正因子,一般取小于1的常數(shù),也可以在學習的常數(shù),也可以在學習過程中根據(jù)需要而改變。過程中根據(jù)需要而改變。 Delta學習算法的改進學習算法的改進 由式由式(2-11)則式則式(2-17)可改寫為可改寫為將上式與式將上式與式(2-14)比較,可見兩者形式相同。比較,可見兩者形式相同。 1) 1(ljpljpljkotW)3, 2( l(2-14) 而由式而由式(2-12)有有 對式對式(2-7)的的S型函數(shù),上式成為型函數(shù),上式成為 將式將式(2-23

12、)和式和式(2-24)代入式代入式(2-21)得得 將式將式(2-23)和式和式(2-26)代入式代入式(2-21)并考慮式并考慮式(2-15)得得 式式(2-16)和式和式(2-20)給出給出 需要指出的是,當選用需要指出的是,當選用0-1型和型和Sigmoid型傳遞函數(shù)時,網(wǎng)型傳遞函數(shù)時,網(wǎng)絡(luò)輸出的值域為絡(luò)輸出的值域為(0,1)而雙曲正切型的值域為而雙曲正切型的值域為(-1,1),對于超,對于超出此區(qū)間的樣本期望輸出,均需作歸一化處理。出此區(qū)間的樣本期望輸出,均需作歸一化處理。 訓練好的訓練好的BP網(wǎng)絡(luò)已經(jīng)建立了輸入變量與輸出變量之間的網(wǎng)絡(luò)已經(jīng)建立了輸入變量與輸出變量之間的非線性映射關(guān)系,

13、可用于結(jié)構(gòu)損傷非線性映射關(guān)系,可用于結(jié)構(gòu)損傷(裂紋裂紋)識別等反問題的識別等反問題的求解。該法的特點是具有較好的魯棒性,對測量結(jié)果的微求解。該法的特點是具有較好的魯棒性,對測量結(jié)果的微小誤差不很敏感。小誤差不很敏感。 BP網(wǎng)絡(luò)學習網(wǎng)絡(luò)學習(迭代迭代)運算步驟如下:運算步驟如下:事先確定隱層的層數(shù)及各隱層的神經(jīng)元個數(shù)事先確定隱層的層數(shù)及各隱層的神經(jīng)元個數(shù) 2.2 BP網(wǎng)絡(luò)計算框圖網(wǎng)絡(luò)計算框圖BP網(wǎng)絡(luò)計算框圖網(wǎng)絡(luò)計算框圖(流程圖流程圖)見圖見圖2.3: 2.3 BP網(wǎng)絡(luò)的特點和存在的問題網(wǎng)絡(luò)的特點和存在的問題 (1) 是一種非線性映射關(guān)系是一種非線性映射關(guān)系 是靜態(tài)系統(tǒng)而非動力學系統(tǒng),故不涉及穩(wěn)定

14、性問題。是靜態(tài)系統(tǒng)而非動力學系統(tǒng),故不涉及穩(wěn)定性問題。 (2) BP算法收斂速度很慢算法收斂速度很慢 主要由于多峰優(yōu)化問題,只找主要由于多峰優(yōu)化問題,只找到局部最優(yōu)解,產(chǎn)生麻痹,如到局部最優(yōu)解,產(chǎn)生麻痹,如圖圖2.4。A全局最優(yōu)點全局最優(yōu)點B局部優(yōu)化點局部優(yōu)化點圖圖2.4 多峰優(yōu)化問題尋優(yōu)過程示意圖多峰優(yōu)化問題尋優(yōu)過程示意圖 (3) 對隱層的層數(shù)及各隱層的神經(jīng)元個數(shù)尚無理論上的推導對隱層的層數(shù)及各隱層的神經(jīng)元個數(shù)尚無理論上的推導 (4) 對加入的新樣本,網(wǎng)絡(luò)需要重新學習對加入的新樣本,網(wǎng)絡(luò)需要重新學習 2.4 Kolmogorov定理定理Kolmogorov(連續(xù)函數(shù)表示連續(xù)函數(shù)表示)定理定理

15、(1957年年): 2.5 算例算例1NN.FOR221412122212122245 . 44)(xxxxxxxxxXf駐值點由:駐值點由: 8091. 2)(5134. 0)(9855. 0)(4929. 1 ,6117. 0028. 1 ,053. 1854. 3,914. 10032132121XfXfXfXXXxfxf 需要利用導師信息,給出網(wǎng)格點的值作信息,共需要利用導師信息,給出網(wǎng)格點的值作信息,共77=49對對數(shù)據(jù)點,見表數(shù)據(jù)點,見表2-1。x1位于位于-33之間,而之間,而x2位于位于-24之間。之間。 表表2-1 神經(jīng)網(wǎng)絡(luò)訓練數(shù)據(jù)表神經(jīng)網(wǎng)絡(luò)訓練數(shù)據(jù)表x1x2f(X)x1x2

16、f(X)x1x2f(X)x1x2f(X)-3-2120.5-24150242033-3-198.5-1-217.503102119-3080.5-1-17.50420229-3166.5-101.51-234.5233-3256.5-11-0.51-120.5241-3350.5-121.51010.53-2171.5-3448.5-137.5114.53-1137.5-2-239-1417.5122.530107.5-2-1250-220134.53181.5-20150-1101410.53259.5-2190042-2733341.5-2270122-1513427.5-239 程序程序

17、NN.FOR使用說明:使用說明: 數(shù)據(jù)值應在數(shù)據(jù)值應在(0,1)之間,故應作歸一化處理:之間,故應作歸一化處理:62632211xxxx進行坐標平移及數(shù)據(jù)歸一化處理,分子進行坐標平移及數(shù)據(jù)歸一化處理,分子平移;分子平移;分子/分母分母歸一化。歸一化。x1最小值為最小值為-3,x2最小值為最小值為-2,取值區(qū)間分別為,取值區(qū)間分別為3-(-3)=6和和4-(-2)=6。規(guī)格化處理:規(guī)格化處理: 2.6 算例算例2考慮:考慮:1、移軸及歸一化和上下限改變的影響;、移軸及歸一化和上下限改變的影響; 2、隨機數(shù)起始點改變;、隨機數(shù)起始點改變; 3、初始數(shù)據(jù)范圍、初始數(shù)據(jù)范圍(x1,x2)。 大作業(yè)大作業(yè)1:對基本神

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論