MATLAB神經(jīng)網(wǎng)絡(luò)實(shí)驗(yàn)ppt課件_第1頁
MATLAB神經(jīng)網(wǎng)絡(luò)實(shí)驗(yàn)ppt課件_第2頁
MATLAB神經(jīng)網(wǎng)絡(luò)實(shí)驗(yàn)ppt課件_第3頁
MATLAB神經(jīng)網(wǎng)絡(luò)實(shí)驗(yàn)ppt課件_第4頁
MATLAB神經(jīng)網(wǎng)絡(luò)實(shí)驗(yàn)ppt課件_第5頁
已閱讀5頁,還剩17頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

1、MATLAB神經(jīng)網(wǎng)絡(luò)工具箱引見及實(shí)驗(yàn)要求神經(jīng)元模型Neuron Model: 多輸入,單輸出,帶偏置輸入:R維列向量1,TRppp權(quán)值:R維行向量111,Rwwwb閾值:標(biāo)量求和單元11Riiinp wb傳送函數(shù)f輸出()afbwp常用傳送函數(shù)aWp-b1-1u閾值函數(shù)1(0)( )hardlim( )0(0)naf nnnMATLAB函數(shù): hardlim1(0)( )hardlim ( )1(0)naf ns nnMATLAB函數(shù): hardlims線性函數(shù)uPurelin Transfer Function :( )af nnanMATLAB函數(shù): purelinSigmoid函數(shù)uSi

2、gmoid Function :u特性:u值域a(0,1)u非線性,單調(diào)性u(píng)無限次可微u|n|較小時(shí)可近似線性函數(shù)u|n|較大時(shí)可近似閾值函數(shù)1( )1naf neMATLAB函數(shù): logsig(對(duì)數(shù)), tansig(正切)對(duì)數(shù)Sigmoid函數(shù)正切Sigmoid函數(shù)tanh( )nnnneeanee 前饋神經(jīng)網(wǎng)絡(luò)u前饋神經(jīng)網(wǎng)絡(luò)(feed forward NN):各神經(jīng)元接受前級(jí)輸入,并輸出到下一級(jí),無反響,可用一有向無環(huán)圖表示。u前饋網(wǎng)絡(luò)通常分為不同的層(layer),第i層的輸入只與第i-1層的輸出結(jié)合。u可見層:輸入層(input layer)和輸出層(output layer)u隱

3、藏層(hidden layer) :中間層BP網(wǎng)絡(luò)l 多層前饋網(wǎng)絡(luò)l 主要功能: 函數(shù)逼近, 方式識(shí)別, 信息分類l 傳送函數(shù):隱層采用S形函數(shù),輸出層S形函數(shù)或線性函數(shù)BP網(wǎng)絡(luò)的生成newff函數(shù)newff用來生成一個(gè)BP網(wǎng)絡(luò)net=newff(PR,S1 S2.SN,TF1 TF2. TFN,BTF,BLF,PF)PR: 一個(gè)R2矩陣, 由R維輸入向量的每維最小值和最大值組成Si: 第i層的神經(jīng)元個(gè)數(shù)TFi: 第i層的傳送函數(shù), 默以為tansigBTF: 訓(xùn)練函數(shù), 默以為trainlmBLF: 學(xué)習(xí)函數(shù), 默以為learngdmPF: 性能函數(shù), 默以為msenet=newff(0,1

4、0;-1,2,5,1,tansig,purelin,trainlm); %生成一個(gè)兩層BP網(wǎng)絡(luò),隱層和輸出層神經(jīng)的個(gè)數(shù)為5和1, 傳送函數(shù)分別為tansig和purelin, 訓(xùn)練函數(shù)為trainlm, 其他默許BP網(wǎng)絡(luò)的初始化 newff 函數(shù)在建立網(wǎng)絡(luò)對(duì)象的同時(shí), 自動(dòng)調(diào)用初始化函數(shù), 根據(jù)缺省的參數(shù)設(shè)置網(wǎng)絡(luò)的銜接權(quán)值和閾值. 運(yùn)用函數(shù)init可以對(duì)網(wǎng)絡(luò)進(jìn)展自定義的初始化. 經(jīng)過選擇初始化函數(shù), 可對(duì)各層銜接權(quán)值和閾值分別進(jìn)展不同的初始化.BP網(wǎng)絡(luò)的學(xué)習(xí)規(guī)那么 權(quán)值和閾值的調(diào)理規(guī)那么采用誤差反向傳播算法(back propagation). 反向傳播算法分二步進(jìn)展,即正向傳播和反向傳播。

5、1正向傳播 輸入的樣本從輸入層經(jīng)過隱單元一層一層進(jìn)展處置,經(jīng)過一切的隱層之后,那么傳向輸出層;在逐層處置的過程中,每一層神經(jīng)元的形狀只對(duì)下一層神經(jīng)元的形狀產(chǎn)生影響。在輸出層把現(xiàn)行輸出和期望輸出進(jìn)展比較,假設(shè)現(xiàn)行輸出不等于期望輸出,那么進(jìn)入反向傳播過程。2反向傳播 反向傳播時(shí),把誤差信號(hào)按原來正向傳播的通路反向傳回,并對(duì)每個(gè)隱層的各個(gè)神經(jīng)元的權(quán)系數(shù)進(jìn)展修正,以望誤差信號(hào)趨向最小。BP算法本質(zhì)是求取誤差函數(shù)的最小值問題。這種算法采用非線性規(guī)劃中的最速下降方法,按誤差函數(shù)的負(fù)梯度方向修正權(quán)系數(shù)。BP網(wǎng)絡(luò)的快速學(xué)習(xí)算法與選擇學(xué)習(xí)算法適用問題類型收斂性能占用存儲(chǔ)空間其他特點(diǎn)trainlm函數(shù)擬合收斂快,

6、誤差小大性能隨網(wǎng)絡(luò)規(guī)模增大而變差trainrp模式分類收斂最快較小性能隨網(wǎng)絡(luò)訓(xùn)練誤差減小而變差trainscg函數(shù)擬合模式分類收斂較快性能穩(wěn)定中等尤其適用于網(wǎng)絡(luò)規(guī)模較大的情況trainbfg函數(shù)擬合收斂較快較大計(jì)算量歲網(wǎng)絡(luò)規(guī)模的增大呈幾何增長traingdx模式分類收斂較慢較小適用于提前停止的方法 MATLAB神經(jīng)網(wǎng)絡(luò)工具箱對(duì)常規(guī)BP算法進(jìn)展改良,提供了一系列快速算法,以滿足不同問題的需求BP網(wǎng)絡(luò)的訓(xùn)練 利用知的輸入目的樣本向量數(shù)據(jù)對(duì)網(wǎng)絡(luò)進(jìn)展訓(xùn)練,采用train 函數(shù)來完成. 訓(xùn)練之前, 對(duì)訓(xùn)練參數(shù)進(jìn)展設(shè)置 訓(xùn)練參數(shù) 參數(shù)含義 默認(rèn)值net.trainParam.epochs訓(xùn)練步數(shù)100ne

7、t.trainParam.show顯示訓(xùn)練結(jié)果的間隔步數(shù)25net.trainParam.goal訓(xùn)練目標(biāo)誤差0net.trainParam.time訓(xùn)練允許時(shí)間INfnet.trainParam.lr學(xué)習(xí)率0.01net = train(net, P, T)BP網(wǎng)絡(luò)的設(shè)計(jì)(1)網(wǎng)絡(luò)層數(shù) 曾經(jīng)證明,單隱層的BP網(wǎng)絡(luò)可以實(shí)現(xiàn)恣意非線性映射. BP網(wǎng)絡(luò)的隱層數(shù)普通不超越兩層.輸入層的節(jié)點(diǎn)數(shù) 輸入層接納外部的輸入數(shù)據(jù), 節(jié)點(diǎn)數(shù)取決于輸入向量的維數(shù)輸出層的節(jié)點(diǎn)數(shù) 輸出層的節(jié)點(diǎn)數(shù)取決于輸出數(shù)據(jù)類型和該類型所需的數(shù)據(jù)大小.對(duì)于方式分類問題,節(jié)點(diǎn)數(shù)為2log mBP網(wǎng)絡(luò)的設(shè)計(jì)(2)隱層的節(jié)點(diǎn)數(shù) 隱層的節(jié)點(diǎn)數(shù)

8、與求解問題的要求,輸入輸出單元數(shù)多少有關(guān). 對(duì)于方式識(shí)別/分類的節(jié)點(diǎn)數(shù)可按以下公式設(shè)計(jì)傳送函數(shù) 隱層傳送函數(shù)采用S型函數(shù), 輸出層采用S型函數(shù)或線性函數(shù)訓(xùn)練方法及其參數(shù)選擇 針對(duì)不同運(yùn)用, BP網(wǎng)絡(luò)提供了多種訓(xùn)練學(xué)習(xí)方法.0innnan其中為隱層節(jié)點(diǎn)數(shù),in為輸入節(jié)點(diǎn)數(shù),a為110之間的整數(shù)BP網(wǎng)絡(luò)設(shè)計(jì)實(shí)例采用動(dòng)量梯度下降算法訓(xùn)練BP網(wǎng)絡(luò). 訓(xùn)練樣本%定義訓(xùn)練樣本p=-1 -1 3 1;-1 1 5 -3; t=-1 -1 1 1;%創(chuàng)建一個(gè)新的BP網(wǎng)絡(luò)net=newff(minmax(p),3 1,tansig,purelin,traingdm);%設(shè)置訓(xùn)練參數(shù)net.trainParam.

9、epochs=1000;net.trainParam.goal=0.001;net.trainParam.show=50;net.trainParam.lr=0.05;net.trainParam.mc=0.9;%動(dòng)量因子,缺省為0.9net=train(net,p,t); % 訓(xùn)練網(wǎng)絡(luò)A=sim(net,p) %網(wǎng)絡(luò)仿真目的線訓(xùn)練誤差變化曲線訓(xùn)練誤差變化曲線每次不同實(shí)驗(yàn)實(shí)驗(yàn)2: BP網(wǎng)絡(luò)用于曲線擬合網(wǎng)絡(luò)用于曲線擬合 要求設(shè)計(jì)一個(gè)簡單的BP網(wǎng)絡(luò),實(shí)現(xiàn)對(duì)非線性函數(shù)的逼近。經(jīng)過改動(dòng)該函數(shù)的參數(shù)以及BP網(wǎng)絡(luò)隱層神經(jīng)元的數(shù)目,來察看訓(xùn)練時(shí)間以及訓(xùn)練誤差的變化情況。Step1: 將要逼近的非線性函數(shù)設(shè)為

10、正弦函數(shù)k = 1; p = -1:.05:1;t = sin(k*pi*p);plot(p,t,-)title(要逼近的非線性函數(shù));xlabel(時(shí)間);ylabel(非線性函數(shù)); Step 2: 網(wǎng)絡(luò)建立 運(yùn)用函數(shù)newff()建立BP網(wǎng)絡(luò)構(gòu)造,為二層BP網(wǎng)絡(luò)。隱層神經(jīng)元數(shù)目n可以改動(dòng),暫設(shè)為10,輸出層有一個(gè)神經(jīng)元。選擇隱層和輸出層神經(jīng)元傳送函數(shù)分別為tansig函數(shù)和purelin函數(shù),網(wǎng)絡(luò)訓(xùn)練算法采用trainlmn = 10;net = newff(minmax(p), n,1, tansig purelin, trainlm);% 對(duì)于該初始網(wǎng)絡(luò),可以運(yùn)用sim()函數(shù)察看網(wǎng)

11、絡(luò)輸出y1 = sim(net,p);% 同時(shí)繪制網(wǎng)絡(luò)輸出曲線,并與原函數(shù)相比較figure;plot(p,t,-,p,y1,-)title(未訓(xùn)練網(wǎng)絡(luò)的輸出結(jié)果);xlabel(時(shí)間);ylabel(仿真輸出 原函數(shù) );由于運(yùn)用newff()函數(shù)建立網(wǎng)絡(luò)時(shí),權(quán)值和閾值的初始化是隨機(jī)的,所以網(wǎng)絡(luò)輸出的結(jié)果很差,根本達(dá)不到函數(shù)逼近的目的,并且每次運(yùn)轉(zhuǎn)結(jié)果也有所不同。 Step 3: 網(wǎng)絡(luò)訓(xùn)練 運(yùn)用函數(shù)train()對(duì)網(wǎng)絡(luò)進(jìn)展訓(xùn)練之前,要先設(shè)置訓(xùn)練參數(shù)。將訓(xùn)練時(shí)間設(shè)置為50,精度設(shè)置為0.01,其他用缺省值。 訓(xùn)練后得到的誤差變化過程如圖:net.trainParam.epochs = 50;net.trainParam.goal = 0.01;net = train(net,p,t);Stet 4: 網(wǎng)絡(luò)測試對(duì)于訓(xùn)練好的網(wǎng)絡(luò)進(jìn)展仿真并繪制網(wǎng)絡(luò)輸出

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論