BP神經(jīng)網(wǎng)絡(luò)matlab實現(xiàn)和matlab工具箱使用實例_第1頁
BP神經(jīng)網(wǎng)絡(luò)matlab實現(xiàn)和matlab工具箱使用實例_第2頁
BP神經(jīng)網(wǎng)絡(luò)matlab實現(xiàn)和matlab工具箱使用實例_第3頁
BP神經(jīng)網(wǎng)絡(luò)matlab實現(xiàn)和matlab工具箱使用實例_第4頁
BP神經(jīng)網(wǎng)絡(luò)matlab實現(xiàn)和matlab工具箱使用實例_第5頁
全文預(yù)覽已結(jié)束

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

1、BP神經(jīng)網(wǎng)絡(luò)matlab實現(xiàn)和matlab工具箱使用實例經(jīng)過最近一段時間的神經(jīng)網(wǎng)絡(luò)學(xué)習(xí),終于能初步使用matlab實現(xiàn)BP網(wǎng)絡(luò)仿真試驗。這里特別感謝研友sistor2004的帖子自己編的BP算法(工具:matlab)和研友wangleisxcc的帖子用C+,Matlab,F(xiàn)ortran實現(xiàn)的BP算法 前者幫助我對BP算法有了更明確的認(rèn)識,后者讓我對matlab下BP函數(shù)的使用有了初步了解。因為他們發(fā)的帖子都沒有加注釋,對我等新手閱讀時有一定困難,所以我把sistor2004發(fā)的程序稍加修改后加注了詳細(xì)解釋,方便新手閱讀。%嚴(yán)格按照BP網(wǎng)絡(luò)計算公式來設(shè)計的一個matlab程序,對BP網(wǎng)絡(luò)進(jìn)行了優(yōu)

2、化設(shè)計%yyy,即在o(k)計算公式時,當(dāng)網(wǎng)絡(luò)進(jìn)入平坦區(qū)時(<0.0001)學(xué)習(xí)率加大, 出來后學(xué)習(xí)率又還原%v(i,j)=v(i,j)+deltv(i,j)+a*dv(i,j); 動量項clear allclcinputNums=3; %輸入層節(jié)點outputNums=3; %輸出層節(jié)點hideNums=10; %隱層節(jié)點數(shù)maxcount=20000; %最大迭代次數(shù)samplenum=3; %一個計數(shù)器,無意義precision=0.001; %預(yù)設(shè)精度yyy=1.3; %yyy是幫助網(wǎng)絡(luò)加速走出平坦區(qū) alpha=0.01; %學(xué)習(xí)率設(shè)定值a=0.5; %BP優(yōu)化算法的一個設(shè)定值

3、,對上組訓(xùn)練的調(diào)整值按比例修改 字串9 error=zeros(1,maxcount+1); %error數(shù)組初始化;目的是預(yù)分配內(nèi)存空間errorp=zeros(1,samplenum); %同上v=rand(inputNums,hideNums); %3*10;v初始化為一個3*10的隨機(jī)歸一矩陣; v表輸入層到隱層的權(quán)值deltv=zeros(inputNums,hideNums); %3*10;內(nèi)存空間預(yù)分配dv=zeros(inputNums,hideNums); %3*10; w=rand(hideNums,outputNums); %10*3;同Vdeltw=zeros(hide

4、Nums,outputNums);%10*3dw=zeros(hideNums,outputNums); %10*3samplelist=0.1323,0.323,-0.132;0.321,0.2434,0.456;-0.6546,-0.3242,0.3255; %3*3;指定輸入值3*3(實為3個向量)expectlist=0.5435,0.422,-0.642;0.1,0.562,0.5675;-0.6464,-0.756,0.11; %3*3;期望輸出值3*3(實為3個向量),有導(dǎo)師的監(jiān)督學(xué)習(xí)count=1;while (count<=maxcount) %結(jié)束條件1迭代20000

5、次c=1;while (c<=samplenum)for k=1:outputNums d(k)=expectlist(c,k); %獲得期望輸出的向量,d(1:3)表示一個期望向量內(nèi) 的值endfor i=1:inputNumsx(i)=samplelist(c,i); %獲得輸入的向量(數(shù)據(jù)),x(1:3)表一個訓(xùn)練向量字串4end%Forward();for j=1:hideNumsnet=0.0;for i=1:inputNumsnet=net+x(i)*v(i,j);%輸入層到隱層的加權(quán)和X(i)V(i) endy(j)=1/(1+exp(-net); %輸出層處理f(x)=1

6、/(1+exp(-x)單極性sigmiod函數(shù)endfor k=1:outputNumsnet=0.0;for j=1:hideNumsnet=net+y(j)*w(j,k);endif count>=2&&error(count)-error(count+1)<=0.0001o(k)=1/(1+exp(-net)/yyy); %平坦區(qū)加大學(xué)習(xí)率else o(k)=1/(1+exp(-net); %同上endend%BpError(c)反饋/修改;errortmp=0.0;for k=1:outputNumserrortmp=errortmp+(d(k)-o(k)2

7、; %第一組訓(xùn)練后的誤差計算enderrorp(c)=0.5*errortmp; %誤差E=(d(k)-o(k)2 * 1/2 %end%Backward();for k=1:outputNumsyitao(k)=(d(k)-o(k)*o(k)*(1-o(k); %輸入層誤差偏導(dǎo) 字串5 endfor j=1:hideNumstem=0.0;for k=1:outputNumstem=tem+yitao(k)*w(j,k); %為了求隱層偏導(dǎo),而計算的endyitay(j)=tem*y(j)*(1-y(j); %隱層偏導(dǎo) end%調(diào)整各層權(quán)值for j=1:hideNumsfor k=1:ou

8、tputNumsdeltw(j,k)=alpha*yitao(k)*y(j); %權(quán)值w的調(diào)整量deltw(已乘學(xué)習(xí)率)w(j,k)=w(j,k)+deltw(j,k)+a*dw(j,k);%權(quán)值調(diào)整,這里的dw=dletw(t-1),實際是對BP算法的一個dw(j,k)=deltw(j,k); %改進(jìn)措施-增加動量項目的是提高訓(xùn)練速度 end endfor i=1:inputNumsfor j=1:hideNumsdeltv(i,j)=alpha*yitay(j)*x(i); %同上deltwv(i,j)=v(i,j)+deltv(i,j)+a*dv(i,j); dv(i,j)=deltv(

9、i,j);endendc=c+1;end%第二個while結(jié)束;表示一次BP訓(xùn)練結(jié)束double tmp;tmp=0.0; 字串8 for i=1:samplenumtmp=tmp+errorp(i)*errorp(i);%誤差求和endtmp=tmp/c;error(count)=sqrt(tmp);%誤差求均方根,即精度if (error(count)<precision)%另一個結(jié)束條件break;endcount=count+1;%訓(xùn)練次數(shù)加1end%第一個while結(jié)束error(maxcount+1)=error(maxcount);p=1:count;pp=p/50;plo

10、t(pp,error(p),"-"); %顯示誤差 然后下面是研友wangleisxcc的程序基礎(chǔ)上,我把初始化網(wǎng)絡(luò),訓(xùn)練網(wǎng)絡(luò),和網(wǎng)絡(luò)使用三個稍微集成后的一個新函數(shù)bpnet%簡單的BP神經(jīng)網(wǎng)絡(luò)集成,使用時直接調(diào)用bpnet就行%輸入的是 p-作為訓(xùn)練值的輸入% t-也是網(wǎng)絡(luò)的期望輸出結(jié)果% ynum-設(shè)定隱層點數(shù) 一般取320; % maxnum-如果訓(xùn)練一直達(dá)不到期望誤差之內(nèi),那么BP迭代的次數(shù) 一般設(shè)為5000% ex-期望誤差,也就是訓(xùn)練一小于這個誤差后結(jié)束迭代 一般設(shè)為0.01% lr-學(xué)習(xí)率 一般設(shè)為0.01% pp-使用p-t虛擬藍(lán)好的BP網(wǎng)絡(luò)來分類計算的向量

11、,也就是嵌入二值水印的大組系數(shù)進(jìn)行訓(xùn)練然后得到二值序列% ww-輸出結(jié)果% 注明:ynum,maxnum,ex,lr均是一個值;而p,t,pp,ww均可以為向量 字串1 % 比如p是m*n的n維行向量,t那么為m*k的k維行向量,pp為o*i的i維行向量,ww為o* k的k維行向量%p,t作為網(wǎng)絡(luò)訓(xùn)練輸入,pp作為訓(xùn)練好的網(wǎng)絡(luò)輸入計算,最后的ww作為pp經(jīng)過訓(xùn)練好的BP訓(xùn)練后的輸出function ww=bpnet(p,t,ynum,maxnum,ex,lr,pp)plot(p,t,"+");title("訓(xùn)練向量");xlabel("P&qu

12、ot;);ylabel("t");w1,b1,w2,b2=initff(p,ynum,"tansig",t,"purelin"); %初始化含一個隱層的BP網(wǎng)絡(luò)zhen=25; %每迭代多少次更新顯示biglr=1.1; %學(xué)習(xí)慢時學(xué)習(xí)率(用于跳出平坦區(qū))litlr=0.7; %學(xué)習(xí)快時學(xué)習(xí)率(梯度下降過快時)a=0.7 %動量項a大小(W(t)=lr*X*+a*W(t-1)tp=zhen maxnum ex lr biglr litlr a 1.04; %trainbpxw1,b1,w2,b2,ep,tr=trainbpx(w1,b

13、1,"tansig",w2,b2,"purelin",p,t,tp);ww=simuff(pp,w1,b1,"tansig",w2,b2,"purelin"); %ww就是調(diào)用結(jié)果下面是bpnet使用簡例:%bpnet舉例,因為BP網(wǎng)絡(luò)的權(quán)值初始化都是隨即生成,所以每次運(yùn)行的狀態(tài)可能不一樣。%如果初始化的權(quán)值有利于訓(xùn)練,那么可能很快能結(jié)束訓(xùn)練,反之則反之 字串6 clear allclcfigurerandn("state",sum(100*clock)num1=5; %隱節(jié)點數(shù)num2=10000; %最大迭代次數(shù)a1=0.02; %期望誤差a2=0.05; %學(xué)習(xí)率test=randn(1,5)*0.5; %隨即生成5個測試值in=-1:.1:1; %訓(xùn)練值expout=-.9602 -.5770 -.0729 .3771 .6405 .6600 .4609 .1336 -.2013 -.4344 -.5000 -.3930 -.1647 .0988 .3072 .3960 .3449 .1816 -.0312 -.21

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論