神經(jīng)網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn)蘇析超_第1頁
神經(jīng)網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn)蘇析超_第2頁
神經(jīng)網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn)蘇析超_第3頁
神經(jīng)網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn)蘇析超_第4頁
神經(jīng)網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn)蘇析超_第5頁
已閱讀5頁,還剩18頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

1、主要內(nèi)容主要內(nèi)容bp神經(jīng)網(wǎng)絡(luò)編程神經(jīng)網(wǎng)絡(luò)編程bp神經(jīng)網(wǎng)絡(luò)工具箱神經(jīng)網(wǎng)絡(luò)工具箱rbp網(wǎng)絡(luò)工具箱網(wǎng)絡(luò)工具箱grnn網(wǎng)絡(luò)工具箱網(wǎng)絡(luò)工具箱 bp神經(jīng)網(wǎng)絡(luò)通常是指基于誤差反向傳播算法(bp算法)的多層前向神經(jīng)網(wǎng)絡(luò)。 該網(wǎng)絡(luò)的主要特點(diǎn)是信號向前傳遞,誤差反向傳播。向前傳遞中,輸入信號從輸入層經(jīng)隱含層逐層處理,直至輸出層。每一層的神經(jīng)元狀態(tài)只影響到下一層神經(jīng)元狀態(tài)。如果輸出層得不到期望輸出,則轉(zhuǎn)入反向傳播,根據(jù)預(yù)測誤差調(diào)整網(wǎng)絡(luò)權(quán)值和閾值,從而使bp神經(jīng)網(wǎng)絡(luò)預(yù)測輸出不斷逼近期望輸出。 1.bp1.bp神經(jīng)網(wǎng)絡(luò)原理神經(jīng)網(wǎng)絡(luò)原理神經(jīng)網(wǎng)絡(luò)的神經(jīng)網(wǎng)絡(luò)的matlabmatlab實(shí)現(xiàn)實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)的神經(jīng)網(wǎng)絡(luò)的matlabm

2、atlab實(shí)現(xiàn)實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)的神經(jīng)網(wǎng)絡(luò)的matlabmatlab實(shí)現(xiàn)實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)的神經(jīng)網(wǎng)絡(luò)的matlabmatlab實(shí)現(xiàn)實(shí)現(xiàn)% 清空環(huán)境變量clcclear% 訓(xùn)練數(shù)據(jù)預(yù)測數(shù)據(jù)提取及歸一化%下載四類語音信號load data1 c1load data2 c2load data3 c3load data4 c4%從1到2000間隨機(jī)排序k=rand(1,2000);m,n=sort(k);%輸入輸出數(shù)據(jù)input=data(:,2:25);output1 =data(:,1);%四個(gè)特征信號矩陣合成一個(gè)矩陣data(1:500,:)=c1(1:500,:);data(501:1000,:)=c2(

3、1:500,:);data(1001:1500,:)=c3(1:500,:);data(1501:2000,:)=c4(1:500,:);神經(jīng)網(wǎng)絡(luò)的神經(jīng)網(wǎng)絡(luò)的matlabmatlab實(shí)現(xiàn)實(shí)現(xiàn)%隨機(jī)提取1500個(gè)樣本為訓(xùn)練樣本,500個(gè)樣本為預(yù)測樣本input_train=input(n(1:1500),:);output_train=output(n(1:1500),:);input_test=input(n(1501:2000),:);output_test=output(n(1501:2000),:);%輸入數(shù)據(jù)歸一化inputn,inputps=mapminmax(input_train

4、);神經(jīng)網(wǎng)絡(luò)的神經(jīng)網(wǎng)絡(luò)的matlabmatlab實(shí)現(xiàn)實(shí)現(xiàn)% 網(wǎng)絡(luò)結(jié)構(gòu)初始化innum=24;midnum=25;outnum=4; %權(quán)值初始化w1=rands(midnum,innum);b1=rands(midnum,1);w2=rands(midnum,outnum);b2=rands(outnum,1);w2_1=w2;w2_2=w2_1;w1_1=w1;w1_2=w1_1;b1_1=b1;b1_2=b1_1;b2_1=b2;b2_2=b2_1;%學(xué)習(xí)率xite=0.1;%alfa=0.01;神經(jīng)網(wǎng)絡(luò)的神經(jīng)網(wǎng)絡(luò)的matlabmatlab實(shí)現(xiàn)實(shí)現(xiàn)% 網(wǎng)絡(luò)訓(xùn)練for ii=1:10 e(i

5、i)=0; for i=1:1:1500 % 網(wǎng)絡(luò)預(yù)測輸出 x=inputn(:,i); % 隱含層輸出 for j=1:1:midnum i(j)=inputn(:,i)*w1(j,:)+b1(j); iout(j)=1/(1+exp(-i(j); end % 輸出層輸出 yn=w2*iout+b2; 神經(jīng)網(wǎng)絡(luò)的神經(jīng)網(wǎng)絡(luò)的matlabmatlab實(shí)現(xiàn)實(shí)現(xiàn) % 權(quán)值閥值修正 %計(jì)算誤差 e=output_train(:,i)-yn; e(ii)=e(ii)+sum(abs(e); %計(jì)算權(quán)值變化率 dw2=e*iout; db2=e;神經(jīng)網(wǎng)絡(luò)的神經(jīng)網(wǎng)絡(luò)的matlabmatlab實(shí)現(xiàn)實(shí)現(xiàn)for

6、j=1:1:midnum s=1/(1+exp(-i(j); fi(j)=s*(1-s); end for k=1:1:innum for j=1:1:midnum dw1(k,j)=fi(j)*x(k)*(e(1)*w2(j,1)+e(2)*w2(j,2)+e(3)*w2(j,3)+e(4)*w2(j,4); db1(j)=fi(j)*(e(1)*w2(j,1)+e(2)*w2(j,2)+e(3)*w2(j,3)+e(4)*w2(j,4); end end神經(jīng)網(wǎng)絡(luò)的神經(jīng)網(wǎng)絡(luò)的matlabmatlab實(shí)現(xiàn)實(shí)現(xiàn) w1=w1_1+xite*dw1; b1=b1_1+xite*db1; w2=w2_

7、1+xite*dw2; b2=b2_1+xite*db2; w1_2=w1_1;w1_1=w1; w2_2=w2_1;w2_1=w2; b1_2=b1_1;b1_1=b1; b2_2=b2_1;b2_1=b2; endend神經(jīng)網(wǎng)絡(luò)的神經(jīng)網(wǎng)絡(luò)的matlabmatlab實(shí)現(xiàn)實(shí)現(xiàn)% 語音特征信號分類inputn_test=mapminmax(apply,input_test,inputps);for ii=1:1 for i=1:500%1500 %隱含層輸出 for j=1:1:midnum i(j)=inputn_test(:,i)*w1(j,:)+b1(j); iout(j)=1/(1+ex

8、p(-i(j); end fore(:,i)=w2*iout+b2; endend神經(jīng)網(wǎng)絡(luò)的神經(jīng)網(wǎng)絡(luò)的matlabmatlab實(shí)現(xiàn)實(shí)現(xiàn)% 結(jié)果分析 %根據(jù)網(wǎng)絡(luò)輸出找出數(shù)據(jù)屬于哪類for i=1:500 output_fore(i)=find(fore(:,i)=max(fore(:,i);end%bp網(wǎng)絡(luò)預(yù)測誤差error=output_fore-output1(n(1501:2000);%畫出預(yù)測語音種類和實(shí)際語音種類的分類圖figure(1)plot(output_fore,r)hold onplot(output1(n(1501:2000),b)legend(預(yù)測語音類別,實(shí)際語音類別)

9、神經(jīng)網(wǎng)絡(luò)的神經(jīng)網(wǎng)絡(luò)的matlabmatlab實(shí)現(xiàn)實(shí)現(xiàn)%畫出誤差圖figure(2)plot(error)title(bp網(wǎng)絡(luò)分類誤差,fontsize,12)xlabel(語音信號,fontsize,12)ylabel(分類誤差,fontsize,12)神經(jīng)網(wǎng)絡(luò)的神經(jīng)網(wǎng)絡(luò)的matlabmatlab實(shí)現(xiàn)實(shí)現(xiàn)k=zeros(1,4); %找出判斷錯(cuò)誤的分類屬于哪一類for i=1:500 if error(i)=0 b,c=max(output_test(:,i); switch c case 1 k(1)=k(1)+1; case 2 k(2)=k(2)+1; case 3 k(3)=k(3)+

10、1; case 4 k(4)=k(4)+1; end endend神經(jīng)網(wǎng)絡(luò)的神經(jīng)網(wǎng)絡(luò)的matlabmatlab實(shí)現(xiàn)實(shí)現(xiàn)%找出每類的個(gè)體和kk=zeros(1,4);for i=1:500 b,c=max(output_test(:,i); switch c case 1 kk(1)=kk(1)+1; case 2 kk(2)=kk(2)+1; case 3 kk(3)=kk(3)+1; case 4 kk(4)=kk(4)+1; endend%正確率rightridio=(kk-k)./kknewff函數(shù)newff用來生成一個(gè)bp網(wǎng)絡(luò)net=newff(pr,s1 s2.sn,tf1 tf2.

11、 tfn,btf,blf,pf)pr: 一個(gè)r2矩陣, 由r維輸入向量的每維最小值和最大值組成si: 第i層的神經(jīng)元個(gè)數(shù)tfi: 第i層的傳遞函數(shù), 默認(rèn)為tansigbtf: 訓(xùn)練函數(shù), 默認(rèn)為trainlmblf: 學(xué)習(xí)函數(shù), 默認(rèn)為learngdmpf: 性能函數(shù), 默認(rèn)為msenet=newff(0,10;-1,2,5,1,tansig,purelin,trainlm); %生成一個(gè)兩層bp網(wǎng)絡(luò),隱層和輸出層神經(jīng)的個(gè)數(shù)為5和1, 傳遞函數(shù)分別為tansig和purelin, 訓(xùn)練函數(shù)為trainlm, 其他默認(rèn)bpbp神經(jīng)網(wǎng)絡(luò)工具箱神經(jīng)網(wǎng)絡(luò)工具箱學(xué)習(xí)算法適用問題類型收斂性能占用存儲空間

12、其他特點(diǎn)trainlm函數(shù)擬合收斂快,誤差小大性能隨網(wǎng)絡(luò)規(guī)模增大而變差trainrp模式分類收斂最快較小性能隨網(wǎng)絡(luò)訓(xùn)練誤差減小而變差trainscg函數(shù)擬合模式分類收斂較快性能穩(wěn)定中等尤其適用于網(wǎng)絡(luò)規(guī)模較大的情況trainbfg函數(shù)擬合收斂較快較大計(jì)算量歲網(wǎng)絡(luò)規(guī)模的增大呈幾何增長traingdx模式分類收斂較慢較小適用于提前停止的方法 matlab神經(jīng)網(wǎng)絡(luò)工具箱對常規(guī)bp算法進(jìn)行改進(jìn),提供了一系列快速算法,以滿足不同問題的需要bpbp神經(jīng)網(wǎng)絡(luò)工具箱神經(jīng)網(wǎng)絡(luò)工具箱 利用已知的”輸入目標(biāo)”樣本向量數(shù)據(jù)對網(wǎng)絡(luò)進(jìn)行訓(xùn)練,采用train 函數(shù)來完成. 訓(xùn)練之前, 對訓(xùn)練參數(shù)進(jìn)行設(shè)置 訓(xùn)練參數(shù) 參數(shù)含義

13、默認(rèn)值net.trainparam.epochs訓(xùn)練步數(shù)100net.trainparam.show顯示訓(xùn)練結(jié)果的間隔步數(shù)25net.trainparam.goal訓(xùn)練目標(biāo)誤差0net.trainparam.time訓(xùn)練允許時(shí)間infnet.trainparam.lr學(xué)習(xí)率0.01net = train(net, p, t)bpbp神經(jīng)網(wǎng)絡(luò)工具箱神經(jīng)網(wǎng)絡(luò)工具箱網(wǎng)絡(luò)層數(shù) 已經(jīng)證明,單隱層的bp網(wǎng)絡(luò)可以實(shí)現(xiàn)任意非線性映射. bp網(wǎng)絡(luò)的隱層數(shù)一般不超過兩層.輸入層的節(jié)點(diǎn)數(shù) 輸入層接收外部的輸入數(shù)據(jù), 節(jié)點(diǎn)數(shù)取決于輸入向量的維數(shù)輸出層的節(jié)點(diǎn)數(shù) 輸出層的節(jié)點(diǎn)數(shù)取決于輸出數(shù)據(jù)類型和該類型所需的數(shù)據(jù)大小.對

14、于模式分類問題,節(jié)點(diǎn)數(shù)為2log mbpbp神經(jīng)網(wǎng)絡(luò)工具箱神經(jīng)網(wǎng)絡(luò)工具箱隱層的節(jié)點(diǎn)數(shù) 隱層的節(jié)點(diǎn)數(shù)與求解問題的要求,輸入輸出單元數(shù)多少有關(guān). 對于模式識別/分類的節(jié)點(diǎn)數(shù)可按下列公式設(shè)計(jì)傳遞函數(shù) 隱層傳遞函數(shù)采用s型函數(shù), 輸出層采用s型函數(shù)或線性函數(shù)訓(xùn)練方法及其參數(shù)選擇 針對不同應(yīng)用, bp網(wǎng)絡(luò)提供了多種訓(xùn)練學(xué)習(xí)方法.0innnan其中為隱層節(jié)點(diǎn)數(shù),in為輸入節(jié)點(diǎn)數(shù),a為110之間的整數(shù)bpbp神經(jīng)網(wǎng)絡(luò)工具箱神經(jīng)網(wǎng)絡(luò)工具箱采用動量梯度下降算法訓(xùn)練bp網(wǎng)絡(luò). 訓(xùn)練樣本%定義訓(xùn)練樣本p=-1 -1 3 1;-1 1 5 -3; t=-1 -1 1 1;%創(chuàng)建一個(gè)新的bp網(wǎng)絡(luò)net=newff(minmax(p),3 1,tansig,purelin,traingdm);%設(shè)置訓(xùn)練參數(shù)n

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論