神經(jīng)網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn)蘇析超_第1頁
神經(jīng)網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn)蘇析超_第2頁
神經(jīng)網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn)蘇析超_第3頁
神經(jīng)網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn)蘇析超_第4頁
神經(jīng)網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn)蘇析超_第5頁
已閱讀5頁,還剩18頁未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

1、主要內(nèi)容,BP神經(jīng)網(wǎng)絡(luò)編程 BP神經(jīng)網(wǎng)絡(luò)工具箱 RBP網(wǎng)絡(luò)工具箱 GRNN網(wǎng)絡(luò)工具箱,BP神經(jīng)網(wǎng)絡(luò)通常是指基于誤差反向傳播算法(BP算法)的多層前向神經(jīng)網(wǎng)絡(luò)。 該網(wǎng)絡(luò)的主要特點(diǎn)是信號向前傳遞,誤差反向傳播。向前傳遞中,輸入信號從輸入層經(jīng)隱含層逐層處理,直至輸出層。每一層的神經(jīng)元狀態(tài)只影響到下一層神經(jīng)元狀態(tài)。如果輸出層得不到期望輸出,則轉(zhuǎn)入反向傳播,根據(jù)預(yù)測誤差調(diào)整網(wǎng)絡(luò)權(quán)值和閾值,從而使BP神經(jīng)網(wǎng)絡(luò)預(yù)測輸出不斷逼近期望輸出,1.BP神經(jīng)網(wǎng)絡(luò)原理,神經(jīng)網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn),神經(jīng)網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn),神經(jīng)網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn),神經(jīng)網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn), 清空環(huán)境變量 clc clear %

2、訓(xùn)練數(shù)據(jù)預(yù)測數(shù)據(jù)提取及歸一化 %下載四類語音信號 load data1 c1 load data2 c2 load data3 c3 load data4 c4,從1到2000間隨機(jī)排序 k=rand(1,2000); m,n=sort(k); %輸入輸出數(shù)據(jù) input=data(:,2:25); output1 =data(:,1,四個(gè)特征信號矩陣合成一個(gè)矩陣 data(1:500,:)=c1(1:500,:); data(501:1000,:)=c2(1:500,:); data(1001:1500,:)=c3(1:500,:); data(1501:2000,:)=c4(1:500,:

3、,神經(jīng)網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn),隨機(jī)提取1500個(gè)樣本為訓(xùn)練樣本,500個(gè)樣本為預(yù)測樣本 input_train=input(n(1:1500),:); output_train=output(n(1:1500),:); input_test=input(n(1501:2000),:); output_test=output(n(1501:2000),:); %輸入數(shù)據(jù)歸一化 inputn,inputps=mapminmax(input_train,神經(jīng)網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn), 網(wǎng)絡(luò)結(jié)構(gòu)初始化 innum=24; midnum=25; outnum=4; %權(quán)值初始化 w1=rands(midn

4、um,innum); b1=rands(midnum,1); w2=rands(midnum,outnum); b2=rands(outnum,1,w2_1=w2;w2_2=w2_1; w1_1=w1;w1_2=w1_1; b1_1=b1;b1_2=b1_1; b2_1=b2;b2_2=b2_1; %學(xué)習(xí)率 xite=0.1; %alfa=0.01,神經(jīng)網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn), 網(wǎng)絡(luò)訓(xùn)練 for ii=1:10 E(ii)=0; for i=1:1:1500 % 網(wǎng)絡(luò)預(yù)測輸出 x=inputn(:,i); % 隱含層輸出 for j=1:1:midnum I(j)=inputn(:,i)*w1

5、(j,:)+b1(j); Iout(j)=1/(1+exp(-I(j); end % 輸出層輸出 yn=w2*Iout+b2,神經(jīng)網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn), 權(quán)值閥值修正 %計(jì)算誤差 e=output_train(:,i)-yn; E(ii)=E(ii)+sum(abs(e); %計(jì)算權(quán)值變化率 dw2=e*Iout; db2=e,神經(jīng)網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn),for j=1:1:midnum S=1/(1+exp(-I(j); FI(j)=S*(1-S); end for k=1:1:innum for j=1:1:midnum dw1(k,j)=FI(j)*x(k)*(e(1)*w2(j,1)

6、+e(2)*w2(j,2)+e(3)*w2(j,3)+e(4)*w2(j,4); db1(j)=FI(j)*(e(1)*w2(j,1)+e(2)*w2(j,2)+e(3)*w2(j,3)+e(4)*w2(j,4); end end,神經(jīng)網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn),w1=w1_1+xite*dw1; b1=b1_1+xite*db1; w2=w2_1+xite*dw2; b2=b2_1+xite*db2; w1_2=w1_1;w1_1=w1; w2_2=w2_1;w2_1=w2; b1_2=b1_1;b1_1=b1; b2_2=b2_1;b2_1=b2; end end,神經(jīng)網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn),

7、 語音特征信號分類 inputn_test=mapminmax(apply,input_test,inputps); for ii=1:1 for i=1:500%1500 %隱含層輸出 for j=1:1:midnum I(j)=inputn_test(:,i)*w1(j,:)+b1(j); Iout(j)=1/(1+exp(-I(j); end fore(:,i)=w2*Iout+b2; end end,神經(jīng)網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn), 結(jié)果分析 %根據(jù)網(wǎng)絡(luò)輸出找出數(shù)據(jù)屬于哪類 for i=1:500 output_fore(i)=find(fore(:,i)=max(fore(:,i); e

8、nd %BP網(wǎng)絡(luò)預(yù)測誤差 error=output_fore-output1(n(1501:2000); %畫出預(yù)測語音種類和實(shí)際語音種類的分類圖 figure(1) plot(output_fore,r) hold on plot(output1(n(1501:2000),b) legend(預(yù)測語音類別,實(shí)際語音類別,神經(jīng)網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn),畫出誤差圖 figure(2) plot(error) title(BP網(wǎng)絡(luò)分類誤差,fontsize,12) xlabel(語音信號,fontsize,12) ylabel(分類誤差,fontsize,12,神經(jīng)網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn),k=zer

9、os(1,4); %找出判斷錯(cuò)誤的分類屬于哪一類 for i=1:500 if error(i)=0 b,c=max(output_test(:,i); switch c case 1 k(1)=k(1)+1; case 2 k(2)=k(2)+1; case 3 k(3)=k(3)+1; case 4 k(4)=k(4)+1; end end end,神經(jīng)網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn),找出每類的個(gè)體和 kk=zeros(1,4); for i=1:500 b,c=max(output_test(:,i); switch c case 1 kk(1)=kk(1)+1; case 2 kk(2)=kk

10、(2)+1; case 3 kk(3)=kk(3)+1; case 4 kk(4)=kk(4)+1; end end %正確率 rightridio=(kk-k)./kk,newff,函數(shù)newff用來生成一個(gè)BP網(wǎng)絡(luò),net=newff(PR,S1 S2.SN,TF1 TF2. TFN,BTF,BLF,PF,PR: 一個(gè)R2矩陣, 由R維輸入向量的每維最小值和最大值組成,Si: 第i層的神經(jīng)元個(gè)數(shù),TFi: 第i層的傳遞函數(shù), 默認(rèn)為tansig,BTF: 訓(xùn)練函數(shù), 默認(rèn)為trainlm,BLF: 學(xué)習(xí)函數(shù), 默認(rèn)為learngdm,PF: 性能函數(shù), 默認(rèn)為mse,net=newff(0

11、,10;-1,2,5,1,tansig,purelin,trainlm,生成一個(gè)兩層BP網(wǎng)絡(luò),隱層和輸出層神經(jīng)的個(gè)數(shù)為5和1, 傳遞函數(shù)分別為tansig和purelin, 訓(xùn)練函數(shù)為trainlm, 其他默認(rèn),BP神經(jīng)網(wǎng)絡(luò)工具箱,MATLAB神經(jīng)網(wǎng)絡(luò)工具箱對常規(guī)BP算法進(jìn)行改進(jìn),提供了一系列快速算法,以滿足不同問題的需要,BP神經(jīng)網(wǎng)絡(luò)工具箱,利用已知的”輸入目標(biāo)”樣本向量數(shù)據(jù)對網(wǎng)絡(luò)進(jìn)行訓(xùn)練,采用train 函數(shù)來完成. 訓(xùn)練之前, 對訓(xùn)練參數(shù)進(jìn)行設(shè)置,net = train(net, P, T,BP神經(jīng)網(wǎng)絡(luò)工具箱,網(wǎng)絡(luò)層數(shù),已經(jīng)證明,單隱層的BP網(wǎng)絡(luò)可以實(shí)現(xiàn)任意非線性映射. BP網(wǎng)絡(luò)的隱層數(shù)

12、一般不超過兩層,輸入層的節(jié)點(diǎn)數(shù),輸入層接收外部的輸入數(shù)據(jù), 節(jié)點(diǎn)數(shù)取決于輸入向量的維數(shù),輸出層的節(jié)點(diǎn)數(shù),輸出層的節(jié)點(diǎn)數(shù)取決于輸出數(shù)據(jù)類型和該類型所需的數(shù)據(jù)大小,對于模式分類問題,節(jié)點(diǎn)數(shù)為,BP神經(jīng)網(wǎng)絡(luò)工具箱,隱層的節(jié)點(diǎn)數(shù),隱層的節(jié)點(diǎn)數(shù)與求解問題的要求,輸入輸出單元數(shù)多少有關(guān). 對于模式識別/分類的節(jié)點(diǎn)數(shù)可按下列公式設(shè)計(jì),傳遞函數(shù),隱層傳遞函數(shù)采用S型函數(shù), 輸出層采用S型函數(shù)或線性函數(shù),訓(xùn)練方法及其參數(shù)選擇,針對不同應(yīng)用, BP網(wǎng)絡(luò)提供了多種訓(xùn)練學(xué)習(xí)方法,其中,為隱層節(jié)點(diǎn)數(shù),為輸入節(jié)點(diǎn)數(shù),為110之間的整數(shù),BP神經(jīng)網(wǎng)絡(luò)工具箱,采用動量梯度下降算法訓(xùn)練BP網(wǎng)絡(luò). 訓(xùn)練樣本,定義訓(xùn)練樣本 p=-1 -1 3 1;-1 1 5 -3; t=-1 -1 1 1; %創(chuàng)建一個(gè)新的BP網(wǎng)絡(luò) net=newff(minmax(p),3 1,tansig,purelin,traingdm); %設(shè)置訓(xùn)練參數(shù) net.trainParam.epochs

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論