




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、西北農(nóng)林科技大學(xué)研究生教學(xué)參考書人工神經(jīng)網(wǎng)絡(luò)與應(yīng)用實(shí)驗(yàn)指導(dǎo)信息工程學(xué)院二00年十二月十三日實(shí)驗(yàn)一 matlab ann工具箱及感知器實(shí)現(xiàn)一、實(shí)習(xí)目的和意義使學(xué)生熟悉并掌握matlab基本運(yùn)算編程和運(yùn)行,掌握人工神經(jīng)網(wǎng)絡(luò)工具箱幫助、示 例等資源,掌握自主學(xué)習(xí)matlab編程的能力,并能設(shè)計(jì)實(shí)現(xiàn)感知器,為后續(xù)處理打下基 礎(chǔ)。二、實(shí)習(xí)內(nèi)容1、熟悉matlab基本運(yùn)算編程,掌握人工神經(jīng)網(wǎng)絡(luò)工具箱幫助、示例等資源。(1)學(xué)會(huì)給矩陣賦值及常用矩陣運(yùn)算;(2)學(xué)會(huì)在命令窗口單步執(zhí)行命令;編寫m文件及運(yùn)行的方法;(3)掌握命令后“的顯示控制作用,掌握清除命令窗uclc.圖像窗l(fā)lclf、內(nèi)存 和函數(shù)clear
2、等命令的用法。(4)學(xué)會(huì)用plot(x,y)繪制圖形的方法;繪制雙曲正切s函數(shù)的一階導(dǎo)數(shù)曲線。(5)學(xué)握人工神經(jīng)網(wǎng)絡(luò)工具箱幫助、示例等資源。2、設(shè)計(jì)一個(gè)感知器,并運(yùn)行,分析結(jié)果、理解感知器算法。三、實(shí)習(xí)參考(1)matlab基本運(yùn)算matlab區(qū)分大小寫,abe, abc, abc表示不同的矩陣名。在矩陣a中,同一行中的 內(nèi)容用逗號(hào)分隔,而采用分號(hào)來表示換行。一般情況下,用于同行屮分隔的逗號(hào)是可以 由空格來代替的?;镜馁x值語句:a=l, 2, 3; 4, 5, 6; 7, 8, 0j矩陣加減法運(yùn)算:c=a+b和c=a b。矩陣的轉(zhuǎn)置:at =a'。矩陣的點(diǎn)乘:c=a.xb矩陣的除法:
3、x=a./bo矩陣乘法:c=axb對(duì)一個(gè)矩陣單個(gè)元索賦值和操作:a (:, j)表示a矩陣的第j列元素;a (i,:)表示a矩陣的第i列全部元素。 在命令窗口中,輸入help命令,如help plot,則會(huì)給出相關(guān)的幫助信息。(2)s曲線函數(shù)式為y =于(兀)=,設(shè)x在-10, 10之間每隔0取一個(gè)值。用 1 + eplot()繪制s 111線。可編寫m文件(polt_s.m)如下:%畫s曲線x=-10:0.1:10; y=l./(1.0+exp(-x) plot(x,y)hold on%給x賦值%計(jì)算y%繪制xy關(guān)系曲線(s曲線)%保持圖形,在原圖上繼續(xù)繪制yl=y*(l.-y);plot(
4、x,yl;-r')%計(jì)算s曲線的一階導(dǎo)數(shù)%繪制s曲線的一階導(dǎo)數(shù)曲線(3)設(shè)計(jì)一個(gè)二維輸入矢量分為兩類。%gzql .m%p輸入向量,t為口標(biāo)向量p=l-1.0-0.5 +0.3 -0.1;05 +0.5 0.5+1.0t=ll 1 0 0j;plotpv(p,t);%繪制感知器的輸入輸出矢量dispc按任意鍵繼續(xù)jpause %按任意鍵繼續(xù)net=newp(-l 1;-1 1 j,l);plotpv(p,t);%newp建立一個(gè)感知器.%繪制輸入向量plotpc(net.iw l,net.b 1); %繪制初始分類線net.adaptparam.passes = 3;net = ada
5、pt(net,p,t);%adapt返回一個(gè)最佳分類的網(wǎng)絡(luò)nerplotpc(net.iw 1 ,net.b 1); %繪制訓(xùn)練后的分類線%利用訓(xùn)練好的感知器進(jìn)行分類p二0.7;1.2;%給定一個(gè)輸入a=sim(net,p)%sim對(duì)感知器神經(jīng)網(wǎng)絡(luò)進(jìn)行仿真.行尾無“;”%在命令窗口顯示a的值。dispc結(jié)束!)四、思考與討論1、如何控制程序運(yùn)行舒停吋間?2、比較一個(gè)命令行后有無“廣的差別。3、畫出gzq 1 .m中網(wǎng)絡(luò)模型。4、查幫助并分析plot> plotpv> plotpc的不同。實(shí)驗(yàn)二 自適應(yīng)線性元件的設(shè)計(jì)與訓(xùn)練一、實(shí)習(xí)目的和意義掌握用matlab人工神經(jīng)網(wǎng)絡(luò)工具箱設(shè)計(jì)自適
6、應(yīng)線性元件的方法,掌握人工神經(jīng)網(wǎng)絡(luò) 學(xué)習(xí)和訓(xùn)練過程;理解誤差曲面;分析比較自適應(yīng)線性元件的不足。二、實(shí)習(xí)內(nèi)容1、掌握自適應(yīng)線性元件的方法。設(shè)計(jì)一個(gè)線性神經(jīng)元響應(yīng)特定輸入下的目標(biāo)輸出: p= 1.0 -1.2;t= 0.5 1.0;用errsur f函數(shù)計(jì)算在一定范圍可能權(quán)重和閾值下的神經(jīng)元 的誤差,用plotes以等高線的形式繪制誤差表面,并在誤差曲面上繪制出最佳權(quán)重、 閾值的點(diǎn)。2、設(shè)計(jì)一個(gè)線性神經(jīng)元件,線性神經(jīng)元以實(shí)現(xiàn)對(duì)輸入矢量p二+1.0+1.5+3.0 4.5和 輸出矢量t = +0.5 +1.1 +1.7 2.6的線性擬合。3、在上面的網(wǎng)絡(luò)設(shè)計(jì)中,不斷增大學(xué)習(xí)率,分析學(xué)習(xí)大小對(duì)訓(xùn)練次
7、數(shù)及網(wǎng)絡(luò)能否收 斂的影響。三、實(shí)習(xí)參考(1) 口適應(yīng)線性元件的方法及誤差曲面分析%模式聯(lián)想誤差曲面%設(shè)計(jì)一個(gè)線性神經(jīng)元響應(yīng)特定輸入下的冃標(biāo)輸出%p定義兩個(gè)1單元的輸入模式,t定義相關(guān)的1單元的冃標(biāo)矢量p=l1.0-1.2j;t = 0.5 1.0;% errsurf計(jì)算在一定范圍可能權(quán)重和閾值下的神經(jīng)元的誤差% plotes繪制誤差表面并在誤差曲面上繪制出最佳權(quán)重、閾值的點(diǎn)。w_range = -l:0.1:l; %權(quán)重取值范圍 b_range = -l:0.1:l; %閾值取值范圍 es = errsurf(p,t,w_range,b_range?'purelin'); %計(jì)
8、算誤差 plotes(w_range,b_range,es);% 繪制誤差曲面pausenet = newlind(p,t); %函數(shù)newlind設(shè)計(jì)一個(gè)誤差最小的網(wǎng)絡(luò)層%sim仿真網(wǎng)絡(luò)的輸入po可以計(jì)算出神經(jīng)元的誤差,a = sim(net.p)e = t asse = sumsqr(e) %sumsqr 累加平方誤差plotes(w_range,b_range,es); %重新繪制誤差 ill面 pauseplotep(net.iw 1,1 ,net.b 1 ,sse);%用solvelin返冋的權(quán)值和閾值在-誤差lllf面上繪制出位置 %用一個(gè)輸入進(jìn)行測(cè)試。p = -1.2;a = s
9、im(net,p)(2) 線性擬合線性元件設(shè)計(jì)%擬合線性問題% p輸入矢量;t目標(biāo)矢量 p二+1.0+1.5 +3.0 4.5;t= +0.5+1.1 +1.7 2.6;%計(jì)算最大學(xué)習(xí)率,包括閾值 maxlr = maxlinlr(r'bias');%newlin用于建立一個(gè)線性網(wǎng)絡(luò)net = newlin(-2 2,l,0,maxlr);%設(shè)置最大訓(xùn)練步數(shù)net.trainparam.epochs = 15;net,tr = train(net,p,t);%tr為訓(xùn)練記錄(訓(xùn)練步數(shù),性能)%仿真p = -1.1;a = sim(net, p)思考與討論1、自適應(yīng)線性元件和感知
10、器有哪些不同?2、白適應(yīng)線性元件的傳遞函數(shù)是哪種類型?3、自適應(yīng)線性元件設(shè)計(jì)為多層是否可以提高網(wǎng)絡(luò)性能?4、學(xué)習(xí)率大小對(duì)訓(xùn)練次數(shù)及網(wǎng)絡(luò)性影響如何?實(shí)驗(yàn)三bp網(wǎng)絡(luò)設(shè)計(jì)與訓(xùn)練(一)一、實(shí)習(xí)目的和意義掌握用matlab人工神經(jīng)網(wǎng)絡(luò)工具箱設(shè)計(jì)bp網(wǎng)絡(luò)的方法,掌握bp網(wǎng)絡(luò)的設(shè)計(jì)以及訓(xùn) 練過程;掌握用bp網(wǎng)絡(luò)進(jìn)行函數(shù)逼近和分類的基本設(shè)計(jì)方法;分析比較幾種bp訓(xùn)練算 法的訓(xùn)練性能;掌握動(dòng)量法、自適應(yīng)學(xué)習(xí)速率算法的設(shè)計(jì)和應(yīng)用;通過實(shí)驗(yàn),對(duì)局部極 小問題有深入的理解。二、實(shí)習(xí)內(nèi)容1、設(shè)計(jì)并訓(xùn)練一個(gè)bp網(wǎng)絡(luò),使其進(jìn)行模式p = -l-122;050習(xí)進(jìn)行分類。2、用動(dòng)量法訓(xùn)練bp網(wǎng)絡(luò),比較動(dòng)量法和純梯度法對(duì)同一個(gè)
11、bp網(wǎng)絡(luò)進(jìn)行訓(xùn)練的效率。3、設(shè)計(jì)一個(gè)bp網(wǎng)絡(luò),用于逼近一個(gè)函數(shù)。該函數(shù)輸入范圍為-2,2,輸出為 t=sin(2*pi*p)+0.2*randn(size(p)o改變隱層神經(jīng)元數(shù)量,分析比較不同隱層神經(jīng)元數(shù)量下 網(wǎng)絡(luò)訓(xùn)練效率及最終訓(xùn)練結(jié)果。4、設(shè)計(jì)一個(gè)bp網(wǎng)絡(luò),用自適應(yīng)學(xué)習(xí)率算法對(duì)其訓(xùn)練,用于逼近一個(gè)函數(shù)。21個(gè)輸入在1,1之間,輸出為-0.9602 -0.5770 0.0729 0.3771 0.6405 0.6600 0.46090.1336-0.2013 -0.4344 -0.5000 -0.3930 -0.1647 0.0988 0.3072 0.3960 0.3449 0.1816
12、-0.0312 -0.2189 0.3201。5、在實(shí)習(xí)內(nèi)容3中,事先給定一個(gè)不合適的初始權(quán)值和閾值,考察局部極小值問題。三、實(shí)習(xí)參考1、bp算法主要函數(shù):(1) 變換函數(shù):對(duì)數(shù)s型激活函數(shù)logsig.m;雙曲正切s型激活函數(shù)tansig.m;線 性激活函數(shù)purelin.m;(2) 謀差相關(guān)函數(shù):謀差函數(shù)sumsqr.m;謀差的變化函數(shù)deltalin.m, deltatan.m和 deltasig.m,分別用于線性層、雙曲正切層和對(duì)數(shù)層。(3) newff,生成一個(gè)前向網(wǎng)絡(luò),如» net = newff(0 10,5 1,'tansig' 'pureli
13、n,trainlm,);(4) 網(wǎng)絡(luò)訓(xùn)練函數(shù):a、train()純梯度法訓(xùn)練一個(gè)神經(jīng)網(wǎng)絡(luò);b、traingda()自適應(yīng) 學(xué)習(xí)速率梯度下降法;c、trainrp ()回彈bp算法;d、共軌梯度算法訓(xùn)練函數(shù)3個(gè):traincgp()、traincgb ( )、trainscg (); e、training),levenberg-marquardt 訓(xùn)練算法。(5) 學(xué)習(xí)函數(shù):a> learngd (),梯度下降法學(xué)習(xí)函數(shù);b> learnbpm(),利用動(dòng)量規(guī)則改進(jìn)的bp算法。(6) sim (),網(wǎng)絡(luò)仿真函數(shù)。(7) 函數(shù)具體用法可參考幫助,或在命令窗口輸入:help函數(shù)名,如he
14、lp learnbpm, 冋車即可。2、缺省訓(xùn)練參數(shù)及訓(xùn)練參數(shù)設(shè)置方法(1)缺省訓(xùn)練參數(shù)net.trainparam.epochs= 10net. trai nparam. goal =0net.trainpara m1-0.01net.trainparam.lr_inc=l .05 ratio to increase learning ratenet.trainparam.lr_dec=0.7 ratio to decrease learning ratenet.trainparam.max_fail=5 maximum validation failuresnet.trainparam.m
15、ax_perf_inc= 1.04 maximum performance increasenet.trainparam.min_grad=le-10 minimum performance gradientnet.trainparam.show=25 net.trainparam.time=inf maximum time to train in seconds(2)訓(xùn)練參數(shù)設(shè)置方法在m文件屮編寫上述相關(guān)設(shè)置命令,等號(hào)的右側(cè)直接給出設(shè)置的訓(xùn)練參數(shù)即可。如:net.trainparam.epochs=200 %設(shè)計(jì)最大訓(xùn)練次數(shù)為 200。思考與討論1、如何確定bp網(wǎng)絡(luò)的層數(shù)、各層單元個(gè)數(shù)?2、
16、學(xué)習(xí)率大小對(duì)網(wǎng)絡(luò)訓(xùn)練性能有何影響?3、分析對(duì)比兒種訓(xùn)練函數(shù)的訓(xùn)練性能。4、如何設(shè)置初始權(quán)值和閾值?5、局部極小問題有哪些改進(jìn)方法?實(shí)驗(yàn)四bp網(wǎng)絡(luò)設(shè)計(jì)與訓(xùn)練(二)一、實(shí)習(xí)目的和意義掌握用bp網(wǎng)絡(luò)解決實(shí)際預(yù)測(cè)問題的方法,包括數(shù)據(jù)規(guī)格化處理、訓(xùn)練樣木和測(cè)試樣 木的組織,網(wǎng)絡(luò)隱層層數(shù)和神經(jīng)元個(gè)數(shù)的確定,以及傳遞函數(shù)和訓(xùn)練參數(shù)的確定等。 實(shí)習(xí)內(nèi)容現(xiàn)有某省19862010年的客運(yùn)量數(shù)據(jù)。編程實(shí)現(xiàn)用bp網(wǎng)絡(luò)預(yù)測(cè)2011年和2012年 公路客運(yùn)量。表1某省19862010年的客運(yùn)量數(shù)據(jù)年份1986198719881989199019911992199319941995199619971998客運(yùn)量128151
17、55431932622x64261502846830882393754575949589525604872651083年份199920002001200220032004200520062007200820092010客運(yùn)量56495627678360692090101370107317108654111847112872116997126007128980-三、實(shí)習(xí)參考1、實(shí)現(xiàn)思路19862010年客運(yùn)量數(shù)據(jù)n=25個(gè)歷史觀察值,可采用長(zhǎng)度n=5為一期,n0=2為滾動(dòng)間隔。即用前5年的數(shù)據(jù)預(yù)測(cè)下一年的數(shù)據(jù),每隔2年開始一期長(zhǎng)度為5年的觀察數(shù) 據(jù)。2、樣木組織20期數(shù)據(jù)樣本分成兩組,每組10個(gè)
18、,分別做為訓(xùn)練集(1986年開始)和測(cè)試集(1987 年開始)。3、網(wǎng)絡(luò)結(jié)構(gòu)bp網(wǎng)絡(luò)有5個(gè)輸入(5年運(yùn)量數(shù)據(jù)),1個(gè)輸出(預(yù)測(cè)運(yùn)量)。隱層可采用單隱含層或雙隱層。隱含層神經(jīng)元數(shù)冃采用試差法確定。若采用雙隱層, 則第1、2隱含層神經(jīng)元數(shù)冃分別可選8、5進(jìn)行實(shí)驗(yàn)。若為單隱層,隱層神經(jīng)元數(shù)可選14左右進(jìn)行實(shí)驗(yàn)。4、數(shù)據(jù)規(guī)格化處理將表1中的輸入、輸出數(shù)據(jù)規(guī)格化到區(qū)間0.20.9內(nèi)。規(guī)一化公式:規(guī)格化后數(shù)據(jù)=z丄七(2-zl尸(-xtnin)/(xmax-xmin)式中:zl z2-規(guī)格化后的數(shù)據(jù)范圍,如本例z 1=0.2, z2=0.9; x為待規(guī)格化數(shù)據(jù); xmin> xmax 分別為數(shù)據(jù)序列
19、的最小、最大值。在程序中可用:pl=0.2+(0.9-0.2).*(p0-min(p0)./(max(p0)-min(p0)實(shí)現(xiàn)。6、程序設(shè)計(jì)技巧(1 )按每5年為一期組織樣本,作為訓(xùn)練集,p為輸入,為目標(biāo)。從第1986年客 運(yùn)量開始。編程參考如下:j=0;for i=l:10;p(:,i)=pl(i+j:i+j+4): %取第 i 個(gè)訓(xùn)練樣本,給 pt(:,i)=pl(i+j+5);j=j+l;end(2) 按每5年為一期組織樣本,作為測(cè)試集,testp為輸入,testt為日標(biāo)。從1987 年客運(yùn)量開始。編程參考如下:j=0;fori=l:10;testp(:,i)=p 1 (i+j+1:i
20、+j+5)'tes tt(: ,i)=p 1 (i+j+6);j=j+l;end(3) 建立兩層隱含層bp網(wǎng)絡(luò),隱層神經(jīng)元數(shù)為8、5,輸出為1個(gè)單元,訓(xùn)練函數(shù) 為 trainlrrionet = newff(p,t,8 5 1,'tansig' *tansig' 'purelin'j/trainlm');(4) 設(shè)置訓(xùn)練參數(shù)net.trainparam.lr=0.6;%學(xué)習(xí)率net.trainparam.epochs = 10000; %最大訓(xùn)練次數(shù)net.trainparam.goal = 0.0001; % 目標(biāo)誤差(5) 訓(xùn)練、仿真
21、網(wǎng)絡(luò)net = train(net,p,t);%仿真y = sim(net,testp);e=testt-y;mse=mse(e)%將1987起的10組測(cè)試數(shù)據(jù)輸入網(wǎng)絡(luò)進(jìn)行測(cè)試%計(jì)算測(cè)試集網(wǎng)絡(luò)輸出和冃標(biāo)的課差%計(jì)算均方誤差(6)預(yù)測(cè)2011年客運(yùn)情況p11 二 pl(21:25)y1 l=sim(net,pl 1)%取預(yù)測(cè)數(shù)據(jù),2006-2010共5年,轉(zhuǎn)置成列矢量%用sim仿真,計(jì)算2011年客運(yùn)量(規(guī)一化值)y2011 =min(p0)+(y 11 -0.2)*(max(p0)-min(p0)/0.7;% 求出客運(yùn)量實(shí)際值思考與討論1、為什么要對(duì)數(shù)據(jù)進(jìn)行規(guī)格化?2、若取第一個(gè)隱層的神經(jīng)元個(gè)
22、數(shù)比第二個(gè)隱層大,網(wǎng)絡(luò)訓(xùn)練效杲如何?分析為什么。3、可否用訓(xùn)練好的bp網(wǎng)絡(luò)預(yù)測(cè)2020年的運(yùn)量?為什么?4、分別用1個(gè)隱層和2個(gè)隱層bp網(wǎng)絡(luò)進(jìn)行預(yù)測(cè),比較訓(xùn)練時(shí)間和泛化效果。實(shí)驗(yàn)五sofm、lvq網(wǎng)絡(luò)設(shè)計(jì)與訓(xùn)練一、實(shí)習(xí)目的和意義掌握sofm網(wǎng)絡(luò)、lvq網(wǎng)絡(luò)設(shè)計(jì)方法,能對(duì)實(shí)際問題進(jìn)行聚類或分類。二、實(shí)習(xí)內(nèi)容1、掌握sofm網(wǎng)絡(luò)的方法。一組隨機(jī)建立的數(shù)據(jù)點(diǎn)集合p,設(shè)計(jì)一個(gè)競(jìng)爭(zhēng)網(wǎng)絡(luò)將它 們分成口然的類。2、設(shè)計(jì)一個(gè)lvq網(wǎng)絡(luò),將10個(gè)二維輸入矢量聚類。三、實(shí)習(xí)參考(1)一組隨機(jī)建立的數(shù)據(jù)點(diǎn)集合p,設(shè)計(jì)一個(gè)競(jìng)爭(zhēng)網(wǎng)絡(luò)將它們分成白然的類。 % comp_learnl.m 白組織網(wǎng)絡(luò)的訓(xùn)練x = fo 1;
23、0 1; %簇的屮心在該范圍內(nèi) clusters = &%設(shè)定建立的簇為8個(gè)points = 10;%每個(gè)簇10個(gè)點(diǎn).std_dev = 0.05;%每個(gè)簇的標(biāo)準(zhǔn)差p = nngenc(x,clusters,points,std_dev);% nngenc 可以建立一個(gè)數(shù)據(jù)點(diǎn)簇%繪制p矢量plot(p(l,:),p(2,title(rinput vectors');xlabel('p(l)');ylabel('p ');net = newc(0 l;0 l,8,.l);%建立一個(gè)競(jìng)爭(zhēng)網(wǎng)絡(luò)w = net.iwl;plot(p(l,:),p(2,:)
24、,'+f);hold on;circles = plot(w(:»l),w(:,2)/ob,);%用藍(lán)色o繪制權(quán)欠量net.trainparam.epochs = 7;net = train(net,p); %訓(xùn)練網(wǎng)絡(luò)w = net.iwl;delete(circles);%刪除 circles 句柄plot(w(:,l),w(:,2);ob');p = 0; 0.2;%用競(jìng)爭(zhēng)層分類a = sim(net,p)(2)設(shè)計(jì)一個(gè)lvq網(wǎng)絡(luò),將10個(gè)二維輸入矢量聚類。% p為10個(gè)2維矢量,c為分類矢量p = -3 -2 -2 0 0 0 0+2+2+3;0+1 1 +2+
25、1 1 2+1 1 0;c = l 1 1 2222 1 1 1;t = ind2vec(c);%轉(zhuǎn)換類別號(hào)為目標(biāo)矢量% 繪制數(shù)據(jù)點(diǎn),red = class 1, cyan = class 2.colormap(hsv);plotvec(p,c)titlecinput vectors');xlabel('p(l)');ylabel(*p(2)');pause% newlvq建立lvq,輸入范圍、隱層神經(jīng)元數(shù)4,典型類白分比矢量、學(xué)習(xí)率net = newlvq(minmax(p),4,.6 .4,0.1);%繪制競(jìng)爭(zhēng)層神經(jīng)元權(quán)重矢量.hold onw1 =net.
26、iwl;plot(wl(l,l),wl(l,2),w)title('input/weight vectors');xlabelcp(l), w(l)');ylabel('p,w');pause%訓(xùn)練結(jié)束后,重新繪制輸入矢量屮,競(jìng)爭(zhēng)神經(jīng)元權(quán)重矢量'o'.%red = class 1,cyan = class 2.%設(shè)置訓(xùn)練參數(shù)net.trainparam.epochs= 150;net.trainparam.show=inf;net=train(net,p,t);cla;plotvec(p,c);hold on;plotvec(net.iw
27、 1 ',vec2ind(net.lw2),o,);pause% 用 lvq 分類. 輸入矢量0.2; 1, red = class 1, cyan = class 2.p = 0.2; 1;a = vec2ind(sim(net,p)思考與討論1、sofm網(wǎng)絡(luò)聚類的準(zhǔn)則是什么?2、sofm網(wǎng)絡(luò)競(jìng)爭(zhēng)層算法和bp網(wǎng)絡(luò)有何不同?3、lvq網(wǎng)絡(luò)結(jié)構(gòu)與工作原理?實(shí)驗(yàn)六rbf網(wǎng)絡(luò)設(shè)計(jì)與訓(xùn)練一、實(shí)習(xí)目的和意義掌握rbf網(wǎng)絡(luò)、grnn和pnn網(wǎng)絡(luò)的設(shè)計(jì)方法,學(xué)會(huì)用grnn網(wǎng)絡(luò)進(jìn)行函數(shù)逼近、 用pnn網(wǎng)絡(luò)對(duì)實(shí)際問題進(jìn)行分類。%1. 實(shí)習(xí)內(nèi)容1、在matlab f繪制出高斯徑向基函數(shù)圖形。并將中心為0的
28、基函數(shù)al,分別平移2、 1.5得到a2和a3,將al、a2、a3線性組合得到a4,繪制出a4圖形。2、設(shè)輸入p在11z間,數(shù)據(jù)間隔為0.1。設(shè)計(jì)一個(gè)正規(guī)化rbf網(wǎng)絡(luò)逼近t= -.9602 -.5770 -.0729 .3力 1.6405 .6600 .4609 .1336 -.2013 -.4344 -.5000 -.3930 -.1647.0988 .3072 .3960 .3449816 -.0312-.2189-.3201用rbf有效設(shè)計(jì)方法,改變擴(kuò)展常數(shù)為0.01和18,分別觀察逼近效果,深入理解不 能擬合和過擬合現(xiàn)彖。3、設(shè)p=l 2 3 45 67 8;t=0 1232121。試
29、設(shè)計(jì)一個(gè)grnn網(wǎng)絡(luò)實(shí)現(xiàn)函數(shù)逼近。4、設(shè)輸入為p=l 2; 2 2; 1 1:期望輸出為tc=l 2 3。試設(shè)計(jì)一個(gè)pnn網(wǎng)絡(luò)對(duì)輸入 進(jìn)行分類。%1. 實(shí)習(xí)參考1、徑向基函數(shù)和其線性組合al=radbas(p)產(chǎn)生一個(gè)徑向基函數(shù)。其算法為al=radbas(p) = exp(-pa2)向右平移基函數(shù):a2 = radbas(p-2);向左平移基函數(shù):a3 = radbas(p+1.5);基函數(shù)的線性組合:a4 = al+ a2 + a3;試在al、a2、a3前增加一個(gè)適當(dāng)?shù)募訖?quán)系數(shù),考察a4圖形的變化。2、rbf網(wǎng)絡(luò)有效設(shè)計(jì):net=newrb(p,t,goal,spread,mn,df)go
30、al 冃標(biāo)誤差;nm最人神經(jīng)元個(gè)數(shù);df迭代過程顯示頻率。3、grnn設(shè)計(jì)net = newgrnn(p,t,spread);試用一個(gè)不在輸入樣本屮的數(shù)據(jù)進(jìn)行仿真。4、用pnn進(jìn)行分類參考程序如下。p=12;22;l 1:%輸入樣本為3個(gè)點(diǎn)tc = 12 3;%3個(gè)樣本對(duì)應(yīng)1-3類plot(p(l,:),p(2,:),7;markersize',30) % 繪制樣本點(diǎn)for i=l:3, text(p(l,i)+0,p(2,i),spi*intf('class %g',tc(i), end %每個(gè)樣本注釋第 x 類。 axis(0 3 0 3)title('th
31、ree vectors and their classes.1)xlabelcp(l,:)')ylabel('p(2,:)t = ind2vec(tc);%轉(zhuǎn)換r標(biāo)類標(biāo)記為矢量spread = 1;%設(shè)置擴(kuò)展常數(shù)net = newpnn(p,t,spread); 建立 pnn 網(wǎng)絡(luò)a = sim(net,p);%仿真ac = vec2ind(a);%將類別矢量轉(zhuǎn)換成類別號(hào)plot(p(l,:),p(2,'markersize',30)axis(0 3 0 31)for i= 1:3,text(p( 1 ,i)+0.1 ,p(2,i),sprintf(*class
32、 %g',ac(i),endtitle(rtesting the network.')xlabel(,p(l,:)*)ylabel('p(2,:)四、思考與討論1、rbf網(wǎng)絡(luò)的基本思想是什么?2、grnn、rbf和pnn在輸出層各有何不同?3、grnn輸入樣木個(gè)數(shù)、輸入樣木維數(shù)和隱含層神經(jīng)元個(gè)數(shù)之間有何關(guān)系?4、pnn的輸出層神經(jīng)元個(gè)數(shù)與何參數(shù)相同?實(shí)驗(yàn)七標(biāo)準(zhǔn)支持向量機(jī)c-svm分類一、實(shí)習(xí)目的和意義掌握支持向量機(jī)原理及編程實(shí)現(xiàn),深入理解支持向量及不同核函數(shù)對(duì)svm性能的影 響,學(xué)習(xí)解二次優(yōu)化方程、尋找支持向量等程序設(shè)計(jì)方法。 實(shí)習(xí)內(nèi)容1、構(gòu)造2類訓(xùn)練樣木集,選擇合適的
33、核函數(shù),編程實(shí)現(xiàn)求解的laglange系數(shù)、尋找 出支持向量并繪制出,然后進(jìn)行分類。2、用不同的核函數(shù)進(jìn)行實(shí)驗(yàn)比較。3、用bp網(wǎng)絡(luò)進(jìn)行分類,并比較二者訓(xùn)練時(shí)間的差異。三.實(shí)習(xí)參考1、標(biāo)準(zhǔn)支持向量機(jī)c-svm分類參考程序%支持向量機(jī)c-svm分類算法close allclear allclc%構(gòu)造兩類訓(xùn)練數(shù)據(jù)集fprintfci持向量機(jī)分類c_svm n*)fprintfcn*)fprintf('構(gòu)造.n*);c= 100;%拉格朗口乘了上界ker = structctypevlinear*);% 選擇核函數(shù)%ker -lineaf; %核函數(shù)有4種% linear : k(x,y) =
34、 x'*y% poly : k(x,y) = (x*y+c)ad% gauss : k(x,y) = exp(-0.5*(norm(x-y)/s)a2)% tanh : k(x,y) = tanh(g*x'*y+c)n = 50;randn('state2);%選擇止態(tài)分布數(shù)據(jù)xl = randn(n,2); %產(chǎn)生50x2的隨機(jī)數(shù)據(jù)yl = ones(n,l); %產(chǎn)生 50x 1 的 1 陣x2 = 4+randn(n,2); %在乂1的基礎(chǔ)上產(chǎn)生50x2的隨機(jī)數(shù)據(jù)x2y2 = -ones(n,l); %產(chǎn)生 50x 1 的1 陣figure; %繪制由xi、x2構(gòu)
35、成的數(shù)據(jù)點(diǎn)集分布plot(x 1 (:, 1 ),x 1 (:,2),bx',x2(:,l),x2(:,2),'k);hold on;pausex = xl;x2j; %訓(xùn)練樣本,50x2的矩陣,50為樣本個(gè)數(shù),2為樣本維數(shù) y=yl;y2;%訓(xùn)練目標(biāo),50x1的矩陣,50為樣本個(gè)數(shù),y值為+1或 %訓(xùn)練%fprintf('training .an');tic %啟動(dòng)計(jì)時(shí)器 starts a stopwatch timer%訓(xùn)練%解二次優(yōu)化方程n = length(y);h = (y* y').*calckemel(ker,x,x);f = -ones(nj);a=;b = n;aeq = y'beq = 0;lb = zeros(nj);ub = c*ones(nj);ao = zero
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 二零二五年健身中心租賃合同及健身俱樂部會(huì)員制運(yùn)營(yíng)協(xié)議
- 二零二五年度村委會(huì)與某健身俱樂部簽訂場(chǎng)地租賃合同
- 2025年度船舶保險(xiǎn)代理股份合作協(xié)議
- 二零二五年度金融投資分析與風(fēng)險(xiǎn)管理商務(wù)咨詢服務(wù)協(xié)議
- 四川鑫耀產(chǎn)城融合產(chǎn)業(yè)投資發(fā)展集團(tuán)有限公司2024年12月對(duì)外公開招聘管理人員及專業(yè)工作人員筆試參考題庫(kù)附帶答案詳解
- 2025鄂爾多斯高新技術(shù)產(chǎn)業(yè)開發(fā)區(qū)市融媒體中心招聘控制數(shù)人員35人筆試參考題庫(kù)附帶答案詳解
- 2025福建龍巖市人力資源服務(wù)有限公司招聘6人筆試參考題庫(kù)附帶答案詳解
- 酒類釀制知識(shí)培訓(xùn)課件
- 交通中國(guó)知到智慧樹章節(jié)測(cè)試課后答案2024年秋上海工程技術(shù)大學(xué)
- 2025年云南中煙工業(yè)有限責(zé)任公司招聘(430人)筆試參考題庫(kù)附帶答案詳解
- 《影視照明技術(shù)》課件:照亮影視作品的靈魂
- 5.1人民代表大會(huì):我國(guó)的國(guó)家權(quán)力機(jī)關(guān) 課件高中政治統(tǒng)編版必修三政治與法治
- 2025年包頭輕工職業(yè)技術(shù)學(xué)院?jiǎn)握新殬I(yè)適應(yīng)性測(cè)試題庫(kù)及答案解析
- 2025中國(guó)中材海外科技發(fā)展有限公司校園招聘筆試參考題庫(kù)附帶答案詳解
- 2023安徽省公務(wù)員考試【申論A卷、申論C卷、行測(cè)B類】 三套 真題及答案
- 2025-2030年即食麥片球行業(yè)深度調(diào)研及發(fā)展戰(zhàn)略咨詢報(bào)告
- 《酒店前廳設(shè)計(jì)》課件
- - 《中國(guó)課件》揭示西安古都的千年歷史與文化
- 公司積分制管理實(shí)施方案
- 《Maya三維模型制作項(xiàng)目式教程(微課版)》全套教學(xué)課件
- 2024年湖南科技職業(yè)學(xué)院高職單招語文歷年參考題庫(kù)含答案解析
評(píng)論
0/150
提交評(píng)論