版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、一 簡(jiǎn)述人工神經(jīng)網(wǎng)絡(luò)常用的網(wǎng)絡(luò)結(jié)構(gòu)和學(xué)習(xí)方法。(10分)答:1、人工神經(jīng)網(wǎng)絡(luò)常用的網(wǎng)絡(luò)結(jié)構(gòu)有三種分別是:bp神經(jīng)網(wǎng)絡(luò)、rbf神經(jīng)網(wǎng)絡(luò)、kohonen神經(jīng)網(wǎng)絡(luò)、art神經(jīng)網(wǎng)絡(luò)以及hopfield神經(jīng)網(wǎng)絡(luò)。人工神經(jīng)網(wǎng)絡(luò)模型可以按照網(wǎng)絡(luò)連接的拓?fù)浣Y(jié)構(gòu)分類,還可以按照內(nèi)部信息流向分類。按照拓?fù)浣Y(jié)構(gòu)分類:層次型結(jié)構(gòu)和互連型結(jié)構(gòu)。層次型結(jié)構(gòu)又可分類:?jiǎn)渭冃蛯哟尉W(wǎng)絡(luò)結(jié)構(gòu)、輸入層與輸出層之間有連接的層次網(wǎng)絡(luò)結(jié)構(gòu)和層內(nèi)有互聯(lián)的層次網(wǎng)絡(luò)結(jié)構(gòu)?;ミB型結(jié)構(gòu)又可分類:全互聯(lián)型、局部互聯(lián)型和稀疏連接性。按照網(wǎng)絡(luò)信息流向分類:前饋型網(wǎng)絡(luò)和反饋型網(wǎng)絡(luò)。2、學(xué)習(xí)方法分類:.hebb學(xué)習(xí)規(guī)則:純前饋網(wǎng)絡(luò)、無導(dǎo)師學(xué)習(xí)。權(quán)值初始化為
2、0。.perceptron學(xué)習(xí)規(guī)則:感知器學(xué)習(xí)規(guī)則,它的學(xué)習(xí)信號(hào)等于神經(jīng)元期望輸出與實(shí)際輸出的差。單層計(jì)算單元的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),只適用于二進(jìn)制神經(jīng)元。有導(dǎo)師學(xué)習(xí)。.學(xué)習(xí)規(guī)則:連續(xù)感知學(xué)習(xí)規(guī)則,只適用于有師學(xué)習(xí)中定義的連續(xù)轉(zhuǎn)移函數(shù)。規(guī)則是由輸出值與期望值的最小平方誤差條件推導(dǎo)出的。.lms學(xué)習(xí)規(guī)則:最小均放規(guī)則。它是學(xué)習(xí)規(guī)則的一個(gè)特殊情況。學(xué)習(xí)規(guī)則與神經(jīng)元采用的轉(zhuǎn)移函數(shù)無關(guān)的有師學(xué)習(xí)。學(xué)習(xí)速度較快精度較高。.correlation學(xué)習(xí)規(guī)則:相關(guān)學(xué)習(xí)規(guī)則,他是hebb學(xué)習(xí)規(guī)則的一種特殊情況,但是相關(guān)學(xué)習(xí)規(guī)則是有師學(xué)習(xí)。權(quán)值初始化為0。.winner-take-all學(xué)習(xí)規(guī)則:競(jìng)爭(zhēng)學(xué)習(xí)規(guī)則用于有師學(xué)習(xí)
3、中定義的連續(xù)轉(zhuǎn)移函數(shù)。權(quán)值初始化為任意值并進(jìn)行歸一處理。.outstar學(xué)習(xí)規(guī)則:只適用于有師學(xué)習(xí)中定義的連續(xù)轉(zhuǎn)移函數(shù)。權(quán)值初始化為0。2試推導(dǎo)三層前饋網(wǎng)絡(luò)bp算法權(quán)值修改公式,并用bp算法學(xué)習(xí)如下函數(shù): 其中:,?;静襟E如下:(1)在輸入空間、上按照均勻分布選取個(gè)點(diǎn)(自行定義),計(jì)算的實(shí)際值,并由此組成網(wǎng)絡(luò)的樣本集;(2)構(gòu)造多層前向網(wǎng)絡(luò)結(jié)構(gòu),用bp算法和樣本集訓(xùn)練網(wǎng)絡(luò),使網(wǎng)絡(luò)誤差小于某個(gè)很小的正數(shù);(3)在輸入空間上隨機(jī)選取個(gè)點(diǎn)(,最好為非樣本點(diǎn)),用學(xué)習(xí)后的網(wǎng)絡(luò)計(jì)算這些點(diǎn)的實(shí)際輸出值,并與這些點(diǎn)的理想輸出值比較,繪制誤差曲面;(4)說明不同的、值對(duì)網(wǎng)絡(luò)學(xué)習(xí)效果的影響。(20分)答:本體
4、準(zhǔn)備采用三層結(jié)構(gòu),以下為三層前饋網(wǎng)絡(luò)bp算法權(quán)值修改公式的推導(dǎo): 設(shè)神經(jīng)元激勵(lì)函數(shù)采用s形函數(shù),有: , (1)對(duì)于第一層():,對(duì)于輸出層():,設(shè)s形函數(shù)為:,有: (2) 設(shè)對(duì)于訓(xùn)練樣本,網(wǎng)絡(luò)輸出向量各分量的理想值為:,;樣本輸入網(wǎng)絡(luò)后相應(yīng)的實(shí)際輸出為:,;則網(wǎng)絡(luò)誤差為:網(wǎng)絡(luò)輸出誤差的平方和為:。設(shè)指標(biāo)函數(shù),我們的目標(biāo)是:將樣本輸入網(wǎng)絡(luò),通過對(duì)網(wǎng)絡(luò)權(quán)值的更新,來使指標(biāo)函數(shù)(網(wǎng)絡(luò)誤差)達(dá)到最小(或允許的范圍)。因?yàn)椋?所以:當(dāng) 時(shí),有:。即:權(quán)值修改沿著負(fù)梯度方向進(jìn)行時(shí)可使指標(biāo)函數(shù)下降??傻脵?quán)值修改公式為: (3)對(duì)于,有: 令:,又由(1)式得:,有:, (4)再計(jì)算: (5)而由(2)
5、式得:,所以問題可歸結(jié)為求:(1)對(duì)于網(wǎng)絡(luò)輸出層():因?yàn)?,所以?所以:,即對(duì)于輸出層,為: (6)(2)對(duì)于網(wǎng)絡(luò)各隱層:將(1)式按下述方法改寫: ,得: ,當(dāng)時(shí), 時(shí),因?yàn)檎`差可視為網(wǎng)絡(luò)所有權(quán)值的函數(shù),由復(fù)合全微分得到: ,當(dāng)時(shí),;時(shí),又由(1)式:;由定義:,所以有: (7)代入(5)式可得: 時(shí), 時(shí), (3)當(dāng)樣本輸入網(wǎng)絡(luò)后,因?yàn)榫W(wǎng)絡(luò)權(quán)值已知,所以各層神經(jīng)元輸出通過計(jì)算可直接得出,即可得到輸出層的誤差值,那么通過上式即可依次得出和。所以上述過程又稱為誤差反傳過程(逆推學(xué)習(xí)過程),bp算法由此得名(back-propagation)。由上述推導(dǎo)過程,可得三層神經(jīng)網(wǎng)絡(luò)權(quán)值調(diào)整公式如下:
6、時(shí),時(shí),時(shí),且: , , (9)(1) x1=-5:0.3:5;x2=-5:0.3:5;t=2*x1.*x1+3*x2.*x2-5*x1+x2-3*x1.*x2;plot3(x1,x2,t);title(理想輸出);(2) net=newff(-5 5;-5 5,10 10 1,tansig, tansig,purelin);y=sim(net,x1;x2);plot3(x1,x2,y);title(未經(jīng)訓(xùn)練網(wǎng)絡(luò)輸出值);x1=-5:0.3:5;x2=-5:0.3:5;t=2*x1.*x1+3*x2.*x2-5*x1+x2-3*x1.*x2;plot3(x1,x2,t);title(理想輸出)
7、;net=newff(-5 5;-5 5,10 10 1,tansig, tansig,purelin);y=sim(net,x1;x2);net.trainparam.epochs=500;net.trainparam.goal=0.01;net=train(net,x1;x2,t)trainlm, epoch 0/500, mse 674.464/0.01, gradient 2103.98/1e-010trainlm, epoch 25/500, mse 3.44486/0.01, gradient 57.4759/1e-010trainlm, epoch 50/500, mse 3.1
8、4188/0.01, gradient 20.6995/1e-010trainlm, epoch 75/500, mse 1.81665/0.01, gradient 131.524/1e-010trainlm, epoch 100/500, mse 0.472464/0.01, gradient 500.214/1e-010trainlm, epoch 125/500, mse 0.0812506/0.01, gradient 27.8358/1e-010trainlm, epoch 140/500, mse 0.00776482/0.01, gradient 5.06984/1e-010t
9、rainlm, performance goal met. y=sim(net,x1;x2);plot3(x1,x2,t,g,x1,x2,y,r);title(網(wǎng)絡(luò)訓(xùn)練后實(shí)際值和理想值比較);(3) x1=-5:0.1:5;x2=-5:0.1:5;y1= sim(net,x1;x2);t1=2*x1.*x1+3*x2.*x2-5*x1+x2-3*x1.*x2;plot3(x1,x2,t1,g*,x1,x2,y1,r*);title(另一樣本理想輸出和實(shí)際輸出比較);err=t1-y1;plot3(x1,x2,err); title(誤差空間曲線);(4) 當(dāng)采樣點(diǎn)n較多時(shí)網(wǎng)絡(luò)輸出誤差減小但訓(xùn)練
10、過程較長(zhǎng),當(dāng)采樣點(diǎn)取得較少時(shí)網(wǎng)絡(luò)輸出誤差增大但有較快的收斂速度。訓(xùn)練誤差限取得很小時(shí)網(wǎng)絡(luò)訓(xùn)練時(shí)間延長(zhǎng)(在最大訓(xùn)練步數(shù)控制以內(nèi)),以犧牲時(shí)間為代價(jià)得到較理想的輸出誤差。過小時(shí)往往難以達(dá)到(可能是局部極小的原因)。 總之n越大,越小,學(xué)習(xí)效果越好3比較cmac網(wǎng)絡(luò)、rbf網(wǎng)絡(luò)、bp網(wǎng)絡(luò)之間的異同。(10分)答 1、cmac網(wǎng)絡(luò)、rbf網(wǎng)絡(luò)、bp網(wǎng)絡(luò)的定義。1)mac是小腦模型聯(lián)接控制器(cerebellar model articulation controller)的簡(jiǎn)稱,它模擬了人腦的操縱控制系統(tǒng)。從每個(gè)神經(jīng)元來看,各神經(jīng)元之間是一種線性關(guān)系,但從總體結(jié)構(gòu)來看,cmac模型可適用于非線性映射關(guān)
11、系,而且該模型從初始階段就具有泛化能力;2)徑向基函數(shù)(rbf,radial basis function)網(wǎng)絡(luò)在逼近能力、分類能力和學(xué)習(xí)速度等方面均優(yōu)于bp網(wǎng)絡(luò)。它由三層組成,輸入層節(jié)點(diǎn)只傳遞輸入信號(hào)到隱層,隱層節(jié)點(diǎn)由類似高斯函數(shù)的輻射狀作用函數(shù)組成,輸出層由線性單元組成;3)bp(back propagation)網(wǎng)絡(luò)是一種按誤差逆?zhèn)鞑ニ惴ㄓ?xùn)練的多層前饋網(wǎng)絡(luò);bp網(wǎng)絡(luò)能學(xué)習(xí)和存貯大量的輸入-輸出模式映射關(guān)系,而無需事前揭示描述這種映射關(guān)系的數(shù)學(xué)方程;它的學(xué)習(xí)規(guī)則是使用最速下降法,通過反向傳播來不斷調(diào)整網(wǎng)絡(luò)的權(quán)值和閾值,使網(wǎng)絡(luò)的誤差平方和最??;bp神經(jīng)網(wǎng)絡(luò)模型拓?fù)浣Y(jié)構(gòu)包括輸入層(input)
12、、隱層(hide layer)和輸出層(output layer)。2、但是它們也存在一些聯(lián)系區(qū)別主要有:1) cmac模型采用的算法是簡(jiǎn)單的法,其算法收斂速度比bp算法快得多,特別是它以把一個(gè)多維狀態(tài)空間中的輸入量,映射到一個(gè)比較小的有限區(qū)域上,只要對(duì)多維狀態(tài)空間中的部分樣本進(jìn)行學(xué)習(xí),就可以達(dá)到軌跡學(xué)習(xí)和控制的目的。2)cmac網(wǎng)絡(luò)與rbf網(wǎng)絡(luò)同為局部逼近網(wǎng),但隱層的接收閾函數(shù)不同,且cmac網(wǎng)絡(luò)主要用于機(jī)器人控制中,而rbf網(wǎng)絡(luò)的應(yīng)用范圍與bp網(wǎng)絡(luò)類似。rbf網(wǎng)絡(luò)與bp網(wǎng)絡(luò)都是非線性多層前向網(wǎng)絡(luò),它們都是通用逼近器。對(duì)于任一個(gè)bp網(wǎng)絡(luò),總存在一個(gè)rbf網(wǎng)絡(luò)可以代替它。 3)bp網(wǎng)絡(luò)用于函數(shù)
13、逼近時(shí),權(quán)值的調(diào)節(jié)采用負(fù)梯度下降法,這種調(diào)節(jié)權(quán)值的方法有局限性,既存在著收斂速度慢和局部極小等缺點(diǎn)。而rbf網(wǎng)絡(luò)在逼近能力、分類能力和學(xué)習(xí)速度等方面均優(yōu)于bp網(wǎng)絡(luò);rbf網(wǎng)絡(luò)只有一個(gè)隱層,而bp網(wǎng)絡(luò)的隱層可以是一層也可以是多層的;rbf網(wǎng)絡(luò)和bp網(wǎng)絡(luò)一樣可近似任何的連續(xù)非線形函數(shù),兩者的主要差別在于各使用不同的作用函數(shù),bp網(wǎng)絡(luò)中的隱層節(jié)點(diǎn)使用的是sigmoid函數(shù),其函數(shù)值在輸入空間中無限大的范圍內(nèi)為非零值,而rbf網(wǎng)絡(luò)的作用函數(shù)則是局部的4. 用離散hopfield網(wǎng)絡(luò)對(duì)如下字符進(jìn)行識(shí)別:(1)根據(jù)hebb規(guī)則確定網(wǎng)絡(luò)結(jié)構(gòu)和網(wǎng)絡(luò)權(quán)值;(2)分別將污染率為10%和20%的字符“t”、“o”、
14、“n”(隨機(jī)設(shè)定)輸入網(wǎng)絡(luò),給出網(wǎng)絡(luò)收斂后的結(jié)果。(20分)答(1)離散hopfield網(wǎng)絡(luò)是單層對(duì)稱全反饋網(wǎng)絡(luò),作用函數(shù)為hadlim,主要用于聯(lián)想記憶。hebb 規(guī)則說明:使用頻繁的突觸聯(lián)系會(huì)變得更緊密,從而可理解為突觸的特點(diǎn)是用進(jìn)廢退。長(zhǎng)時(shí)程增強(qiáng)是hebb 學(xué)說的實(shí)驗(yàn)證據(jù):高頻刺激突觸前神經(jīng)元后,在突觸后神經(jīng)元上紀(jì)錄到的電位會(huì)增大,而且會(huì)維持相當(dāng)長(zhǎng)的時(shí)間。根據(jù)hebb 規(guī)則, 假定神經(jīng)元的當(dāng)前的輸入為x=(x1,x2,xn)t,輸出為y=f(w(t)tx),則權(quán)矢量w(t)的調(diào)節(jié)量為 w(t) =yx 故神經(jīng)元的權(quán)值修正公式為:w(t +1) = w(t)+yx 神經(jīng)元的初始權(quán)值一般取零
15、附近的隨機(jī)值,激活函數(shù)f 可以取任意形式。式中w(t)可理解為樣本x對(duì)當(dāng)前權(quán)值的影響。(2)分別建立代表響應(yīng)字母的txt文件,放到matlab工作文件夾里,如下所示: t.txt表示的是t, o.txt表示的是o, n.txt表示的是n.t_noise表示的是受污染的t,o_noise表示的是受污染的o,n_noise表示的是受污染的n。t.txt-1 -1 -1 -1 -1 -1 -1 -1-1 -1 -1 -1 -1 -1 -1 -1 1 1 1 -1 -1 1 1 1 1 1 1 -1 -1 1 1 1 1 1 1 -1 -1 1 1 1 1 1 1 -1 -1 1 1 1 1 1 1
16、-1 -1 1 1 1 1 1 1 -1 -1 1 1 1 1 1 1 -1 -1 1 1 1 1 1 1 -1 -1 1 1 1o.txt-1 -1 -1 -1 -1 -1 -1 -1-1 -1 -1 -1 -1 -1 -1 -1-1 -1 1 1 1 1 -1 -1 -1 -1 1 1 1 1 -1 -1 -1 -1 1 1 1 1 -1 -1 -1 -1 1 1 1 1 -1 -1 -1 -1 1 1 1 1 -1 -1 -1 -1 1 1 1 1 -1 -1 -1 -1 -1 -1 -1 -1 -1 -1-1 -1 -1 -1 -1 -1 -1 -1n.txt-1 -1 1 1 1 1
17、 -1 -1 -1 -1 1 1 1 1 -1 -1 -1 -1 -1 1 1 1 -1 -1 -1 -1 -1 -1 1 1 -1 -1 -1 -1 -1 -1 -1 1 -1 -1 -1 -1 1 -1 -1 -1 -1 -1-1 -1 1 1 -1 -1 -1 -1 -1 -1 1 1 1 -1 -1 -1-1 -1 1 1 1 1 -1 -1-1 -1 1 1 1 1 -1 -11、識(shí)別污染10%的字母:t=load(t.txt);subplot(5,3,1)imshow(t)title(字母“t”)o=load(o.txt);subplot(5,3,2)imshow(o)title(
18、字母“o”)n=load(n.txt);subplot(5,3,3)imshow(n)title(字母“n”)t_noise=load(t_noise.txt);subplot(5,3,4)imshow(t_noise)title(污染10%字母“t”)o_noise=load(o_noise.txt);subplot(5,3,5)imshow(o_noise)title(污染10%字母“o”)n_noise=load(n_noise.txt);subplot(5,3,6)imshow(n_noise)title(污染10%字母“n”)no11=t;no12=o;no13=n;no21=t_n
19、oise;no22=o_noise;no23=n_noise;t=no11(:) no12(:) no13(:);net=newhop(t);no31=sim(net,1,3,no21(:);no32=sim(net,1,3,no22(:);no33=sim(net,1,3,no23(:);for i=1:3 subplot(5,3,6+i) imshow(reshape(no31i,8,10); title(第 num2str(i) 仿真結(jié)果)endfor i=1:3 subplot(5,3,9+i) imshow(reshape(no32i,8,10); title(第 num2str(i
20、) 仿真結(jié)果)endfor i=1:3 subplot(5,3,12+i) imshow(reshape(no33i,8,10); title(第 num2str(i) 仿真結(jié)果)end運(yùn)行結(jié)果如下:2、識(shí)別污染20%的字母:t=load(t.txt);subplot(5,3,1)imshow(t)title(字母“t”)o=load(o.txt);subplot(5,3,2)imshow(o)title(字母“o”)n=load(n.txt);subplot(5,3,3)imshow(n)title(字母“n”)t20noise=load(t20noise.txt);subplot(5,3,
21、4)imshow(t20noise)title(污染20%字母“t”)o20noise=load(o20noise.txt);subplot(5,3,5)imshow(o20noise)title(污染20%字母“o”)n20noise=load(n20noise.txt);subplot(5,3,6)imshow(n20noise)title(污染20%字母“n”)no11=t;no12=o;no13=n;no21=t20noise;no22=o20noise;no23=n20noise;t=no11(:) no12(:) no13(:);net=newhop(t);no31=sim(net
22、,1,3,no21(:);no32=sim(net,1,3,no22(:);no33=sim(net,1,3,no23(:);for i=1:3 subplot(5,3,6+i) imshow(reshape(no31i,8,10); title(第 num2str(i) 仿真結(jié)果)endfor i=1:3 subplot(5,3,9+i) imshow(reshape(no32i,8,10); title(第 num2str(i) 仿真結(jié)果)endfor i=1:3 subplot(5,3,12+i) imshow(reshape(no33i,8,10); title(第 num2str(i
23、) 仿真結(jié)果)end3、經(jīng)三步識(shí)別結(jié)果如下:5簡(jiǎn)述art網(wǎng)絡(luò)結(jié)構(gòu)、運(yùn)行機(jī)制和學(xué)習(xí)算法。(10分)答:(1)、art網(wǎng)絡(luò)結(jié)構(gòu):c 比較層r 識(shí)別層reset 復(fù)位信號(hào)g1和g2 邏輯控制信號(hào) 1、c層結(jié)構(gòu): 該層有n個(gè)節(jié)點(diǎn),每個(gè)節(jié)點(diǎn)接受來自3個(gè)方面的信號(hào):來自外界的輸入信號(hào)xi;來自r 層獲勝神經(jīng)元的外星向量的返回信號(hào)tj;來自g1的控制信號(hào)c 層節(jié)點(diǎn)的輸出ci是根據(jù)2/3的“多數(shù)表決”原則產(chǎn)生的,即輸出值ci與xi、tij 、g1 3個(gè)信號(hào)中的多數(shù)信號(hào)值相同。g1=1,反饋回送信號(hào)為0,c層輸出應(yīng)由輸入信號(hào)決定,有c=x。反饋回送信號(hào)不為0,g1=0,c層輸出應(yīng)取決于輸入信號(hào)與反饋信號(hào)的比較情
24、況,如果xi=tij,則ci=xi。否則ci=0。 2、r層結(jié)構(gòu):r 層有m 個(gè)節(jié)點(diǎn),用以表示m 個(gè)輸入模式類。m可動(dòng)態(tài)增長(zhǎng),以設(shè)立新模式類。由c 層向上連接到r 第j 個(gè)節(jié)點(diǎn)的內(nèi)星權(quán)向量用bj=(b1j,b2j,,bnj)表示。c 層的輸出向量c 沿m個(gè)內(nèi)星權(quán)向量bj(j=1,2,m)向前傳送,到達(dá)r 層各個(gè)神經(jīng)元節(jié)點(diǎn)后經(jīng)過競(jìng)爭(zhēng)在產(chǎn)生獲勝節(jié)點(diǎn)j*,指示本次輸入模式的所屬類別。獲勝節(jié)點(diǎn)輸出=1,其余節(jié)點(diǎn)輸出為0。r 層各模式類節(jié)點(diǎn)的典型向量。(2)網(wǎng)絡(luò)運(yùn)行機(jī)制:相似程度可能出現(xiàn)的兩種情況:相似度超過參考門限。 選該模式類作為當(dāng)前輸入模式的代表類。權(quán)值調(diào)整規(guī)則是,相似度超過參考門限的模式類調(diào)整其
25、相應(yīng)的內(nèi)外星權(quán)向量,以使其以后遇到與當(dāng)前輸入模式接近的樣本時(shí)能得到更大的相似度;對(duì)其它權(quán)值向量則不做任何變動(dòng)。相似度不超過門限值需在網(wǎng)絡(luò)輸出端設(shè)立一個(gè)代表新模式類的節(jié)點(diǎn),用以代表及存儲(chǔ)該模式,以便于參加以后的匹配過程。(3)學(xué)習(xí)算法:訓(xùn)練可按以下步驟進(jìn)行,1)網(wǎng)絡(luò)初始化 從c 層向r 層的內(nèi)星權(quán)向量bj 賦予相同的較小數(shù)值,如 從r 層到c 層的外星權(quán)向量tj 各分量均賦1。 2)網(wǎng)絡(luò)接受輸入 給定一個(gè)輸入模式,x(x1,x2,,xn),xi(0,1)n。3)匹配度計(jì)算 對(duì)r層所有內(nèi)星向量bj計(jì)算與輸入模式x的匹配度。 j=1,2,,m。4)選擇最佳匹配節(jié)點(diǎn) 在r層有效輸出節(jié)點(diǎn)集合j*內(nèi)選擇競(jìng)
26、爭(zhēng)獲勝 的最佳匹配節(jié)點(diǎn)j*,使得5)相似度計(jì)算 r 層獲勝節(jié)點(diǎn)j*通過外星送回獲勝模式類的典型向量,c層輸出信號(hào)給出對(duì)向量和x的比較結(jié)果,i=1,2,n,由此結(jié)果可計(jì)算出兩向量的相似度為 6)警戒門限檢驗(yàn) 如果n0/n1,表明x應(yīng)歸為代表的模式類,轉(zhuǎn)向步驟(8)調(diào)整權(quán)值。7)搜索匹配模式類 若有效輸出節(jié)點(diǎn)集合j*不為空,轉(zhuǎn)向步驟(4)重選匹配模式類;若j*為空集,需在r層增加一個(gè)節(jié)點(diǎn)。設(shè)新增節(jié)點(diǎn)的序號(hào)為nc,應(yīng)使 ,i=1,2,n,此時(shí)有效輸出節(jié)點(diǎn)集合為j*=1,2,m,m+1,m+nc,轉(zhuǎn)向步驟(2)輸入新模式。8)調(diào)整網(wǎng)絡(luò)權(quán)值 修改r層節(jié)點(diǎn)j* 對(duì)應(yīng)的權(quán)向量,網(wǎng)絡(luò)的學(xué)習(xí)采用了 兩種規(guī)則,外
27、星向量的調(diào)整按以下規(guī)則: i=1,2,n; j*j* i=1,2,n 6結(jié)合各自的研究方向,列舉實(shí)例論述如何應(yīng)用神經(jīng)網(wǎng)絡(luò)相關(guān)理論解決實(shí)際問題,要求給出具體的要求、實(shí)現(xiàn)方法和步驟、相關(guān)的仿真程序及結(jié)果等。(30分)我的研究方向是大型公共建筑能耗的實(shí)時(shí)監(jiān)控,我的想法是利用模糊神經(jīng)網(wǎng)絡(luò)對(duì)自適應(yīng)監(jiān)控系統(tǒng)過程中的參數(shù)進(jìn)行估計(jì),利用神經(jīng)網(wǎng)絡(luò)的神經(jīng)計(jì)算能力對(duì)控制器的參數(shù)進(jìn)行制約優(yōu)化求解。網(wǎng)絡(luò)在拓?fù)浣Y(jié)構(gòu)上應(yīng)保證輸出向量空間與控制器參數(shù)向量空間相對(duì)應(yīng)??刂戚敵龊铜h(huán)境因素作為網(wǎng)絡(luò)的輸入??紤]控制性能和控制規(guī)律以及環(huán)境因素,建立一個(gè)優(yōu)化指標(biāo)函數(shù),然后即可借用hopfield網(wǎng)絡(luò)的設(shè)計(jì)方法來設(shè)計(jì)網(wǎng)絡(luò)。這種方案的主要優(yōu)點(diǎn)是,能
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 2025-2030年中國(guó)二手車第三方檢測(cè)行業(yè)商業(yè)模式創(chuàng)新戰(zhàn)略制定與實(shí)施研究報(bào)告
- 2025-2030年中國(guó)3C維修行業(yè)全國(guó)市場(chǎng)開拓戰(zhàn)略制定與實(shí)施研究報(bào)告
- 2025-2030年中國(guó)智能手表行業(yè)商業(yè)模式創(chuàng)新戰(zhàn)略制定與實(shí)施研究報(bào)告
- 2025-2030年中國(guó)汽車運(yùn)動(dòng)服務(wù)行業(yè)開拓第二增長(zhǎng)曲線戰(zhàn)略制定與實(shí)施研究報(bào)告
- 養(yǎng)殖金蟬知識(shí)培訓(xùn)課件
- 二零二五年度房產(chǎn)局備案的房屋租賃合同規(guī)范版6篇
- 二零二五年度房東房屋租賃合同(含電梯使用費(fèi))2篇
- 二零二五年度健康體檢中心運(yùn)營(yíng)管理合同標(biāo)準(zhǔn)范本3篇
- 電氣試驗(yàn)知識(shí)培訓(xùn)課件
- 精密機(jī)械制造中心項(xiàng)目可行性研究報(bào)告模板-立項(xiàng)拿地
- 施工單位自評(píng)報(bào)告
- 招商租金政策方案
- 銀行金庫集中可行性報(bào)告
- 鍍膜員工述職報(bào)告
- 工程結(jié)算中的風(fēng)險(xiǎn)識(shí)別與防控
- 安全教育培訓(xùn)課件:意識(shí)與態(tài)度
- 《礦區(qū)水文地質(zhì)工程地質(zhì)勘探規(guī)范》水文地質(zhì)單元及侵蝕基準(zhǔn)面劃分的探討
- PAC人流術(shù)后關(guān)愛與健康教育
- 眼瞼衰老機(jī)制與干預(yù)
- 滲透檢測(cè)-滲透檢測(cè)方法(無損檢測(cè)課件)
- 職業(yè)健康管理與法律法規(guī)培訓(xùn)
評(píng)論
0/150
提交評(píng)論