Adaline的LMS算法_第1頁
Adaline的LMS算法_第2頁
Adaline的LMS算法_第3頁
Adaline的LMS算法_第4頁
Adaline的LMS算法_第5頁
免費(fèi)預(yù)覽已結(jié)束,剩余13頁可下載查看

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、神經(jīng)網(wǎng)絡(luò)導(dǎo)論實(shí)驗(yàn)報(bào)告-Adaline 的 LMS算法專 業(yè):信息與通信工程班級(jí): 5030 班學(xué) 號(hào): 3115091011姓名:王 靜神經(jīng)網(wǎng)絡(luò)導(dǎo)論實(shí)驗(yàn)- Adaline 的 LMS 算法'、實(shí)驗(yàn)?zāi)康?、通過實(shí)驗(yàn)了解Adaline的工作原理2、對(duì)比LMS的三種算法,并通過上機(jī)實(shí)驗(yàn)掌握具體實(shí)現(xiàn)方法3、與采用硬限幅函數(shù)的單個(gè)神經(jīng)元模型進(jìn)行對(duì)比,比較其異同】、實(shí)驗(yàn)原理采用硬限幅函數(shù)的單個(gè)神經(jīng)元,通過簡(jiǎn)單的學(xué)習(xí)算法,可以成功實(shí)現(xiàn)兩類線 性可分類的分類功能。但對(duì)于大多數(shù)的非線性可分類來說,則無法完成分類功能, 為此我們轉(zhuǎn)而采用具有線性功能函數(shù)的神經(jīng)元Adaline(Adaptive Linear

2、 Elemen)方法。設(shè)輸入矢量X=?,?, ,?,加權(quán)矢量W=?,?,??,則神經(jīng)元的輸出 可以通過下式來計(jì)算:I = WXT = XW1y= f(l) = WXT = XWT要實(shí)現(xiàn)Adaline的分類功能,按照最小二乘法的統(tǒng)計(jì)意義而言,就是要求所有樣 本的實(shí)際輸出值與理想預(yù)期值之間的誤差的均方值最小。 設(shè)輸入觀察矢量X的期望輸出是d,當(dāng)權(quán)向量為W時(shí)的實(shí)際輸出是y,定義?= ? ?考慮所有可能出現(xiàn)樣本的均方誤差: 將(1)式代入,可得:? = ?(? ?)? = ? + ?- 2?其中,??? ??是輸入向量的自相關(guān)矩陣,??? ??是輸入向量與期望輸出 的互相關(guān)向量。由(3)式可知必定存在

3、最佳的加權(quán)矢量??使均方誤差達(dá)到最小, 對(duì)(3)式求梯度可得:? = 2?- 2?由(4)式可解最優(yōu)權(quán)向量:? = ?(5)式給出了求最佳加權(quán)矢量的方法,但是需要做大量的統(tǒng)計(jì)計(jì)算,而且當(dāng)輸入 矢量X的維數(shù)很大時(shí),需要解決高階矩陣求逆的問題,這些都是非常困難的。于 是我們給出下面三種遞推求解的方法。2.1 LMS學(xué)習(xí)問題的嚴(yán)格遞推學(xué)習(xí)算法1. 任意設(shè)置初始權(quán)向量 w(o);2. 對(duì)于每一個(gè)時(shí)序變量k,按下式調(diào)整權(quán)向量 W:W(k+ 1) = W(k) + a -?(?), ?= 1,2,(6)式的含義為,應(yīng)該向梯度的負(fù)方向調(diào)整加權(quán)向量W(k),只要選定合適的步幅系數(shù)a就能保證學(xué)習(xí)的收斂性。求出(

4、6)式中的梯度:?= -2?(?)?(|?)(7)于是(6)式變?yōu)椋篧(k+ 1) = W(k) + 2 aE?(?)?(?)(8)用這種方法可以保證求得嚴(yán)格的最佳解, 而且避開了矩陣求逆的困難,但學(xué)習(xí)過 程中的每一步仍需完成大量的統(tǒng)計(jì)計(jì)算,統(tǒng)計(jì)計(jì)算的困難尚需解決。2.2 LMS學(xué)習(xí)問題的隨機(jī)逼近算法將(8)是修正為如下形式:W(k+ 1) = W(k) + 2a£ (k)X(k)(9)即得到隨機(jī)逼近算法,與其嚴(yán)格遞推算法的區(qū)別在于:用& (k)X(k)代替E & (k)X(k),由此避免了統(tǒng)計(jì)計(jì)算的困難,但同時(shí)也給加權(quán)矢量的變化趨勢(shì) 帶來了隨機(jī)性。2.3 LMS學(xué)習(xí)

5、問題的基于統(tǒng)計(jì)的算法這是一種具有一定統(tǒng)計(jì)特性的學(xué)習(xí)算法 假設(shè)學(xué)習(xí)進(jìn)行到第k步時(shí),可能出現(xiàn)的樣本有 P個(gè),分別用?(?表示, 下標(biāo)p=1,2,表示在第k步學(xué)習(xí)過程中可能出現(xiàn)的不同樣本編號(hào)。第p個(gè)樣本的理想輸出和實(shí)際輸出分別用??(??和?孜?表示。我們定義“誤差平方和”J(k)如下:1?(?= ?E?(?)(10)其中 戀? = ?(?- ?(?,?(?相對(duì)于 W的梯度為:2?(?=-初呂?(??張?)(11)令誤差朝J(k)減小的方向調(diào)整,可得如下遞推算法:2?廠?(?+ 1) = ?(?+ -? E?(? ?i(?)(12)當(dāng)P的數(shù)量非常大,使上式右端的求和項(xiàng)足以代表輸入的統(tǒng)計(jì)特性時(shí),(12

6、)式與(8)式 (嚴(yán)格遞推算法)一致,當(dāng)P取1時(shí),(12)式與(9)式(隨機(jī)逼近算法) 一致。、實(shí)驗(yàn)內(nèi)容及步驟3.1 LMS算法根據(jù)實(shí)驗(yàn)原理,??? ??即輸入矢量的自相關(guān)陣,可得:2.0106 1.1515 R1.1515 1.7398? ?是輸入向量與期望輸出的互相關(guān)向量,可得:P 1.1058 1.0074最佳權(quán)向量??? = ?,則有:W PR 10.3517 0.3463檔W=?時(shí),均方誤差取得最小值:可得:E? ?= ?= ?- ?=0.26233.2隨機(jī)逼近算法隨機(jī)逼近算法,根據(jù)給出的權(quán)向量初始值,每步從樣本中隨機(jī)的選擇一 個(gè),按照迭代公式(9),計(jì)算下一步的權(quán)向量,根據(jù)計(jì)算出的

7、權(quán)向量,計(jì)算 此時(shí)系統(tǒng)的輸出矢量Y,與理想輸出比較,得到此時(shí)系統(tǒng)的均方誤差,若均 方誤差滿足要求,則迭代結(jié)束,否則再選擇樣本進(jìn)行訓(xùn)練。下圖為隨機(jī)逼近算法的簡(jiǎn)單結(jié)構(gòu)框圖:隨機(jī)逼近算法框圖其中,步幅系數(shù)a= 0.01,加權(quán)系數(shù)的初始值選擇為 W(1)=0.1, 0.1,學(xué)習(xí) 結(jié)束的條件為隨機(jī)逼近算法的均方誤差E(?) < ? 0.001圖1 a= 0.01時(shí),均方誤差隨訓(xùn)練次數(shù)的變化曲線迭代結(jié)束后,隨機(jī)逼近算法計(jì)算出的加權(quán)系數(shù)矩陣:W=0.3793, 0.3257如圖1所示為實(shí)驗(yàn)結(jié)果。在a= 0.01時(shí),均方誤差隨訓(xùn)練次數(shù)的變化曲線,隨著 學(xué)習(xí)的進(jìn)行,均方誤差逐漸減小。但是從圖中可以看見會(huì)有

8、微小的起伏,這是因?yàn)槊恳徊郊訖?quán)系數(shù)的調(diào)整量是向所選樣本的誤差梯度的負(fù)方向調(diào)整,但是總的趨勢(shì)是誤差減小的方向,最后滿足誤差的要求。F列各圖為o取值不同時(shí),均方誤差隨訓(xùn)練次數(shù)變化的曲線。圖3 a= 0.008時(shí),均方誤差隨訓(xùn)練次數(shù)的變化曲線O.出比需5圖2 a= 0.002時(shí),均方誤差隨訓(xùn)練次數(shù)的變化曲線|-| L% |i|i”j|j'i 10 sa 30 jo 50 en to somo訓(xùn)探.工欝kU -b0 25'111D510162C訓(xùn)練次救k-麵擴(kuò)L逞近諄珪旳方返歪Ernin3壬0.5苦 2口圖4 a = 0.01時(shí),均方誤差隨訓(xùn)練次數(shù)的變化曲線圖5 a= 0.02時(shí),均方

9、誤差隨訓(xùn)練次數(shù)的變化曲線IS機(jī)毎退宜進(jìn),alptia=O 33 3-UO.2.6隨加世近舁忌均為氏莖Emini拒1=1運(yùn)止遠(yuǎn)越萬吐Eirnin1.5L.G門 iii一_一 0102030 in "1 e(l Hl圖6 a= 0.1時(shí),均方誤差隨訓(xùn)練次數(shù)的變化曲線Uo 5qo irm 15D0 ?nm ssqd jdoo 3SC0 £DQO fitVBflE圖7 a= 0.3時(shí),均方誤差隨訓(xùn)練次數(shù)的變化曲線從圖中可以看出,在a= 0.002,0.008,0.01,0.02時(shí),學(xué)習(xí)均是收斂的,只是對(duì)于不同的步幅系數(shù),收斂速度不同。在a = 0.02時(shí)收斂最快,在a =0.002

10、時(shí)收斂較慢,但是當(dāng)a= 0.1和a = 0.3時(shí)學(xué)習(xí)是不收斂的。原因:步幅系數(shù)影響每次對(duì)于加權(quán)系數(shù) W的調(diào)整量,因此,在步幅系數(shù)較 小時(shí)(例a= 0.002),每次學(xué)習(xí)對(duì)于加權(quán)系數(shù)的調(diào)整很小,因此訓(xùn)練的次數(shù) 較多,但是會(huì)收斂。在步幅系數(shù)較大時(shí)(例a= 0.1),每次學(xué)習(xí)對(duì)于加權(quán)系數(shù)的調(diào)整也會(huì)較大,所以,可能會(huì)出現(xiàn)這次學(xué)習(xí)之前,誤差沒有達(dá)到指定的 精度,但是學(xué)習(xí)之后,由于調(diào)整量太大而又超過了指定精度。 所以會(huì)出現(xiàn)想 圖6所示的振蕩現(xiàn)象。3.3基于統(tǒng)計(jì)的算法基于統(tǒng)計(jì)的算法,根據(jù)給出的權(quán)向量初始值,每步隨機(jī)的選擇幾個(gè)樣本,(在本次實(shí)驗(yàn)中,隨機(jī)的選擇 5個(gè)樣本)按照迭代公式(12),計(jì)算下一步的 權(quán)向

11、量,根據(jù)計(jì)算出的權(quán)向量,計(jì)算出此時(shí)系統(tǒng)的輸出矢量丫,與理想輸出比較,得到此時(shí)的均方誤差,若均方誤差滿足要求,貝泄代結(jié)束,否則再選 擇樣本進(jìn)行訓(xùn)練。下圖為基于統(tǒng)計(jì)算法的簡(jiǎn)單結(jié)構(gòu)框圖:基于統(tǒng)計(jì)的算法框圖其中,步幅系數(shù)a= 0.02,輸入矢量樣本P=5,加權(quán)系數(shù)的初始值選擇為 W(1)=0.1,0.1,學(xué)習(xí)結(jié)束的條件為此算法的均方誤差E(?) < ? 0.0010.5越U4OIXn ?圖8P=5時(shí),均方誤差隨訓(xùn)練次數(shù)的變化曲線q1f縣于統(tǒng)計(jì)鼻法命涉逞型015I荃于坑計(jì)豈法,Z165迭代結(jié)束后,基于統(tǒng)計(jì)的算法計(jì)算出的加權(quán)系數(shù)矩陣為:W=0.3283, 0.3506如圖8所示為基于統(tǒng)計(jì)的算法的實(shí)驗(yàn)

12、結(jié)果。 在P=5時(shí),隨著學(xué)習(xí)的進(jìn)行,均方誤 差逐漸減小。與隨機(jī)逼近算法一樣,圖中可以看出在逼近過程中會(huì)有微小的起伏, 這是因?yàn)槊恳徊郊訖?quán)系數(shù)的調(diào)整量是向所選5個(gè)樣本的誤差平方和的梯度的負(fù)方向調(diào)整。但是總的趨勢(shì)是誤差減小的方向,最后滿足誤差的要求。下列各圖為P取值不同時(shí),均方誤差隨訓(xùn)練次數(shù)變化的曲線。圖9P=2時(shí),均方誤差隨訓(xùn)練次數(shù)的變化曲線縣于貌計(jì)聲法戶包.6S0.50 553 50 45|: 3S0 i0 如0 >1Q EflOIDOL I2DD bKQ19J0圖10P=50時(shí),均方誤差隨訓(xùn)練次數(shù)的變化曲線從圖中可以看出在合適的步幅系數(shù) a= 0.02時(shí),學(xué)習(xí)過程均是收斂的,隨著 P取

13、 值的不同,訓(xùn)練次數(shù)不同。P取值越大,每步調(diào)整的加權(quán)系數(shù) W越精確,所以 訓(xùn)練的次數(shù)應(yīng)該越小。但是我的實(shí)驗(yàn)中,在P=50時(shí),雖然收斂的效果很好,但是訓(xùn)練次數(shù)太多。3.4 Widrow嚴(yán)格遞推算法Widrow嚴(yán)格遞推算法,與前兩種方法不同的是,每一步調(diào)整都是利用 所有的樣本,計(jì)算其理想輸出與實(shí)際輸出的誤差, 權(quán)向量向誤差梯度的負(fù)方 向調(diào)整。即每一步利用所有的樣本計(jì)算調(diào)整量,根據(jù)給出的權(quán)向量初始值, 按照迭代公式(8),計(jì)算下一步的權(quán)向量,再計(jì)算此時(shí)系統(tǒng)的輸出矢量丫,與理想輸出比較,得到此時(shí)系統(tǒng)的均方誤差,若均方誤差滿足要求,則迭代結(jié) 束,否則選擇樣本進(jìn)行訓(xùn)練。下圖為Widrow嚴(yán)格遞推算法的簡(jiǎn)單

14、結(jié)構(gòu)框圖:所有的輸入矢量計(jì)算 E( ?) = ?(? ?2E(?)- ?> 0.001Widrow嚴(yán)格遞推算法框圖其中,步幅系數(shù)a= 0.02,加權(quán)系數(shù)的初始值選擇為W(1)=0.1,0.1,學(xué)習(xí)結(jié)束的條件為此算法的均方誤差E(?) < ? 0.001溫draw的嚴(yán)格攔堆 lEnw1015200135O2ft圖11 a = 0.02時(shí),均方誤差隨訓(xùn)練次數(shù)的變化迭代結(jié)束后,Widrow嚴(yán)格遞推算法計(jì)算出的加權(quán)系數(shù)矩陣:W=0.3454, 0.3296如圖11所示,為a= 0.02時(shí),Widrow的嚴(yán)格遞推算法計(jì)算的系統(tǒng)的均方誤差隨 訓(xùn)練次數(shù)的變化情況,從圖中可以看見,因?yàn)榇怂惴看螌?duì)

15、于加權(quán)系數(shù)的調(diào)整是 利用所有的輸入矢量,即向系統(tǒng)的均方誤差減小的方向調(diào)整, 所以迭代次數(shù)比起 另外兩種方法少很多。而且均方誤差隨著訓(xùn)練次數(shù)的變化曲線是一直減小的,因?yàn)槊恳徊接?jì)算的均方誤差也是系統(tǒng)的均方誤差。圖12 a = 0.02時(shí),均方誤差隨訓(xùn)練次數(shù)的變化圖13 a= 0.05時(shí),均方誤差隨訓(xùn)練次數(shù)的變化S-33ITIITII032-uiL ff z92B-坤100030007000MOO3X04000H斗3;班圖14 a = 0.1時(shí),均方誤差隨訓(xùn)練次數(shù)的變化曲圖15 a= 0.35時(shí),均方誤差隨訓(xùn)練次數(shù)的變化網(wǎng)桁-W丁叢 如己叫«?嚴(yán)怡芯, *b=o.osis irrraiQW

16、rJ 嚴(yán) EmniH 44ErnmO.fl>0.42I0刖L L0 3-jMJ 0149-ET0.4-0.35M5-Q3S3g-r"JjQ. JO-21415W153Q75如上圖所示為a取不同的值的時(shí)候,系統(tǒng)均方誤差隨訓(xùn)練次數(shù)的變化曲線,步幅 系數(shù)o影響每一次加權(quán)系數(shù)的調(diào)整量。從圖中可以看見當(dāng) 取 0.02, 0.05, 0.1時(shí), 迭代均是收斂的,而且a越大,收斂的越快,訓(xùn)練次數(shù)越少。但是當(dāng)a過大時(shí),像實(shí)驗(yàn)中的a= 0.35迭代不收斂。3.5檢驗(yàn)本實(shí)驗(yàn)在檢驗(yàn)時(shí),對(duì)于用于測(cè)試的200個(gè)樣本,按照三種方法計(jì)算出的加權(quán) 系數(shù)分別計(jì)算其對(duì)應(yīng)的實(shí)際輸出,再與理想輸出對(duì)比,確定分類是否正

17、確。其中確定錯(cuò)誤分類的個(gè)數(shù)時(shí),用每一個(gè)樣本的實(shí)際輸出與對(duì)應(yīng)的理想輸出相 乘,結(jié)果為正則分類正確,結(jié)果為負(fù)則分類錯(cuò)誤。下面為三種方法分類的結(jié)果算法加權(quán)系數(shù)錯(cuò)誤個(gè)數(shù)正確率(%)隨機(jī)逼近算法W=0.3793, 0.3257995.5基于統(tǒng)計(jì)的算法W=0.3283, 0.3506995.5WidrowW=0.3454,0.32961095四、實(shí)驗(yàn)總結(jié)與思考4.1實(shí)驗(yàn)總結(jié)本次實(shí)驗(yàn),由于我對(duì)MATLAB掌握的不是很好,所以剛開始在編程方面有一 點(diǎn)困難,但是在理解了整體的思想和學(xué)習(xí)之后,進(jìn)行了實(shí)驗(yàn)。三種方法實(shí)質(zhì)上就是運(yùn)用不同的方法計(jì)算加權(quán)系數(shù) W,隨機(jī)逼近算法每次隨機(jī)的選擇一個(gè)樣本進(jìn) 行調(diào)整,基于統(tǒng)計(jì)的算法

18、每次選擇 P個(gè)樣本進(jìn)行調(diào)整,Widrow嚴(yán)格遞推算法每 次用所有的輸入矢量進(jìn)行調(diào)整。所以 Widrow嚴(yán)格遞推算法最快,因?yàn)樗看握{(diào) 整的方向都是向系統(tǒng)誤差減小的方向調(diào)整。算出加權(quán)系數(shù)W之后,接下來三種方法都一樣,就是根據(jù)W計(jì)算實(shí)際輸出, 再計(jì)算均方誤差,根據(jù)誤差精度的要求確定迭代是否結(jié)束。問題:在基于統(tǒng)計(jì)的算法中,隨著P的增加,應(yīng)該訓(xùn)練次數(shù)減少,但是在我 的實(shí)驗(yàn)中,當(dāng)P=50時(shí),雖然收斂結(jié)果很好,但是訓(xùn)練次數(shù)太多。比 P=5的時(shí)候 還多。4.2實(shí)驗(yàn)思考題1、 如果想采用硬限幅函數(shù)的單個(gè)神經(jīng)元完成該分類任務(wù),會(huì)出現(xiàn)什么樣的現(xiàn)象?可能結(jié)果會(huì)不收斂,因?yàn)椴捎糜蚕薹瘮?shù)的單個(gè)神經(jīng)元只能完成線性可分類

19、 問題,但是對(duì)于非線性的分類問題可能結(jié)果會(huì)不收斂。2、通過觀察比較隨機(jī)逼近算法與不同 P時(shí)最陡下降算法的均方誤差曲線隨 時(shí)序變量k的變化有什么不同,并簡(jiǎn)要解釋原因。隨機(jī)逼近算法與基于統(tǒng)計(jì)的算法都是利用少量的樣本進(jìn)行加權(quán)系數(shù)的計(jì)算,每次調(diào)整都是向所選樣本誤差減小的方向調(diào)整,所以誤差曲線都有微小的波動(dòng)。但是基于統(tǒng)計(jì)的算法隨著樣本 P的增加,其誤差曲線趨近平滑, 因?yàn)樗x樣本越多,越能反映總體的誤差情況。五、代碼5.1 LMS算法計(jì)算輸入矢量的自相關(guān)矩陣 R,矩陣P,最佳權(quán)向量W*和最小均方誤差Eminclose allclearload(9 E:、諜程神徑網(wǎng)絡(luò) I 實(shí)號(hào)'實(shí)m.ineV ,

20、 str cat C lns_saip') ) :%加載數(shù)據(jù)X=samp (:, 1: 2):嚅輸入矢重X為亙前兩列d-sanLpf .3) A理想輸出為第三列Rsun=zF05(2):E.S.UJfzerostL, 2):ELsun-X3 :R=R_sun./200R=EfX' 痕P-.suni=d3 :tP_ sun為肯葡出與對(duì)應(yīng)輸入的乗租P*P_Eun. /200.f-P+R"(-l)計(jì)算最佳權(quán)向里d2=d. ' 2 :Ed2-sun(d2)/200;En)i.n=Ed2-P*V :魯小均方罠差5.2隨機(jī)逼近算法close all門旨曲leBdC'

21、; E : 1 課程l祁經(jīng)網(wǎng)搐實(shí)XB-ineX1 , streat C lns_sanip,)當(dāng)加載數(shù)據(jù)aIpha=0* 01;餐I;E-EI:%K . E分別為最后顯示時(shí)迭代的次戲和每步的均方誤差柜時(shí)1=1:ki-ro.Lo. 1:弔加収系數(shù)的初始值題目要求誤差不鉛過E.nt+a OCH,所以B=ERROR-EniTi<=Ci. 001F-tfhile(m>0- 001)n隨機(jī)的抽職一個(gè)ir=raridL (size(saiiip31):巾椅潔一個(gè)隨機(jī)眾nt=samp(n, :;Sj0SP saiap 的 chri 行x-b(: ,1:2) :丫輸入矢里X為亙前兩列d-b(:,

22、3) D這個(gè)X的理想輔出為第三列«用一個(gè)隨機(jī)矢塑K計(jì)算咖權(quán)系麹曽 yk>=lt*x,:A W =d-y U:J ;S k+L =1 (!<+2*:alpha»e ft) tx ;S由一個(gè)甌機(jī)SS入計(jì)算的加權(quán)系嫌迭代公式 n 計(jì)算當(dāng)前丑對(duì)應(yīng)的總的均方誤差A(yù)-samp : n 1: 2)匚輸入矢里D=samp(:, 3)沁理想輸出T=Wk+l*X,:方實(shí)際輸出ERROR_sum=sunC(I-r), "2):EREOR=E KROR_suh/200 ;衍均 方溟差b)»ERROR-0- 2623:K(k"k:E(k)=ERK0h:lt=

23、k+L:丈nd曲L 口;E=CO- 2623 0. 2623瑪顯亍最小的均方誤Emin plot (K| E»A, G .Legend('帯機(jī)謂近直迭均方誤差.,'Emm' :titL&('逼近JJ法* alphas0. 01r );MlabH 訓(xùn)練次敎h ):ylabel(,均方誤差):5.3基于統(tǒng)計(jì)的算法close allclearload(3 E: 課翟、神經(jīng)網(wǎng)絡(luò)實(shí)騎褻監(jiān)*uib, strcat C 1b3_3st ) J )厲加養(yǎng)觀擁K-tl:E=::血、E分別対最啟顯示時(shí)迭代的次救和每歩的均方誤差矩陣alpha=0. Q2;k-1:W

24、(M=£0,1, 0.1;詹加權(quán)素徽的初整HI?=1 ;*按照題目要求誤差不蠱過EnirrW. 001,所以rEREOR-Eiir.O. 101Fibile(a>0. 00111得至希個(gè)協(xié)機(jī)樣本n=ranii(5anp» I".):勺恂世一牛隨機(jī)數(shù)匕if n<5nit+5;else if n>19?r._n-D;endend b囲為要取5個(gè)樣本誼個(gè)觀厚冥現(xiàn)時(shí)是咅生一個(gè)暄機(jī)埶兀取從第iv-棄苗的連續(xù)弓個(gè)作詢樣本醫(yī)就要區(qū)免和21妬肘的情驍 b=saap (n:n+4f:)汁取從吐開始的呂個(gè)乍為樣本x=b(:,l 2)理輸入矢敷為其前兩列d=b(:,3

25、>曲理想輸岀為其第三列«周呂十質(zhì)忸醉本計(jì)甘加權(quán)系數(shù)Fyx*Tkf :%5-P樣玄的定際輸出etHd-y5樣:T的逞差拒陣 for pl : 5p_sua-zeics<Lt 2):SLL>P_5Ufflrl-e k (p) *x (ps ”,-nd(k+1" ik +2 » a lpha<p_ s'um./ 5:tt計(jì)豊當(dāng)前百對(duì)直葩總的均方諜差X=sa>p ;.L;2;$輸入矢重C=saap(: r3)汨理頰輸出Y-Tlk+l* :養(yǎng)買際輸出LRROR_sud=Suii(U-Y, ). l2);E WR=E RROR. sum

26、z Z 0 0: 'S -l 方誤哇-ERROK-O, 2023.E(k)=kF(k)-ERROR;k=k+1:-end%A-:l k,;B=0, 2623 0. 26231汁顯示娃小的均方謨差Euiplot E, A, B'ileC«njd(P環(huán)于統(tǒng)計(jì)尊盜的均方誤差"r" Enin');title C S于筑計(jì)壽法,P=5P);ilafrfll C訓(xùn)練次數(shù)匸):Jlabel "均方詫差J .5.4 Widrow嚴(yán)格遞推算法close allclearload(r E; 程神經(jīng)網(wǎng)XninflV .strcat (? lis_sa&

27、gt;p?)厲加載數(shù)據(jù) aipha=0. 02 ;K=I ;E< :分別対慍后顯示時(shí)迭代的次數(shù)和每栃的均方誤差矩陣k=l;WW-». 1. 011偉加權(quán)系數(shù)的初始值=1:略按矍題目要求渓基不趣過Emin+O. 001T所以m=EKR3J-Enln<=0. 001 呃uXImXL 001) x=samp(:T 1: 2)肖輸入矢里X対其前兩列d弋a(chǎn)mp (:,引;弔理想輸出為第三列y=x*1kr :«PEilon*d-y:epELlon_Eum=epEi Ion." :Etpsilon=&psiIon_sua-/200:I kMk +2 *al pha*Eepsi Ion: 由一個(gè)髓機(jī)輸入計(jì)賞的加權(quán)系數(shù)迭代公式Wb計(jì)尊當(dāng)前耐應(yīng)的總加均方誤差X=sauip( 11: 2);弔輸入矢蚩D-sampC:,3);中理想輸出Y=Itt+L*X,曲買面輸岀ERfiOR_sutt-sun(D-T )< '2);ERR0R=ERR0R_5uiii/ 200 汽均方誤

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論