小腦模型CMAC神經(jīng)網(wǎng)絡(luò)1ppt課件_第1頁
小腦模型CMAC神經(jīng)網(wǎng)絡(luò)1ppt課件_第2頁
小腦模型CMAC神經(jīng)網(wǎng)絡(luò)1ppt課件_第3頁
小腦模型CMAC神經(jīng)網(wǎng)絡(luò)1ppt課件_第4頁
小腦模型CMAC神經(jīng)網(wǎng)絡(luò)1ppt課件_第5頁
已閱讀5頁,還剩106頁未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

1、 CMAC CMAC網(wǎng)絡(luò)的根本思想與構(gòu)造模型網(wǎng)絡(luò)的根本思想與構(gòu)造模型 CMAC CMAC網(wǎng)絡(luò)的任務(wù)原理網(wǎng)絡(luò)的任務(wù)原理 CMAC CMAC算法的程序文語描畫算法的程序文語描畫 CMAC CMAC網(wǎng)絡(luò)的泛化才干網(wǎng)絡(luò)的泛化才干 CMAC CMAC網(wǎng)絡(luò)的幾個(gè)問題網(wǎng)絡(luò)的幾個(gè)問題 仿真例如仿真例如 生物學(xué)研討闡明,人腦在人體運(yùn)動中起到維持軀體平衡、生物學(xué)研討闡明,人腦在人體運(yùn)動中起到維持軀體平衡、調(diào)理肌肉緊張程度、協(xié)調(diào)隨意運(yùn)動等功能。因此,模擬人的調(diào)理肌肉緊張程度、協(xié)調(diào)隨意運(yùn)動等功能。因此,模擬人的小腦構(gòu)造與功能無疑是腦的宏觀構(gòu)造功能模擬的重要組成部小腦構(gòu)造與功能無疑是腦的宏觀構(gòu)造功能模擬的重要組成部分。

2、早在分。早在19751975年,年,AlbusAlbus便根據(jù)神經(jīng)生理學(xué)小腦皮層構(gòu)造特便根據(jù)神經(jīng)生理學(xué)小腦皮層構(gòu)造特點(diǎn)提出的一種小腦模型關(guān)聯(lián)控制器點(diǎn)提出的一種小腦模型關(guān)聯(lián)控制器(Cerebellar Model (Cerebellar Model Articulation Controller)Articulation Controller),簡稱,簡稱CMACCMAC網(wǎng)絡(luò)。經(jīng)過多年的研討,網(wǎng)絡(luò)。經(jīng)過多年的研討,其中包括其中包括Miller, ParksMiller, Parks和和WongWong等人的出色任務(wù),目前等人的出色任務(wù),目前CMACCMAC已得到人們越來越多的注重。已得到人們越來

3、越多的注重。CMACCMAC是一種部分逼近網(wǎng)絡(luò),是一種部分逼近網(wǎng)絡(luò),算法基于算法基于LMS(LMS(最小均方最小均方) ),學(xué)習(xí)速度快,具有局域泛化,學(xué)習(xí)速度快,具有局域泛化(generalization)(generalization)才干,防止了才干,防止了BPBP網(wǎng)絡(luò)的部分最優(yōu)問題,且易網(wǎng)絡(luò)的部分最優(yōu)問題,且易于硬件實(shí)現(xiàn)。這些優(yōu)點(diǎn)使得于硬件實(shí)現(xiàn)。這些優(yōu)點(diǎn)使得CMACCMAC網(wǎng)絡(luò)非常適宜用于復(fù)雜系網(wǎng)絡(luò)非常適宜用于復(fù)雜系統(tǒng)的建模和快速辨識。統(tǒng)的建模和快速辨識。11-1 CMAC11-1 CMAC網(wǎng)絡(luò)的根本思想與構(gòu)造模型網(wǎng)絡(luò)的根本思想與構(gòu)造模型 人的小腦是經(jīng)過一些神經(jīng)纖維束跟腦干相聯(lián),并進(jìn)一人

4、的小腦是經(jīng)過一些神經(jīng)纖維束跟腦干相聯(lián),并進(jìn)一步同大腦、脊髓發(fā)生聯(lián)絡(luò)。人主要靠小腦管理運(yùn)動功能,步同大腦、脊髓發(fā)生聯(lián)絡(luò)。人主要靠小腦管理運(yùn)動功能,它經(jīng)過小腦皮層的神經(jīng)系統(tǒng)從肌肉、四肢、關(guān)節(jié)、皮膚等它經(jīng)過小腦皮層的神經(jīng)系統(tǒng)從肌肉、四肢、關(guān)節(jié)、皮膚等接受覺得信息,并感受反響信息,然后將這些獲得的信息接受覺得信息,并感受反響信息,然后將這些獲得的信息整合到一特定的區(qū)域整合到一特定的區(qū)域“存儲器記憶起來。當(dāng)需求的存儲器記憶起來。當(dāng)需求的時(shí)候,將這些存儲器儲存的信息取出來,作為驅(qū)動和協(xié)調(diào)時(shí)候,將這些存儲器儲存的信息取出來,作為驅(qū)動和協(xié)調(diào)肌肉運(yùn)動的指令肌肉運(yùn)動的指令控制信號控制信號: :當(dāng)感受信息和反響信息

5、出現(xiàn)當(dāng)感受信息和反響信息出現(xiàn)差別時(shí),便經(jīng)過聯(lián)想加以調(diào)整,從而到達(dá)運(yùn)動控制的目的,差別時(shí),便經(jīng)過聯(lián)想加以調(diào)整,從而到達(dá)運(yùn)動控制的目的,這一過程便是學(xué)習(xí)。這一過程便是學(xué)習(xí)。 11-1 CMAC11-1 CMAC網(wǎng)絡(luò)的根本思想與構(gòu)造模型網(wǎng)絡(luò)的根本思想與構(gòu)造模型 Albus Albus根據(jù)小腦在生物運(yùn)動協(xié)調(diào)方面的重要作用,提出了根據(jù)小腦在生物運(yùn)動協(xié)調(diào)方面的重要作用,提出了CMACCMAC網(wǎng)絡(luò),其構(gòu)造模型如圖網(wǎng)絡(luò),其構(gòu)造模型如圖4.14.1所示:所示:11-1 CMAC11-1 CMAC網(wǎng)絡(luò)的根本思想與構(gòu)造模型網(wǎng)絡(luò)的根本思想與構(gòu)造模型 圖圖 11-1 CMAC構(gòu)造構(gòu)造 CMAC CMAC是前饋網(wǎng),構(gòu)造見

6、圖是前饋網(wǎng),構(gòu)造見圖11-2 11-2 ,有兩個(gè)根本映射,表,有兩個(gè)根本映射,表示輸入輸出之間的非線性關(guān)系。示輸入輸出之間的非線性關(guān)系。yACU輸入空間輸入空間雜散編碼雜散編碼AP(W)輸出輸出輸入向量輸入向量圖圖 11-2 CMAC構(gòu)造構(gòu)造11-2 CMAC 11-2 CMAC 網(wǎng)絡(luò)的任務(wù)原理網(wǎng)絡(luò)的任務(wù)原理 11-2-1 概念映射概念映射UAC 從從輸輸入入空空間間 U 至至概概念念(虛虛擬擬)存存儲儲器器 AC 的的映映射射。 n 維維輸輸入入向向量量:upppnpTuuu ,12量量化化編編碼碼為為up,之之后后映映射射至至 AC 的的c個(gè)個(gè)存存儲儲單單元元,即即被被 up激激活活的的單

7、單元元(c 為為二二進(jìn)進(jìn)非非零零單單元元的的數(shù)數(shù)目目),映映射射后后的的向向量量(0 次次接接收收域域函函數(shù)數(shù)),見見圖圖:RuuuuppppcpTSsss()(),(),()12 sjcjp(), ,u11 2 映映射射原原則則:輸輸入入空空間間鄰鄰近近兩兩點(diǎn)點(diǎn)(一一點(diǎn)點(diǎn)為為一一個(gè)個(gè)輸輸入入 n 維維向向量量),在在 AC 中中有有部部分分重重疊疊單單元元被被激激勵(lì)勵(lì)。距距離離越越近近,重重疊疊越越多多;距距離離遠(yuǎn)遠(yuǎn)的的點(diǎn)點(diǎn),在在 AC 中中不不重重疊疊,稱稱局局域域泛泛化化,c泛泛化化常常數(shù)數(shù)。 (a) 一維 c=4 1 c=4 yACU輸入空間輸入空間雜散編碼AP(W)輸出輸入向量圖2-

8、7-1 CMAC構(gòu)造11-2-2 實(shí)踐映射實(shí)踐映射ACAP 假設(shè)輸入是假設(shè)輸入是n n維,每一維有維,每一維有q q個(gè)量化級,那么個(gè)量化級,那么ACAC占很大容量。但是,占很大容量。但是,訓(xùn)練樣本不能夠遍歷一切輸入空間,在訓(xùn)練樣本不能夠遍歷一切輸入空間,在C C中被鼓勵(lì)的單元是很稀中被鼓勵(lì)的單元是很稀疏的。疏的。雜散存儲:可將雜散存儲:可將ACAC緊縮到較小的緊縮到較小的APAP中。中。有多種方法,有多種方法,“除余數(shù)法是其中較好的一種。除余數(shù)法是其中較好的一種。雜散存儲弱點(diǎn):產(chǎn)生碰撞雜散存儲弱點(diǎn):產(chǎn)生碰撞( (沖突沖突) )即即ACAC中多個(gè)聯(lián)想單元,被映射到中多個(gè)聯(lián)想單元,被映射到APAP

9、的同一單元的同一單元( (見圖見圖) ),這意味著信息的喪失。,這意味著信息的喪失。c臨近兩點(diǎn)輸入重疊單元臨近兩點(diǎn)輸入重疊單元=3,有碰撞有碰撞b臨近兩點(diǎn)輸入重疊單元臨近兩點(diǎn)輸入重疊單元=3,無碰撞無碰撞那么那么CMACCMAC是怎樣實(shí)現(xiàn)上述各種映射的?碰撞的緣由?是怎樣實(shí)現(xiàn)上述各種映射的?碰撞的緣由?下面經(jīng)過一個(gè)詳細(xì)例如來闡明見板書。下面經(jīng)過一個(gè)詳細(xì)例如來闡明見板書。11-3 CMAC11-3 CMAC算法及程序文語描畫算法及程序文語描畫 學(xué)習(xí)算法學(xué)習(xí)算法 CMAC為為有導(dǎo)師的學(xué)習(xí)算法。有導(dǎo)師的學(xué)習(xí)算法。 設(shè)單輸出,給定輸入設(shè)單輸出,給定輸入 /輸出樣本對輸出樣本對 導(dǎo)師信號導(dǎo)師信號 :ud

10、Pp/,Lp, 2 , 1。 由由d規(guī)那么調(diào)整權(quán)值:規(guī)那么調(diào)整權(quán)值:DwtdytsjppjpP( )( )()-huR2 其中其中 RuPjjcpsc221()將將2PR代入得代入得 Dwtdytcetcjppp( )( )( )-hh可見可見:c 個(gè)單元權(quán)值的調(diào)整量是一樣的。個(gè)單元權(quán)值的調(diào)整量是一樣的。 CMAC的學(xué)習(xí)算法與自順應(yīng)線性神經(jīng)元的一樣。但,因有重疊、碰撞,故對學(xué)習(xí)算法及收斂性,需予以分析討論單輸出。 分析算法 Gauss-Seidel迭代法; Jacobi迭代法 分析情況、結(jié)論 1 輸入樣本有重疊,雜散編碼無碰撞 假設(shè)重疊少,解收斂 2 輸入樣本有重疊,雜散編碼有碰撞 因碰撞,收

11、斂速度降低、收斂性態(tài)變壞、也能夠不收斂11-3 CMAC11-3 CMAC算法及程序文語描畫算法及程序文語描畫b臨近兩點(diǎn)臨近兩點(diǎn)輸入重疊單元輸入重疊單元=3,無碰撞無碰撞 a 一 維c=4c=41c臨近兩點(diǎn)輸入重疊單元=3,有碰撞11-3 CMAC11-3 CMAC算法及程序文語描畫算法及程序文語描畫11-4 CMAC11-4 CMAC網(wǎng)絡(luò)的泛化才干網(wǎng)絡(luò)的泛化才干 最早進(jìn)展泛化實(shí)際研討的是Amaril,他以為泛化是將輸入集中樣本點(diǎn)的給定鄰域映射到輸出集中映射點(diǎn)(與樣本點(diǎn)對應(yīng))的某一鄰域。由此可見,泛化才干除了由精度決議外,還取決于映射方式和輸入的量化級。所以多層感知器的泛化才干是極其有限的,實(shí)

12、際也證明了這點(diǎn)。而CMAC神經(jīng)網(wǎng)絡(luò)是在對小腦進(jìn)展神經(jīng)解剖生理學(xué)研討的根底上提出的,它被證明具有局域泛化才干。 CMAC網(wǎng)絡(luò)中,假設(shè)兩個(gè)輸入向量相距較近,那么它們所觸發(fā)的神經(jīng)元有重疊,間隔越近,重疊越多;假設(shè)兩個(gè)輸入向量相距較遠(yuǎn),那么它們觸發(fā)的神經(jīng)元沒有重疊。因此CMAC網(wǎng)絡(luò)具有局域泛化才干,它的泛化才干源自于它的網(wǎng)絡(luò)構(gòu)造本身。 影響CMAC泛化精度的主要要素有:訓(xùn)練精度、泛化常數(shù)和樣本點(diǎn)的選擇,但其結(jié)論還顯得相對簡單。 11-4-1 CMAC11-4-1 CMAC網(wǎng)絡(luò)泛化目的網(wǎng)絡(luò)泛化目的11-4 CMAC11-4 CMAC網(wǎng)絡(luò)的泛化才干網(wǎng)絡(luò)的泛化才干 對于一個(gè)神經(jīng)網(wǎng)絡(luò)來說,泛化才干越強(qiáng),意味著

13、經(jīng)樣本點(diǎn)訓(xùn)練后,對于樣本點(diǎn)附近非樣本點(diǎn)(即測試點(diǎn))的輸入,網(wǎng)絡(luò)輸出與期望輸出間的誤差越小。設(shè)測試點(diǎn)序列 ,對應(yīng)的期望輸出為 。CMAC輸出為 , 那么可用測試點(diǎn)的誤差平方和:itiy)(itf-PiiiytfSSE12)( 作為目的,來衡量網(wǎng)絡(luò)整體泛化性能的優(yōu)越。 越小,那么意味著網(wǎng)絡(luò)泛化才干越強(qiáng)。 SSE11-4 CMAC11-4 CMAC網(wǎng)絡(luò)的泛化才干網(wǎng)絡(luò)的泛化才干11-4-2 CMAC11-4-2 CMAC參數(shù)對網(wǎng)絡(luò)性能的影響參數(shù)對網(wǎng)絡(luò)性能的影響CMAC網(wǎng)絡(luò)的構(gòu)造本身保證了對于訓(xùn)練樣本點(diǎn)鄰域內(nèi)的測試點(diǎn)具有一定的泛化才干。在訓(xùn)練樣本采樣精度不變的條件下,量化精度越高,CMAC網(wǎng)絡(luò)整體泛化性

14、能越好,但隨著量化精度的提高,CMAC學(xué)習(xí)收斂要求的最小泛化常數(shù)值隨之增大。在訓(xùn)練樣本采樣精度和網(wǎng)絡(luò)量化精度堅(jiān)持不變的條件下,在一定范圍內(nèi),泛化常數(shù)的添加可以提高CMAC網(wǎng)絡(luò)整體的泛化性能,但當(dāng)泛化常數(shù)增大到一定程度后,它的變化不再影響網(wǎng)絡(luò)泛化性能。在訓(xùn)練樣本采樣精度和網(wǎng)絡(luò)量化精度堅(jiān)持不變的條件下,CMAC泛化常數(shù)存在一個(gè)相對最優(yōu)值,可保證樣本點(diǎn)和測試點(diǎn)誤差都較小。為保證CMAC收斂,應(yīng)防止采用網(wǎng)絡(luò)量化精度小于訓(xùn)練樣本采樣精度的參數(shù)配置訓(xùn)練網(wǎng)絡(luò)。提高訓(xùn)練樣本采樣精度,可提高CMAC網(wǎng)絡(luò)整體泛化性能,但同時(shí)必需保證,網(wǎng)絡(luò)量化精度要等于或大于樣本采樣精度。11-4 CMAC11-4 CMAC網(wǎng)絡(luò)的

15、泛化才干網(wǎng)絡(luò)的泛化才干11-4-3 11-4-3 樣本訓(xùn)練順序?qū)颖居?xùn)練順序?qū)MACCMAC網(wǎng)絡(luò)性能的影響網(wǎng)絡(luò)性能的影響 下面分四種情況以CMAC網(wǎng)絡(luò)逼近復(fù)雜的“海底深度函數(shù)為例,研討訓(xùn)練樣本學(xué)習(xí)次序的變化對CMAC網(wǎng)絡(luò)性能的影響。 d-) 1()2()2() 1(22227 . 02 . 1500),(yxyxeeyxf 5 , 5-x 5 , 5y- d其中 為規(guī)范差為0.05的隨機(jī)誤差。 將 等間距取64個(gè)點(diǎn),即樣本采樣間隔和網(wǎng)絡(luò)量化間距均約為0.15625, 泛化常數(shù) 取4, 物理存儲單元數(shù)取400(=100 ), 最大訓(xùn)練次數(shù)設(shè)為500。實(shí)驗(yàn)選取了四種不同的訓(xùn)練順序: 5 , 5-

16、x 5 , 5y-CC三種樣本訓(xùn)練順序三種樣本訓(xùn)練順序 格雷碼(英文:Gray Code,又稱作葛萊碼,二進(jìn)制循環(huán)碼)是1880年由法國工程師Jean-Maurice-Emlle Baudot發(fā)明的一種編碼,是一種絕對編碼方式,典型格雷碼是一種具有反射特性和循環(huán)特性的單步自補(bǔ)碼,它的循環(huán)、單步特性消除了隨機(jī)取數(shù)時(shí)出現(xiàn)艱苦誤差的能夠,它的反射、自補(bǔ)特性使得求反非常方便。函數(shù)真實(shí)值如以下圖所示。 11-4 CMAC11-4 CMAC網(wǎng)絡(luò)的泛化才干網(wǎng)絡(luò)的泛化才干11-4-3 11-4-3 樣本訓(xùn)練順序?qū)颖居?xùn)練順序?qū)MACCMAC網(wǎng)絡(luò)性能的影響網(wǎng)絡(luò)性能的影響函數(shù)真實(shí)值圖先后順序仿真圖先后順序仿真圖

17、 串聯(lián)順序仿真圖 格雷碼順序仿真圖 (1.406)SSE (4.156)SSE (1.3526)SSE (7.9623)SSE 樣本訓(xùn)練的順序?qū)π∧X模型神經(jīng)網(wǎng)絡(luò)的訓(xùn)練結(jié)果是有影響的。訓(xùn)練時(shí)樣本間跨度(或坐標(biāo)變化)較大的那些點(diǎn)網(wǎng)絡(luò)學(xué)習(xí)效果較差,因此在樣本輸入訓(xùn)練過程中,應(yīng)盡量讓樣本按照臨近且延續(xù)的順序?qū)W習(xí)。 1 1 CMAC CMAC的逼近原理:用分段超平面,擬合非線性超曲面。的逼近原理:用分段超平面,擬合非線性超曲面。2 2 因是部分網(wǎng)絡(luò),每次學(xué)習(xí)調(diào)整的權(quán)數(shù)為因是部分網(wǎng)絡(luò),每次學(xué)習(xí)調(diào)整的權(quán)數(shù)為c c個(gè),故學(xué)習(xí)速個(gè),故學(xué)習(xí)速 度快,不存在部分極小。度快,不存在部分極小。3 3 泛化才干與泛化才干

18、與c c有關(guān),有關(guān),c c增大,泛化才干加強(qiáng)。相近的輸入,增大,泛化才干加強(qiáng)。相近的輸入,有相近的輸出有相近的輸出 在無碰撞情況下。在無碰撞情況下。4 4 決議網(wǎng)絡(luò)性能的主要參數(shù):泛化常數(shù)決議網(wǎng)絡(luò)性能的主要參數(shù):泛化常數(shù)c c;相鄰輸入間的;相鄰輸入間的重疊程度;輸入的量化級。影響到逼近精度、泛化才干重疊程度;輸入的量化級。影響到逼近精度、泛化才干和學(xué)習(xí)速度。和學(xué)習(xí)速度。5 5 為提高量化分辨率和泛化才干,需添加存儲容量。它隨為提高量化分辨率和泛化才干,需添加存儲容量。它隨輸入維數(shù)的添加而添加。輸入維數(shù)的添加而添加。11-5 CMAC11-5 CMAC網(wǎng)絡(luò)的幾個(gè)問題網(wǎng)絡(luò)的幾個(gè)問題 圖 2-7-

19、3 1 次接收域函數(shù)例 (b)鄰近兩點(diǎn)輸入重疊單元=3 c=4 (a)一維 c=4 6 6 高階高階CMACCMAC:為提高逼近精度,也可提高接納域函數(shù):為提高逼近精度,也可提高接納域函數(shù)的階次,假設(shè)以下圖的階次,假設(shè)以下圖2 2為為0 0次接納域函數(shù),高階次接納域函數(shù),高階CMACCMAC用用1 1次次接納域函數(shù),見以下圖。接納域函數(shù),見以下圖。11-5 CMAC11-5 CMAC網(wǎng)絡(luò)的幾個(gè)問題網(wǎng)絡(luò)的幾個(gè)問題(1)離散化離散化)(uf)36012sin() 1()(uufufdd, 161:20:11u樣本長度樣本長度9(2)采用一維輸入、一維輸出結(jié)構(gòu)的采用一維輸入、一維輸出結(jié)構(gòu)的 CMAC

20、 逼近函數(shù);逼近函數(shù);(3)采用采用 c=6,鄰近兩點(diǎn)輸入重疊單元,鄰近兩點(diǎn)輸入重疊單元=5;(4)無碰撞,訓(xùn)練無碰撞,訓(xùn)練 10 次,結(jié)果見圖;次,結(jié)果見圖;(5)有碰撞,訓(xùn)練有碰撞,訓(xùn)練 10 次,結(jié)果見圖。次,結(jié)果見圖??梢?,與無碰撞比較,收斂性態(tài)變壞,逼近樣本的程度較差??梢?,與無碰撞比較,收斂性態(tài)變壞,逼近樣本的程度較差。例例 11-111-1 用用 CMAC 逼近函數(shù)逼近函數(shù))360/2sin()(uufd11-6 11-6 仿真例如仿真例如CMAC 逼近sin函數(shù)例例11-1 演示Sin函數(shù) sin 函數(shù): uuf2sin)( 離散化)(uf: 161:20:1,360/2sin

21、)(uuufd 輸入、輸出樣本雜散編碼無沖撞雜散編碼無沖撞雜散編碼無沖撞:c=6 b=5 學(xué)習(xí)0次雜散編碼無沖撞:c=6 b=5 學(xué)習(xí)1次雜散編碼無沖撞:c=6 b=5 學(xué)習(xí)2次雜散編碼無沖撞:c=6 b=5 學(xué)習(xí)3次雜散編碼無沖撞:c=6 b=5 學(xué)習(xí)4次雜散編碼無沖撞:c=6 b=5 學(xué)習(xí)5次雜散編碼無沖撞:c=6 b=5 學(xué)習(xí)6次雜散編碼無沖撞:c=6 b=5 學(xué)習(xí)7次雜散編碼無沖撞:c=6 b=5 學(xué)習(xí)8次雜散編碼無沖撞:c=6 b=5 學(xué)習(xí)9次雜散編碼無沖撞:c=6 b=5 學(xué)習(xí)10次雜散編碼無沖撞:c=6 b=5 學(xué)習(xí)10次雜散編碼有沖撞雜散編碼有沖撞雜散編碼有沖撞:c=6 b=5

22、 學(xué)習(xí)0次雜散編碼有沖撞:c=6 b=5 學(xué)習(xí)1次雜散編碼有沖撞:c=6 b=5 學(xué)習(xí)2次雜散編碼有沖撞:c=6 b=5 學(xué)習(xí)3次雜散編碼有沖撞:c=6 b=5 學(xué)習(xí)4次雜散編碼有沖撞:c=6 b=5 學(xué)習(xí)5次雜散編碼有沖撞:c=6 b=5 學(xué)習(xí)6次雜散編碼有沖撞:c=6 b=5 學(xué)習(xí)7次雜散編碼有沖撞:c=6 b=5 學(xué)習(xí)8次雜散編碼有沖撞:c=6 b=5 學(xué)習(xí)9次雜散編碼有沖撞:c=6 b=5 學(xué)習(xí)10次雜散編碼有沖撞:c=6 b=5 學(xué)習(xí)10次雜散編碼有沖撞:c=6 b=5 學(xué)習(xí)10次雜散編碼有、無沖撞無沖撞 輸入輸出樣本 有沖撞無沖撞 學(xué)習(xí)0 次 有沖撞無沖撞 學(xué)習(xí)1 次 有沖撞無沖撞

23、 學(xué)習(xí)2 次 有沖撞無沖撞 學(xué)習(xí)3 次 有沖撞無沖撞 學(xué)習(xí)4 次 有沖撞無沖撞 學(xué)習(xí)5 次 有沖撞無沖撞 學(xué)習(xí)6 次 有沖撞無沖撞 學(xué)習(xí)7 次 有沖撞無沖撞 學(xué)習(xí)8 次 有沖撞無沖撞 學(xué)習(xí)9 次 有沖撞無沖撞 學(xué)習(xí)10 次 有沖撞無沖撞 學(xué)習(xí)10 次 有沖撞024680246800.20.40.60.81例例11-2 用用CMAC逼近非線性函數(shù)。逼近非線性函數(shù)。(1)離離散散化化),(yxf,見見圖圖(a):82, 10,)3022sin()3012sin()2, 1()(uuuuuuffddua024680246800.511.5(2)用用 2 維輸入維輸入)2, 1(uuu,一維輸出結(jié)構(gòu)的

24、,一維輸出結(jié)構(gòu)的 CMAC 逼近非線性函數(shù)逼近非線性函數(shù),輸入輸出樣本集:輸入輸出樣本集:811),(/pfpdppuu;(3)用用 c=6,鄰近兩點(diǎn)輸入重疊單元,鄰近兩點(diǎn)輸入重疊單元=5;(4)無碰撞,訓(xùn)練無碰撞,訓(xùn)練 10 次,結(jié)果見圖次,結(jié)果見圖(b),圖),圖(d)目標(biāo)函數(shù))目標(biāo)函數(shù) J;(5)有碰撞,訓(xùn)練有碰撞,訓(xùn)練 10 次,結(jié)果見圖次,結(jié)果見圖(c);圖);圖(e)目標(biāo)函數(shù))目標(biāo)函數(shù) J1??梢娍梢?,J1J,與無碰撞比較,收斂性態(tài)變壞,逼近樣本的程度較差。,與無碰撞比較,收斂性態(tài)變壞,逼近樣本的程度較差。024680246800.511.5051000.511.522.53J051000.511.522.533.5J1b c d

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論