




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)
文檔簡介
1、關(guān)于前饋網(wǎng)絡(luò)綜述關(guān)于前饋網(wǎng)絡(luò)綜述 問題,多數(shù)被冠以“加速技術(shù)”,引入了諸如遞推最小二乘法,共軛梯度法和擴展Kalman濾波等技術(shù);與此同時,不少學(xué)者將MLP與各自的背景相結(jié)合,對前饋網(wǎng)絡(luò)的結(jié)構(gòu)進行了改造,提出了諸如子波網(wǎng)絡(luò),模糊網(wǎng)絡(luò)和徑向基函數(shù)等網(wǎng)絡(luò)。 與圍繞MLP的研究相對照的是關(guān)于CMAC的研究。CMAC能進行快速學(xué)習(xí)并具有某種程度的插值和逼近能力,但是,在1975年由Albus提出后的很長一段時間內(nèi)被忽視了,直到近年來才逐步得到重視,其中,最具有代表性的工作是由Miller等從1987年開始的關(guān)于機器人控制的研究,其他研究如過程控制,及學(xué)習(xí)收斂性的分析。 訓(xùn)練算法,網(wǎng)絡(luò)結(jié)構(gòu),和輸入信息的
2、表達是影響前饋網(wǎng)絡(luò)學(xué)習(xí)性能的三個主要因數(shù),輸入信號的表達 決定著網(wǎng)絡(luò)和訓(xùn)練樣本集的大小,通常,在保證樣本的特征性前提下應(yīng)使樣本數(shù)盡量減少,以使訓(xùn)練更容易進行。一旦樣本集確定,訓(xùn)練算法和網(wǎng)絡(luò)結(jié)構(gòu)就成為決定網(wǎng)絡(luò)性能的內(nèi)在因素。下面將從這兩個方面對前饋網(wǎng)絡(luò)進行闡述和分析。 1 訓(xùn)練算法 MLP的訓(xùn)練算法可分為兩種,即批處理模式(batch-mode)和順序處理模式(sequential-mode)。在批處理模式中,權(quán)值的修正只在對 訓(xùn)練樣本集中的所有樣本都處理過才進行,而順序處理是對樣本進行逐個學(xué)習(xí),所以,有時也稱為“在線學(xué)習(xí)”模式。無論批處理還是順序處理,都要用到誤差性能指標(E)的梯度,其中,(
3、E)是指網(wǎng)絡(luò)實際響應(yīng)與期望輸出之間的差異,通常用對各個樣本的誤差的平方和來表示。 1.1 批處理算法 優(yōu)化算法的一種常用分類方法是根據(jù)“階”來確定,即 的導(dǎo)數(shù)的階次。第一類算法只用到 本身而毋需導(dǎo)數(shù)信息,如“多面體 (polytope)”算法,其主要問題是如何使多面體不退變;第二類也稱一階算法,用到 的一階導(dǎo)數(shù),典型例子是“最速下降法”和共軛梯度法.二者都近似線性收斂,但后者的收斂速度更快些,共軛梯度法的一個主要優(yōu)點是不需要諸如學(xué)習(xí)因子等訓(xùn)練參數(shù);第三類是以牛頓法為代表的二階算法,由于需要計算復(fù)雜的Hessian矩陣,因而應(yīng)受到限制,于是有學(xué)者提出用修正的Cholesky分解法來構(gòu)造不確定的H
4、essian矩陣以簡化計算。 由于求解二階導(dǎo)數(shù)通常比較復(fù)雜且比較費時,于是就有了一些簡化算法,如正割法 (或稱準牛頓法)和一步正割法(OSS),其中,OSS法可以說是正割法與共軛梯度法的一個折中。另外,為改善算法的全局收斂性,“跳蛙”(leap-frog) 算法提供了一種可避開局部最優(yōu)的基于梯度法的優(yōu)化算法。 1.2 順序處理算法 在這種模式中,網(wǎng)絡(luò)權(quán)值的修正是隨著樣本的逐個出現(xiàn)而逐步進行的,因而,各樣本或多或少會有些誤導(dǎo)作用,所以,在很大程度上可以說是隨機梯度下降法的變形。順序處理法的關(guān)鍵問題是,每一次權(quán)值的修正應(yīng)該多大才能使 下降的“步長”最為合適?如果“步長”不夠小,在總體上反而會上升,
5、但若太小,收斂時間又會很長。 為解決這個問題,Barnard認為有以下三種途徑:訓(xùn)練的不同時刻采用不同的步長,并自適應(yīng)調(diào)整;對不同的網(wǎng)絡(luò)參數(shù) (如權(quán)值)采取不同的修正步長;1) 引入“動量項(momentum)”。 實際情況是,這幾種方法常?;旌弦黄鹗褂茫?,大多數(shù)順序處理方法都能很方便地用于對樣本集的批處理。另外一些有效的算法如采用遞推最小二乘和擴展Kalman濾波的訓(xùn)練算法。 2 網(wǎng)絡(luò)結(jié)構(gòu) 自MLP和CMAC問世以來,許多學(xué)者從各個不同的領(lǐng)域出發(fā),提出了一系列的網(wǎng)絡(luò)模型,比較典型的有,高階網(wǎng)(HONN),函數(shù)連接網(wǎng)( FL),隨機向量函數(shù)連接網(wǎng)(RVFL),冪級數(shù)網(wǎng)(POWER),徑向基
6、函數(shù)網(wǎng)( RBF),模糊神經(jīng)網(wǎng)絡(luò)(FNN),子波網(wǎng)(WLN),和部分連接的多層感知器(PCMLP)等,上述各種網(wǎng)絡(luò)的發(fā)展框架可用圖(1)來說明。 圖圖1 前饋網(wǎng)絡(luò)的發(fā)展框架前饋網(wǎng)絡(luò)的發(fā)展框架感知器CMACMLPFLRBFFNNWLNPOWERPCMLPHONNRVFL 2.1 MLP,CMAC與PCMLP nMLP和CMAC都源于感知器(perceptron).nMLP和CMAC在結(jié)構(gòu)和算法上都有較大差異。 結(jié)構(gòu)上: 前饋網(wǎng)絡(luò)的兩種不同的設(shè)計思想, 全局性設(shè)計和局部性設(shè)計,nMLP全局性網(wǎng)絡(luò)的代表,輸出受所有權(quán)值的影響,因而學(xué)習(xí)緩慢而較適合于對固定樣本集的學(xué)習(xí);nCMAC作為局部性網(wǎng)絡(luò)的代表,
7、輸出在任何時刻只與部分權(quán)值(即一個子網(wǎng)絡(luò))相關(guān),所以學(xué)習(xí)較快而更適合于實時控制。n當樣本在局部區(qū)域存在較大差異時,MLP的訓(xùn)練通常變得困難,而CMAC則能較好地處理這種學(xué)習(xí)的局部性問題。n在算法上MLP實現(xiàn)從輸入到輸出的“一到一”的映射,而CMAC的每個子網(wǎng)絡(luò)只能實現(xiàn)從每個輸入子空間到輸出的“多到一”的映射,這是一種類似于A/D轉(zhuǎn)換的映射關(guān)系,因而存在著“分辨率(resolution)”的問題。 nPCMLP (Partly Connected Multi-Layer Perceptron) 是結(jié)合MLP和CMAC的各自特點而提出的n它由多個既相互關(guān)聯(lián)又相對獨立的子網(wǎng)絡(luò)構(gòu)成。PCMLP采用類似
8、于CMAC確定存儲單元地址的方法來確定各子網(wǎng)絡(luò)的隱單元在整個隱含層中的位置,而各子網(wǎng)均采用MLP或其變形。這樣,從整體上講,PCMLP是一種局部性網(wǎng)絡(luò),而對各個輸入子空間又實現(xiàn)“一到一”的映射,因而在對固定樣本集和對復(fù)雜系統(tǒng)的學(xué)習(xí)控制中都表現(xiàn)出良好的學(xué)習(xí)性能。 2.2 HONN與FL,RVFL,和POWER網(wǎng) 常規(guī)的前饋網(wǎng)絡(luò)(如MLP)的內(nèi)部表達形式均采用一階節(jié)點并使用諸如反向傳播算法的學(xué)習(xí)規(guī)則,其第I個節(jié)點的輸出可由下式表達:其中,x=X(j)是輸入向量,W(I,j)代表權(quán)值,N是輸入變量個數(shù),而 則為sigmoid函數(shù)。HONN采用如下式表示的高階節(jié)點,)(),()(jXjiwsxnjiy
9、)1( S jjjikXkjijXjiiSxwwwy)(),()(),()()(210)2( FL,RVFL,和POWER網(wǎng)都源于高階網(wǎng)絡(luò),但其結(jié)構(gòu)都與常規(guī)的MLP有所不同。在圖2所示的網(wǎng)絡(luò)中,原先的隱含層都下移作為增強的輸入節(jié)點,并且在原來的輸入節(jié)點和輸出節(jié)點之間增加了直接聯(lián)結(jié)。 FL最初是為了學(xué)習(xí)時間順序而設(shè)計的。圖2中,Xk代表第K時刻的狀態(tài)。網(wǎng)絡(luò)輸出為,RVFL則是在FL的基礎(chǔ)上,引入隨機向量理論而構(gòu)造的,網(wǎng)絡(luò)的輸出為, 其中, 為第個個輸出節(jié)點相關(guān)的極向量, 為互相增強節(jié)點的閥值, 為sigmoid函數(shù),與常規(guī)網(wǎng)絡(luò)的不同之處在于,增強節(jié)點的參數(shù)向量 不是通過學(xué)習(xí)而是隨機產(chǎn)生的。 mj
10、imjNjjiijkXjkXjkXy1,111)3(iNjJjjjNjjiiibaXyxg,11)()4(ji bj g aj 圖2 FL、RVFL和POWER網(wǎng)的原理圖xxxx10201kxxxkx22011xx201xxxNmkx22011 ba1121g1xkxkxxxbaxxxgkxkx220221 2 1RVFLPOWERFL2221baxxJJxgyii 1i2jiji POWER網(wǎng)的基本思想是,通過一個冪級數(shù)展開式來表示任意一個函數(shù),輸入節(jié)點的個數(shù)就等于該展開式的項數(shù)所以,對于一個具有兩個輸入變量的系統(tǒng),若用二階冪級數(shù)表示,那么其輸出為, 由于都用到高階節(jié)點,并且采用相同的網(wǎng)絡(luò)結(jié)
11、構(gòu),所以,F(xiàn)L,RVFL,和POWER網(wǎng)表現(xiàn)出很大的相似性。ibjjjjijjjijjkklliklixxxxxxxxwxxy,2202120, 3212200122,1,2,1 5 2.3 RBF,F(xiàn)NN和小波網(wǎng) 這三種網(wǎng)絡(luò)是從不同的背景提出的。小波網(wǎng)絡(luò)(WLN)基于小波(wavelet)變換理論,并采用BP類的學(xué)習(xí)方法;FNN基于模糊集合理論,是模糊規(guī)則的網(wǎng)絡(luò)化表現(xiàn);關(guān)于RBF的出處,有一些不同的看法,poggio等認為RBF源于經(jīng)典逼近理論中的調(diào)整(regularization)算法,而現(xiàn)在通常說的Gaussian型的RBF只是一種特例,Amari則認為RBF和MLP同屬隨機梯度下降法。
12、 盡管源于不同的理論,產(chǎn)生于不同的年代,但是,無論在結(jié)構(gòu)和算法上,它們都表現(xiàn)出極大的相似性。 一維情況。當只有一個輸入變量時,這三種網(wǎng)絡(luò)都可以用圖(3)來表示(圖中只保留x1),它們的前向計算法如下: RBF: FNN:WLN:其中,對于RBF和FNN,取為零。顯然,對于一維情況,三者的差別僅在于激發(fā)函數(shù)的略為不同,RBF和FNN都采用“Gaussian型函數(shù),且在FNN的一個擴展形式ANFIS中,激發(fā)函數(shù)同樣可取為(7)的形式,而WLN則采用Gaussian的導(dǎo)數(shù)”形式。jjjxgwy)(1 0,exp121cbaxcxgjjjjj baxxgjjj121exp baxbaxxgjjjjj1
13、21121exp 6 7 8 9 圖 (3) RBF和WLN原理圖+gix1x2wj 二維情況。當有兩個輸入變量時,RBF和WLN仍采用圖(3)的網(wǎng)絡(luò)結(jié)構(gòu),而FNN的結(jié)構(gòu)就不同了。如圖(4)所示,如果變量x1和x2分別有N1和N2個模糊子集,那么,總的隱節(jié)點數(shù),也即模糊規(guī)則總數(shù)N就是, 如果x1的第i個子集與x2的第k個子集構(gòu)成第j條規(guī)則,那么,其中, 和 仍采用式(8)的形式,為模糊算子,可以為“與”,“或”,或者“算術(shù)乘”等。RBF和WLN的隱節(jié)點個數(shù)就不存在式(10)所示的關(guān)系,其第j個隱節(jié)點的輸出表示為,其中, 仍為式(7)和式(9)的形式,“”為算術(shù)乘。NNN2110 xgxgxxg
14、jkjij2121, 11 gji gjk xgxgxxgjjj2121,12 gj 圖4 FNN原理圖(二維)gjkgjigi+yx1x2 3 討論 從訓(xùn)練算法和網(wǎng)絡(luò)結(jié)構(gòu)兩方面對前饋網(wǎng)絡(luò)進行了介紹和分析,由于資料和篇幅的局限,不可能涉及全部,而只能就其最具代表性的進行討論。另外,只適合于模糊識別的網(wǎng)絡(luò)也不在討論范圍之內(nèi)。 目前,前饋網(wǎng)絡(luò)研究所需考慮的問題主要有以下幾個方面:1) 現(xiàn)行的各種優(yōu)化算法缺乏生物學(xué)依據(jù)。目前普遍認為,生物學(xué)上的神經(jīng)網(wǎng)絡(luò)并不實行“反向傳播”,并且,對學(xué)習(xí)中是否有一個優(yōu)化過程也尚不清楚。這就引出這樣一個問題,既人工神經(jīng)網(wǎng)絡(luò)是否要與自然神經(jīng)網(wǎng)絡(luò)完全一致?如果可以不一致,那么就給研究者更多的自由度去探尋各種優(yōu)化算法;訓(xùn)練過度(overtraining)問題。這是指,網(wǎng)絡(luò)參數(shù)和訓(xùn)練次數(shù)的增加有時反而使訓(xùn)練結(jié)果變差,這就需要從算法的優(yōu)化和訓(xùn)練過程的監(jiān)控等方面去解決;訓(xùn)練算法與網(wǎng)絡(luò)
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2025年甘肅省稅務(wù)系統(tǒng)遴選面試真題帶詳解含答案
- 海洋新材料研發(fā)與產(chǎn)業(yè)化
- 海洋無人裝備應(yīng)用前景
- 老爸的課件圖片
- 老年防摔傷護理課件
- 老年翻身護理課件
- 海洋經(jīng)濟人才實踐鍛煉
- 老年中醫(yī)養(yǎng)生課件
- 婚姻穩(wěn)定期財產(chǎn)保全及共同子女撫養(yǎng)協(xié)議范本
- 菜鳥驛站品牌便利店全面轉(zhuǎn)讓及代理合同
- 新校區(qū)搬遷活動方案
- 以硅的計算為例,比較S-W,Tersoff,MEAM勢的差異課件
- 折讓證明模板
- 培智學(xué)生XXX個別化教育手冊
- 初中化學(xué)講座課件
- 養(yǎng)老院管理運營實施方案
- 勵磁系統(tǒng)試驗方案
- AWG,SWG,BWG線規(guī)規(guī)格對照表
- 廣州-樁機行走路線圖(共1頁)
- (整理)小學(xué)數(shù)獨游戲校本課程教材.
- KTV員工各種相關(guān)表樣(包括入職登記表)(共17頁)
評論
0/150
提交評論