神經(jīng)網(wǎng)絡(luò)方法簡(jiǎn)介_第1頁(yè)
神經(jīng)網(wǎng)絡(luò)方法簡(jiǎn)介_第2頁(yè)
神經(jīng)網(wǎng)絡(luò)方法簡(jiǎn)介_第3頁(yè)
神經(jīng)網(wǎng)絡(luò)方法簡(jiǎn)介_第4頁(yè)
神經(jīng)網(wǎng)絡(luò)方法簡(jiǎn)介_第5頁(yè)
已閱讀5頁(yè),還剩31頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

神經(jīng)網(wǎng)絡(luò)方法簡(jiǎn)介兩類問題識(shí)別問題(分類問題)模式識(shí)別是指根據(jù)研究對(duì)象的特征或?qū)傩?,利用以?jì)算機(jī)為中心的機(jī)器系統(tǒng),運(yùn)用一定的分析算法認(rèn)定它的類別。兩類問題回歸問題(預(yù)測(cè)問題)根據(jù)已知數(shù)據(jù)集{Xi,Yi},其中Xi∈Rn,Y∈R,找出數(shù)據(jù)間的內(nèi)在規(guī)律,即函數(shù)關(guān)系Y=f(X)。人工神經(jīng)網(wǎng)絡(luò)人工神經(jīng)網(wǎng)絡(luò)是集腦科學(xué)、神經(jīng)心理學(xué)和信息科學(xué)等多學(xué)科的交叉研究領(lǐng)域,是近年來高科技領(lǐng)域的一個(gè)研究熱點(diǎn)。它的研究目標(biāo)是通過研究人腦的組成機(jī)理和思維方式,探索人類智能的奧秘,進(jìn)而通過模擬人腦的結(jié)構(gòu)和工作模式,使機(jī)器具有類似人類的智能。人工神經(jīng)網(wǎng)絡(luò)以其具有自學(xué)習(xí)、自組織、較好的容錯(cuò)性和優(yōu)良的非線性逼近能力,受到眾多領(lǐng)域?qū)W者的關(guān)注。在實(shí)際應(yīng)用中,80%~90%的人工神經(jīng)網(wǎng)絡(luò)模型是采用誤差反傳算法或其變化形式的網(wǎng)絡(luò)模型(簡(jiǎn)稱BP網(wǎng)絡(luò)),目前主要應(yīng)用于函數(shù)逼近、模式識(shí)別、分類和數(shù)據(jù)壓縮或數(shù)據(jù)挖掘。人工神經(jīng)元模型與人工神經(jīng)網(wǎng)絡(luò)模型人工神經(jīng)元是一個(gè)多輸入、單輸出的非線性元件,如圖1所示。其輸入、輸出關(guān)系可描述為

式中,是從其它神經(jīng)元傳來的輸入信號(hào);是閾值;表示從神經(jīng)元到神經(jīng)元的連接權(quán)值;為傳遞函數(shù)。人工神經(jīng)元模型與人工神經(jīng)網(wǎng)絡(luò)模型人工神經(jīng)網(wǎng)絡(luò)是由大量的神經(jīng)元互連而成的網(wǎng)絡(luò),按其拓?fù)浣Y(jié)構(gòu)來分,可以分成兩大類:層次網(wǎng)絡(luò)模型和互連網(wǎng)絡(luò)模型。多層前向網(wǎng)絡(luò)一個(gè)M層的多層前向網(wǎng)絡(luò)可描述為:①網(wǎng)絡(luò)包含一個(gè)輸入層(定義為第0層)和M-1個(gè)隱層,最后一個(gè)隱層稱為輸出層;②第l層包含個(gè)神經(jīng)元和一個(gè)閾值單元(定義為每層的第0單元),輸出層不含閾值單元;

多層前向網(wǎng)絡(luò)③第層第個(gè)單元到第l層的第j個(gè)單元的權(quán)值表為;④第層(>0)第個(gè)(>0)神經(jīng)元的輸入定義為,輸出定義為,其中為隱單元激勵(lì)函數(shù),常采用Sigmoid函數(shù),即。輸入單元一般采用線性激勵(lì)函數(shù),閾值單元的輸出始終為1;

多層前向網(wǎng)絡(luò)⑤

目標(biāo)函數(shù)通常采用:

其中P為樣本數(shù),為第p個(gè)樣本的第j個(gè)輸出分量。

BP算法BP算法是前向神經(jīng)網(wǎng)絡(luò)經(jīng)典的有監(jiān)督學(xué)習(xí)算法,它的提出,對(duì)前向神經(jīng)網(wǎng)絡(luò)的發(fā)展起過歷史性的推動(dòng)作用。對(duì)于上述的M層的人工神經(jīng)網(wǎng)絡(luò),BP算法可由下列迭代式描述,具體推導(dǎo)可參見神經(jīng)網(wǎng)絡(luò)的相關(guān)書目。

其中,為學(xué)習(xí)率。

雖然神經(jīng)網(wǎng)絡(luò)的類型很多,建立神經(jīng)網(wǎng)絡(luò)模型時(shí),根據(jù)研究對(duì)象的特點(diǎn),可以考慮不同的神經(jīng)網(wǎng)絡(luò)模型。前饋型BP網(wǎng)絡(luò)即誤差逆?zhèn)鞑ド窠?jīng)網(wǎng)絡(luò)是最常用、最流行的神經(jīng)網(wǎng)絡(luò)。BP網(wǎng)絡(luò)的輸入和輸出關(guān)系可以看成是一種映射關(guān)系,即每一組輸入對(duì)應(yīng)一組輸出。由于網(wǎng)絡(luò)中神經(jīng)元作用函數(shù)的非線性,網(wǎng)絡(luò)實(shí)現(xiàn)是復(fù)雜的非線性映射。關(guān)于這類網(wǎng)絡(luò)對(duì)非線性的逼近能力,Hornikl等分別利用不同的方法證明了如下一個(gè)事實(shí):僅含有一個(gè)隱層的前向網(wǎng)絡(luò)能以任意精度逼近定義在Rn的一個(gè)緊集上的任意非線性函數(shù)。誤差反向算法是最著名的多層前向網(wǎng)絡(luò)訓(xùn)練算法,盡管存在收斂速度慢、局部極值等缺點(diǎn),但可通過各種改進(jìn)措施來提高它的收斂速度、克服局部極值現(xiàn)象,而且具有簡(jiǎn)單、易行、計(jì)算量小、并行性強(qiáng)等特點(diǎn),目前仍是多層前向網(wǎng)絡(luò)的首選算法?;綛P網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)b1bia1c1cqcjahbpan………………Wp1WiqWpjW1qW1jWijV11W11WpqWi1Vh1VhiV1iVn1VniV1pVhpVnp輸出層LC隱含層LB輸入層LAWVBP網(wǎng)絡(luò)建模特點(diǎn):并行分布處理方式:在神經(jīng)網(wǎng)絡(luò)中信息是分布儲(chǔ)存和并行處理的,這使它具有很強(qiáng)的容錯(cuò)性和很快的處理速度。非線性映射能力:神經(jīng)網(wǎng)絡(luò)能以任意精度逼近任何非線性連續(xù)函數(shù)。在建模過程中的許多問題正是具有高度的非線性。自學(xué)習(xí)和自適應(yīng)能力:神經(jīng)網(wǎng)絡(luò)在訓(xùn)練時(shí),能從輸入、輸出的數(shù)據(jù)中提取出規(guī)律性的知識(shí),記憶于網(wǎng)絡(luò)的權(quán)值中,并具有泛化能力,即將這組權(quán)值應(yīng)用于一般情形的能力。神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)也可以在線進(jìn)行。數(shù)據(jù)融合的能力:神經(jīng)網(wǎng)絡(luò)可以同時(shí)處理定量信息和定性信息,因此它可以利用傳統(tǒng)的工程技術(shù)(數(shù)值運(yùn)算)和人工智能技術(shù)(符號(hào)處理)。多變量系統(tǒng):神經(jīng)網(wǎng)絡(luò)的輸入和輸出變量的數(shù)目是任意的,對(duì)單變量系統(tǒng)與多變量系統(tǒng)提供了一種通用的描述方式。BP網(wǎng)絡(luò)建模注意的一些問題1.樣本數(shù)據(jù)的收集和整理分組

采用BP神經(jīng)網(wǎng)絡(luò)方法建模的首要和前提條件是有足夠多典型性好和精度高的樣本。而且,為監(jiān)控訓(xùn)練(學(xué)習(xí))過程使之不發(fā)生“過擬合”和評(píng)價(jià)建立的網(wǎng)絡(luò)模型的性能和泛化能力,必須將收集到的數(shù)據(jù)隨機(jī)分成訓(xùn)練樣本、檢驗(yàn)樣本(10%以上)和測(cè)試樣本(10%以上)3部分。此外,數(shù)據(jù)分組時(shí)還應(yīng)盡可能考慮樣本模式間的平衡。2.輸入/輸出變量的確定及其數(shù)據(jù)的預(yù)處理

一般地,BP網(wǎng)絡(luò)的輸入變量即為待分析系統(tǒng)的內(nèi)生變量(影響因子或自變量)數(shù),一般根據(jù)專業(yè)知識(shí)確定。若輸入變量較多,一般可通過主成份分析方法壓減輸入變量,也可根據(jù)剔除某一變量引起的系統(tǒng)誤差與原系統(tǒng)誤差的比值的大小來壓減輸入變量。輸出變量即為系統(tǒng)待分析的外生變量(系統(tǒng)性能指標(biāo)或因變量),可以是一個(gè),也可以是多個(gè)。一般將一個(gè)具有多個(gè)輸出的網(wǎng)絡(luò)模型轉(zhuǎn)化為多個(gè)具有一個(gè)輸出的網(wǎng)絡(luò)模型效果會(huì)更好,訓(xùn)練也更方便。

由于BP神經(jīng)網(wǎng)絡(luò)的隱層一般采用Sigmoid轉(zhuǎn)換函數(shù),為提高訓(xùn)練速度和靈敏性以及有效避開Sigmoid函數(shù)的飽和區(qū),一般要求輸入數(shù)據(jù)的值在0~1之間。因此,要對(duì)輸入數(shù)據(jù)進(jìn)行預(yù)處理。一般要求對(duì)不同變量分別進(jìn)行預(yù)處理,也可以對(duì)類似性質(zhì)的變量進(jìn)行統(tǒng)一的預(yù)處理。如果輸出層節(jié)點(diǎn)也采用Sigmoid轉(zhuǎn)換函數(shù),輸出變量也必須作相應(yīng)的預(yù)處理,否則,輸出變量也可以不做預(yù)處理。

預(yù)處理的方法有多種多樣,各文獻(xiàn)采用的公式也不盡相同。但必須注意的是,預(yù)處理的數(shù)據(jù)訓(xùn)練完成后,網(wǎng)絡(luò)輸出的結(jié)果要進(jìn)行反變換才能得到實(shí)際值。再者,為保證建立的模型具有一定的外推能力,最好使數(shù)據(jù)預(yù)處理后的值在0.2~0.8之間。3.神經(jīng)網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)的確定3.1隱層數(shù)

一般認(rèn)為,增加隱層數(shù)可以降低網(wǎng)絡(luò)誤差(也有文獻(xiàn)認(rèn)為不一定能有效降低),提高精度,但也使網(wǎng)絡(luò)復(fù)雜化,從而增加了網(wǎng)絡(luò)的訓(xùn)練時(shí)間和出現(xiàn)“過擬合”的傾向。Hornik等早已證明:若輸入層和輸出層采用線性轉(zhuǎn)換函數(shù),隱層采用Sigmoid轉(zhuǎn)換函數(shù),則含一個(gè)隱層的MLP網(wǎng)絡(luò)能夠以任意精度逼近任何有理函數(shù)。顯然,這是一個(gè)存在性結(jié)論。在設(shè)計(jì)BP網(wǎng)絡(luò)時(shí)可參考這一點(diǎn),應(yīng)優(yōu)先考慮3層BP網(wǎng)絡(luò)(即有1個(gè)隱層)。一般地,靠增加隱層節(jié)點(diǎn)數(shù)來獲得較低的誤差,其訓(xùn)練效果要比增加隱層數(shù)更容易實(shí)現(xiàn)。對(duì)于沒有隱層的神經(jīng)網(wǎng)絡(luò)模型,實(shí)際上就是一個(gè)線性或非線性(取決于輸出層采用線性或非線性轉(zhuǎn)換函數(shù)型式)回歸模型。因此,一般認(rèn)為,應(yīng)將不含隱層的網(wǎng)絡(luò)模型歸入回歸分析中,技術(shù)已很成熟,沒有必要在神經(jīng)網(wǎng)絡(luò)理論中再討論之。3.2隱層節(jié)點(diǎn)數(shù)

在BP網(wǎng)絡(luò)中,隱層節(jié)點(diǎn)數(shù)的選擇非常重要,它不僅對(duì)建立的神經(jīng)網(wǎng)絡(luò)模型的性能影響很大,而且是訓(xùn)練時(shí)出現(xiàn)“過擬合”的直接原因,但是目前理論上還沒有一種科學(xué)的和普遍的確定方法。目前多數(shù)文獻(xiàn)中提出的確定隱層節(jié)點(diǎn)數(shù)的計(jì)算公式都是針對(duì)訓(xùn)練樣本任意多的情況,而且多數(shù)是針對(duì)最不利的情況,一般工程實(shí)踐中很難滿足,不宜采用。事實(shí)上,各種計(jì)算公式得到的隱層節(jié)點(diǎn)數(shù)有時(shí)相差幾倍甚至上百倍。為盡可能避免訓(xùn)練時(shí)出現(xiàn)“過擬合”現(xiàn)象,保證足夠高的網(wǎng)絡(luò)性能和泛化能力,確定隱層節(jié)點(diǎn)數(shù)的最基本原則是:在滿足精度要求的前提下取盡可能緊湊的結(jié)構(gòu),即取盡可能少的隱層節(jié)點(diǎn)數(shù)。研究表明,隱層節(jié)點(diǎn)數(shù)不僅與輸入/輸出層的節(jié)點(diǎn)數(shù)有關(guān),更與需解決的問題的復(fù)雜程度和轉(zhuǎn)換函數(shù)的型式以及樣本數(shù)據(jù)的特性等因素有關(guān)。

在確定隱層節(jié)點(diǎn)數(shù)時(shí)必須滿足下列條件:隱層節(jié)點(diǎn)數(shù)必須小于N-1(其中N為訓(xùn)練樣本數(shù)),否則,網(wǎng)絡(luò)模型的系統(tǒng)誤差與訓(xùn)練樣本的特性無關(guān)而趨于零,即建立的網(wǎng)絡(luò)模型沒有泛化能力,也沒有任何實(shí)用價(jià)值。同理可推得:輸入層的節(jié)點(diǎn)數(shù)(變量數(shù))必須小于N-1。(2)訓(xùn)練樣本數(shù)必須多于網(wǎng)絡(luò)模型的連接權(quán)數(shù),一般為2~10倍,否則,樣本必須分成幾部分并采用“輪流訓(xùn)練”的方法才可能得到可靠的神經(jīng)網(wǎng)絡(luò)模型。

總之,若隱層節(jié)點(diǎn)數(shù)太少,網(wǎng)絡(luò)可能根本不能訓(xùn)練或網(wǎng)絡(luò)性能很差;若隱層節(jié)點(diǎn)數(shù)太多,雖然可使網(wǎng)絡(luò)的系統(tǒng)誤差減小,但一方面使網(wǎng)絡(luò)訓(xùn)練時(shí)間延長(zhǎng),另一方面,訓(xùn)練容易陷入局部極小點(diǎn)而得不到最優(yōu)點(diǎn),也是訓(xùn)練時(shí)出現(xiàn)“過擬合”的內(nèi)在原因。因此,合理隱層節(jié)點(diǎn)數(shù)應(yīng)在綜合考慮網(wǎng)絡(luò)結(jié)構(gòu)復(fù)雜程度和誤差大小的情況下用節(jié)點(diǎn)刪除法和擴(kuò)張法確定。4.神經(jīng)網(wǎng)絡(luò)的訓(xùn)練4.1訓(xùn)練

BP網(wǎng)絡(luò)的訓(xùn)練就是通過應(yīng)用誤差反傳原理不斷調(diào)整網(wǎng)絡(luò)權(quán)值使網(wǎng)絡(luò)模型輸出值與已知的訓(xùn)練樣本輸出值之間的誤差平方和達(dá)到最小或小于某一期望值。雖然理論上早已經(jīng)證明:具有1個(gè)隱層(采用Sigmoid轉(zhuǎn)換函數(shù))的BP網(wǎng)絡(luò)可實(shí)現(xiàn)對(duì)任意函數(shù)的任意逼近。但遺憾的是,迄今為止還沒有構(gòu)造性結(jié)論,即在給定有限個(gè)(訓(xùn)練)樣本的情況下,如何設(shè)計(jì)一個(gè)合理的BP網(wǎng)絡(luò)模型并通過向所給的有限個(gè)樣本的學(xué)習(xí)(訓(xùn)練)來滿意地逼近樣本所蘊(yùn)含的規(guī)律(即函數(shù)關(guān)系,不僅僅是使訓(xùn)練樣本的誤差達(dá)到很小,還需要有很強(qiáng)的泛化能力)的問題,目前在很大程度上還需要依靠經(jīng)驗(yàn)知識(shí)和設(shè)計(jì)者的經(jīng)驗(yàn)。因此,通過訓(xùn)練樣本的學(xué)習(xí)(訓(xùn)練)建立合理的BP神經(jīng)網(wǎng)絡(luò)模型的過程,在國(guó)外被稱為“藝術(shù)創(chuàng)造的過程”,是一個(gè)復(fù)雜而又十分煩瑣和困難的過程。

由于BP網(wǎng)絡(luò)采用誤差反傳算法,其實(shí)質(zhì)是一個(gè)無約束的非線性最優(yōu)化計(jì)算過程,在網(wǎng)絡(luò)結(jié)構(gòu)較大時(shí)不僅計(jì)算時(shí)間長(zhǎng),而且很容易限入局部極小點(diǎn)而得不到最優(yōu)結(jié)果。目前雖已有改進(jìn)BP法、遺傳算法(GA)和模擬退火算法等多種優(yōu)化方法用于BP網(wǎng)絡(luò)的訓(xùn)練(這些方法從原理上講可通過調(diào)整某些參數(shù)求得全局極小點(diǎn)),但在應(yīng)用中,這些參數(shù)的調(diào)整往往因問題不同而異,較難求得全局極小點(diǎn)。這些方法中應(yīng)用最廣的是增加了沖量(動(dòng)量)項(xiàng)的改進(jìn)BP算法。4.2學(xué)習(xí)率和沖量系數(shù)

學(xué)習(xí)率影響系統(tǒng)學(xué)習(xí)過程的穩(wěn)定性。大的學(xué)習(xí)率可能使網(wǎng)絡(luò)權(quán)值每一次的修正量過大,甚至?xí)?dǎo)致權(quán)值在修正過程中超出某個(gè)誤差的極小值呈不規(guī)則跳躍而不收斂;但過小的學(xué)習(xí)率導(dǎo)致學(xué)習(xí)時(shí)間過長(zhǎng),不過能保證收斂于某個(gè)極小值。所以,一般傾向選取較小的學(xué)習(xí)率以保證學(xué)習(xí)過程的收斂性(穩(wěn)定性),通常在0.01~0.8之間。增加沖量項(xiàng)的目的是為了避免網(wǎng)絡(luò)訓(xùn)練陷于較淺的局部極小點(diǎn)。理論上其值大小應(yīng)與權(quán)值修正量的大小有關(guān),但實(shí)際應(yīng)用中一般取常量。通常在0~1之間,而且一般比學(xué)習(xí)率要大。5.網(wǎng)絡(luò)的初始連接權(quán)值

BP算法決定了誤差函數(shù)一般存在(很)多個(gè)局部極小點(diǎn),不同的網(wǎng)絡(luò)初始權(quán)值直接決定了BP算法收斂于哪個(gè)局部極小點(diǎn)或是全局極小點(diǎn)。因此,要求計(jì)算程序(建議采用標(biāo)準(zhǔn)通用軟件,如Statsoft公司出品的StatisticaNeuralNetworks軟件和Matlab

軟件)必須能夠自由改變網(wǎng)絡(luò)初始連接權(quán)值。由于Sigmoid轉(zhuǎn)換函數(shù)的特性,一般要求初始權(quán)值分布在-0.5~0.5之間比較有效。6.網(wǎng)絡(luò)模型的性能和泛化能力

訓(xùn)練神經(jīng)網(wǎng)絡(luò)的首要和根本任務(wù)是確保訓(xùn)練好的網(wǎng)絡(luò)模型對(duì)非訓(xùn)練樣本具有好的泛化能力(推廣性),即有效逼近樣本蘊(yùn)含的內(nèi)在規(guī)律,而不是看網(wǎng)絡(luò)模型對(duì)訓(xùn)練樣本的擬合能力。從存在性結(jié)論可知,即使每個(gè)訓(xùn)練樣本的誤差都很?。梢詾榱悖?,并不意味著建立的模型已逼近訓(xùn)練樣本所蘊(yùn)含的規(guī)律。因此,僅給出訓(xùn)練樣本誤差(通常是指均方根誤差RSME或均方誤差、AAE或MAPE等)的大小而不給出非訓(xùn)練樣本誤差的大小是沒有任何意義的。

要分析建立的網(wǎng)絡(luò)模型對(duì)樣本所蘊(yùn)含的規(guī)律的逼近情況(能力),即泛化能力,應(yīng)該也必須用非訓(xùn)練樣本(本文稱為檢驗(yàn)樣本和測(cè)試樣本)誤差的大小來表示和評(píng)價(jià),這也是之所以必須將總樣本分成訓(xùn)練樣本和非訓(xùn)練樣本而絕不能將全部樣本用于網(wǎng)絡(luò)訓(xùn)練的主要原因之一。判斷建立的模型是否已有效逼近樣本所蘊(yùn)含的規(guī)律,最直接和客觀的指標(biāo)是從總樣本中隨機(jī)抽取的非訓(xùn)練樣本(檢驗(yàn)樣本和測(cè)試樣本)誤差是否和訓(xùn)練樣本的誤差一樣小或稍大。非訓(xùn)練樣本誤差很接近訓(xùn)練樣本誤差或比其小,一般可認(rèn)為建立的網(wǎng)絡(luò)模型已有效逼近訓(xùn)練樣本所蘊(yùn)含的規(guī)律,否則,若相差很多(如幾倍、幾十倍甚至上千倍)就說明建立的網(wǎng)絡(luò)模型并沒有有效逼近訓(xùn)練樣本所蘊(yùn)含的規(guī)律,而只是在這些訓(xùn)練樣本點(diǎn)上逼近而已,而建立的網(wǎng)絡(luò)模型是對(duì)訓(xùn)練樣本所蘊(yùn)含規(guī)律的錯(cuò)誤反映。

因?yàn)橛?xùn)練樣本的誤差可以達(dá)到很小,因此,用從總樣本中隨機(jī)抽取的一部分測(cè)試樣本的誤差表示網(wǎng)絡(luò)模型計(jì)算和預(yù)測(cè)所具有的精度(網(wǎng)絡(luò)性能)是合理的和可靠的。值得注意的是,判斷網(wǎng)絡(luò)模型泛化能力的好壞,主要不是看測(cè)試樣本誤差大小的本身,而是要看測(cè)試樣本的誤差是否接近于訓(xùn)練樣本和檢驗(yàn)樣本的誤差。7.合理網(wǎng)絡(luò)模型的確定

對(duì)同一結(jié)構(gòu)的網(wǎng)絡(luò),由于BP算法存在(很)多個(gè)局部極小點(diǎn),因此,必須通過多次(通常是幾十次)改變網(wǎng)絡(luò)初始連接權(quán)值求得相應(yīng)的極小點(diǎn),才能通過比較這些極小點(diǎn)的網(wǎng)絡(luò)誤差的大小,確定全局極小點(diǎn),從而得到該網(wǎng)絡(luò)結(jié)構(gòu)的最佳網(wǎng)絡(luò)連接權(quán)值。必須注意的是,神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過程本質(zhì)上是求非線性函數(shù)的極小點(diǎn)問題,因此,在全局極小點(diǎn)鄰域內(nèi)(即使網(wǎng)絡(luò)誤差相同),各個(gè)網(wǎng)絡(luò)連接權(quán)值也可能有較大的差異,這有時(shí)也會(huì)使各個(gè)輸入變量的重要性發(fā)生變化,但這與具有多個(gè)零極小點(diǎn)(一般稱為多模式現(xiàn)象)(如訓(xùn)練樣本數(shù)少于連接權(quán)數(shù)時(shí))的情況是截然不同的。此外,在不滿足隱層節(jié)點(diǎn)數(shù)條件時(shí),總也可以求得訓(xùn)練樣本誤差很小或?yàn)榱愕臉O小點(diǎn),但此時(shí)檢驗(yàn)樣本和測(cè)試樣本的誤差可能要大得多;若改變網(wǎng)絡(luò)連接權(quán)初始值,檢驗(yàn)樣本和測(cè)試樣本的網(wǎng)絡(luò)計(jì)算結(jié)果會(huì)產(chǎn)生很大變化,即多模式現(xiàn)象。

對(duì)于不同的網(wǎng)絡(luò)結(jié)構(gòu),網(wǎng)絡(luò)模型的誤差或性能和泛化能力也不一樣。因此,還必須比較不同網(wǎng)絡(luò)結(jié)構(gòu)的模型的優(yōu)劣。一般地,隨著網(wǎng)絡(luò)結(jié)構(gòu)的變大,誤差變小。通常,在網(wǎng)絡(luò)結(jié)構(gòu)擴(kuò)大(隱層節(jié)點(diǎn)數(shù)增加)的過程中,網(wǎng)絡(luò)誤差會(huì)出現(xiàn)迅速減小然后趨于穩(wěn)定的一個(gè)階段,因此,合理隱層節(jié)點(diǎn)數(shù)應(yīng)取誤差迅速減小后基本穩(wěn)定時(shí)的隱層節(jié)點(diǎn)數(shù)。

總之,合理網(wǎng)絡(luò)模型是必須在具有合理隱層節(jié)點(diǎn)數(shù)、訓(xùn)練時(shí)沒有發(fā)生“過擬合”現(xiàn)象、求得全局極小點(diǎn)和同時(shí)考慮網(wǎng)絡(luò)結(jié)構(gòu)復(fù)雜程度和誤差大小的綜合結(jié)果。設(shè)計(jì)合理BP網(wǎng)絡(luò)模型的過程是一個(gè)不斷調(diào)整參數(shù)的過程,也是一個(gè)不斷對(duì)比結(jié)果的過程,比較復(fù)雜且有時(shí)還帶有經(jīng)驗(yàn)性。這個(gè)過程并不是有些作者想象的(實(shí)際也是這么做的)那樣,隨便套用一個(gè)公式確定隱層節(jié)點(diǎn)數(shù),經(jīng)過一次訓(xùn)練就能得到合理的網(wǎng)絡(luò)模型(這樣建立的模型極有可能是訓(xùn)練樣本的錯(cuò)誤反映,沒有任何實(shí)用價(jià)值)。MATLAB神經(jīng)網(wǎng)絡(luò)工具箱的應(yīng)用在網(wǎng)絡(luò)訓(xùn)練過程中使用的是Matlab6.0forWindows軟件,對(duì)于BP神經(jīng)元網(wǎng)絡(luò)的訓(xùn)練使用了

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論