神經(jīng)網(wǎng)絡(luò)基本原理_第1頁(yè)
神經(jīng)網(wǎng)絡(luò)基本原理_第2頁(yè)
神經(jīng)網(wǎng)絡(luò)基本原理_第3頁(yè)
神經(jīng)網(wǎng)絡(luò)基本原理_第4頁(yè)
神經(jīng)網(wǎng)絡(luò)基本原理_第5頁(yè)
已閱讀5頁(yè),還剩72頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

神經(jīng)網(wǎng)絡(luò)基本原理第一頁(yè),共七十七頁(yè),2022年,8月28日1

人工神經(jīng)網(wǎng)絡(luò)(

ANN,ArtificialNeuralNetwork)也簡(jiǎn)稱(chēng)為神經(jīng)網(wǎng)絡(luò)(NN),是由大量的簡(jiǎn)單處理單元經(jīng)廣泛并行互連形成的一種網(wǎng)絡(luò)系統(tǒng)。它是對(duì)人腦系統(tǒng)的簡(jiǎn)化、抽象和模擬,具有人腦功能的許多基本特征。

目前,人工神經(jīng)網(wǎng)絡(luò)已成為許多高科技領(lǐng)域的一個(gè)熱門(mén)話題。在人工智能領(lǐng)域,它已實(shí)際應(yīng)用于決策支持、模式識(shí)別、專(zhuān)家系統(tǒng)、機(jī)器學(xué)習(xí)等許多方面。第二頁(yè),共七十七頁(yè),2022年,8月28日

由于神經(jīng)網(wǎng)絡(luò)是多學(xué)科交叉的產(chǎn)物,各個(gè)相關(guān)的學(xué)科領(lǐng)域?qū)ι窠?jīng)網(wǎng)絡(luò)都有各自的看法,因此,關(guān)于神經(jīng)網(wǎng)絡(luò)的定義,在科學(xué)界存在許多不同的見(jiàn)解。目前使用得較廣泛的是T.Koholen(芬蘭赫爾辛基技術(shù)大學(xué))的定義,即"神經(jīng)網(wǎng)絡(luò)是由具有適應(yīng)性的簡(jiǎn)單單元組成的廣泛并行互連的網(wǎng)絡(luò),它的組織能夠模擬生物神經(jīng)系統(tǒng)對(duì)真實(shí)世界物體所作出的交互反應(yīng)。"

第三頁(yè),共七十七頁(yè),2022年,8月28日

人腦的基本組成是腦神經(jīng)細(xì)胞,大量腦神經(jīng)細(xì)胞相互聯(lián)接組成人的大腦神經(jīng)網(wǎng)絡(luò),完成各種大腦功能。而人工神經(jīng)網(wǎng)絡(luò)則是由大量的人工神經(jīng)細(xì)胞(神經(jīng)元)經(jīng)廣泛互連形成的人工網(wǎng)絡(luò),以此模擬人類(lèi)神經(jīng)系統(tǒng)的結(jié)構(gòu)和功能。

了解人腦神經(jīng)網(wǎng)絡(luò)的組成和原理,有助于對(duì)人工神經(jīng)網(wǎng)絡(luò)的理解。第四頁(yè),共七十七頁(yè),2022年,8月28日人工神經(jīng)網(wǎng)絡(luò)概述人體神經(jīng)結(jié)構(gòu)與特征雖然神經(jīng)元的形態(tài)各不相同,但是都由細(xì)胞體和突起兩大部分組成,而突起又分樹(shù)突和軸突。第五頁(yè),共七十七頁(yè),2022年,8月28日軸突是由細(xì)胞體向外延伸出的所有纖維中最長(zhǎng)的一條分枝,用來(lái)向外傳遞神經(jīng)元產(chǎn)生的輸出信號(hào)。每個(gè)神經(jīng)元只發(fā)出一條軸突,短的僅幾個(gè)微米,其最大長(zhǎng)度可達(dá)1m以上。第六頁(yè),共七十七頁(yè),2022年,8月28日突觸,在軸突的末端形成了許多很細(xì)的分枝,這些分枝叫神經(jīng)末梢。每一條神經(jīng)末梢可以與其他神經(jīng)元形成功能性接觸,該接觸部位稱(chēng)為突觸。每個(gè)神經(jīng)元大約有103~105個(gè)突觸,換句話說(shuō),每個(gè)神經(jīng)元大約與103~105個(gè)其它神經(jīng)元有連接,正是因?yàn)檫@些突觸才使得全部大腦神經(jīng)元形成一個(gè)復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu)。所謂功能性接觸,突觸的信息傳遞特性可變,因此細(xì)胞之間的連接強(qiáng)度可變,這是一種柔性連接,也稱(chēng)為神經(jīng)元結(jié)構(gòu)的可塑性,這正是神經(jīng)元之間傳遞信息的奧秘之一。第七頁(yè),共七十七頁(yè),2022年,8月28日樹(shù)突是指由細(xì)胞體向外延伸的除軸突以外的其他所有分支。不同的神經(jīng)元其樹(shù)突的數(shù)量也不同,長(zhǎng)度較短,但數(shù)量很多,它是神經(jīng)元的輸入端,用于接受從其他神經(jīng)元的突觸傳來(lái)的信號(hào)。細(xì)胞體是神經(jīng)元的主體,胞體和樹(shù)突表面是接受的其他神經(jīng)元傳來(lái)的信號(hào)的主要部位。第八頁(yè),共七十七頁(yè),2022年,8月28日 神經(jīng)元中的細(xì)胞體相當(dāng)于一個(gè)初等處理器,它對(duì)來(lái)自其他各個(gè)神經(jīng)元的信號(hào)進(jìn)行總體求和,并產(chǎn)生一個(gè)神經(jīng)輸出信號(hào)。由于細(xì)胞膜將細(xì)胞體內(nèi)外分開(kāi),因此,在細(xì)胞體的內(nèi)外具有不同的電位,通常是內(nèi)部電位比外部電位低。細(xì)胞膜內(nèi)外的電位之差被稱(chēng)為膜電位。在無(wú)信號(hào)輸入時(shí)的膜電位稱(chēng)為靜止膜電位。當(dāng)一個(gè)神經(jīng)元的所有輸入總效應(yīng)達(dá)到某個(gè)閾值電位時(shí),該細(xì)胞變?yōu)榛钚约?xì)胞(激活),其膜電位將自發(fā)地急劇升高產(chǎn)生一個(gè)電脈沖。這個(gè)電脈沖又會(huì)從細(xì)胞體出發(fā)沿軸突到達(dá)神經(jīng)末梢,并經(jīng)與其他神經(jīng)元連接的突觸,將這一電脈沖傳給相應(yīng)的神經(jīng)元。第九頁(yè),共七十七頁(yè),2022年,8月28日生物神經(jīng)元的功能與特征 根據(jù)神經(jīng)生理學(xué)的研究,生物神經(jīng)元具有如下重要功能與特性。(1)時(shí)空整合功能

神經(jīng)元對(duì)不同時(shí)間通過(guò)同一突觸傳入的神經(jīng)沖動(dòng),具有時(shí)間整合功能。對(duì)于同一時(shí)間通過(guò)不同突觸傳入的神經(jīng)沖動(dòng),具有空間整合功能。兩種功能相互結(jié)合,使生物神經(jīng)元對(duì)由突觸傳入的神經(jīng)沖動(dòng)具有時(shí)空整合的功能。

(2)興奮與抑制狀態(tài)

神經(jīng)元具有興奮和抑制兩種常規(guī)的工作狀態(tài)。當(dāng)傳入沖動(dòng)的時(shí)空整合結(jié)果使細(xì)胞膜電位升高,超過(guò)動(dòng)作電位的閾值時(shí),細(xì)胞進(jìn)入興奮狀態(tài),產(chǎn)生神經(jīng)沖動(dòng)。相反,當(dāng)傳入沖動(dòng)的時(shí)空整合結(jié)果使細(xì)胞膜電位低于動(dòng)作電位閾值時(shí),細(xì)胞進(jìn)入抑制狀態(tài),無(wú)神經(jīng)沖動(dòng)輸出。

第十頁(yè),共七十七頁(yè),2022年,8月28日 (3)脈沖與電位轉(zhuǎn)換

突觸界面具有脈沖/電位信號(hào)轉(zhuǎn)化功能。沿神經(jīng)纖維傳遞的信號(hào)為離散的電脈沖信號(hào),而細(xì)胞膜電位的變化為連續(xù)的電位信號(hào)。這種在突觸接口處進(jìn)行的“數(shù)/?!鞭D(zhuǎn)換,是通過(guò)神經(jīng)介質(zhì)以量子化學(xué)方式實(shí)現(xiàn)的如下過(guò)程:電脈沖→神經(jīng)化學(xué)物質(zhì)→膜電位 (4)神經(jīng)纖維傳導(dǎo)速率

神經(jīng)沖動(dòng)沿神經(jīng)纖維傳導(dǎo)的速度在1m/s~150m/s之間。其速度差異與纖維的粗細(xì)、髓鞘(包繞在神經(jīng)元的軸突外部的物質(zhì),起絕緣作用)的有無(wú)有關(guān)。一般來(lái)說(shuō),有髓鞘的纖維,其傳導(dǎo)速度在100m/s以上,無(wú)髓鞘的纖維,其傳導(dǎo)速度可低至每秒數(shù)米。第十一頁(yè),共七十七頁(yè),2022年,8月28日人腦神經(jīng)系統(tǒng)的結(jié)構(gòu)與特征

(1)記憶和存儲(chǔ)功能

人腦神經(jīng)系統(tǒng)的記憶和處理功能是有機(jī)地結(jié)合在一起的。神經(jīng)元既有存儲(chǔ)功能,又有處理功能,它在進(jìn)行回憶時(shí)不僅不需要先找到存儲(chǔ)地址再調(diào)出所存內(nèi)容,而且還可以由一部分內(nèi)容恢復(fù)全部?jī)?nèi)容。尤其是當(dāng)一部分神經(jīng)元受到損壞(例如腦部受傷等)時(shí),它只會(huì)丟失損壞最嚴(yán)重部分的那些信息,而不會(huì)丟失全部存儲(chǔ)信息。第十二頁(yè),共七十七頁(yè),2022年,8月28日人腦神經(jīng)系統(tǒng)的結(jié)構(gòu)與特征

(2)高度并行性

人腦大約有1011~1012個(gè)神經(jīng)元,每個(gè)神經(jīng)元又有103~105個(gè)突觸,即每個(gè)神經(jīng)元都可以和其他103~105個(gè)神經(jīng)元相連,這就提供了非常巨大的存儲(chǔ)容量和并行度。例如,人可以非常迅速地識(shí)別出一幅十分復(fù)雜的圖像。

第十三頁(yè),共七十七頁(yè),2022年,8月28日

(3)分布式功能

人們通過(guò)對(duì)腦損壞病人所做的神經(jīng)心理學(xué)研究,沒(méi)有發(fā)現(xiàn)大腦中的哪一部分可以決定其余所有各部分的活動(dòng),也沒(méi)有發(fā)現(xiàn)在大腦中存在有用于驅(qū)動(dòng)和管理整個(gè)智能處理過(guò)程的任何中央控制部分。人類(lèi)大腦的各個(gè)部分是協(xié)同工作、相互影響的,并沒(méi)有哪一部分神經(jīng)元能對(duì)智能活動(dòng)的整個(gè)過(guò)程負(fù)有特別重要的責(zé)任??梢?jiàn),在大腦中,不僅知識(shí)的存儲(chǔ)是分散的,而且其控制和決策也是分散的。因此,大腦是一種分布式系統(tǒng)。第十四頁(yè),共七十七頁(yè),2022年,8月28日

(4)容錯(cuò)功能

容錯(cuò)性是指根據(jù)不完全的、有錯(cuò)誤的信息仍能做出正確、完整結(jié)論的能力。大腦的容錯(cuò)性是非常強(qiáng)的。例如,我們往往能夠僅由某個(gè)人的一雙眼睛、一個(gè)背影、一個(gè)動(dòng)作或一句話的音調(diào),就能辨認(rèn)出來(lái)這個(gè)人是誰(shuí)。第十五頁(yè),共七十七頁(yè),2022年,8月28日

(5)聯(lián)想功能

人腦不僅具有很強(qiáng)的容錯(cuò)功能,還有聯(lián)想功能。善于將不同領(lǐng)域的知識(shí)結(jié)合起來(lái)靈活運(yùn)用,善于概括、類(lèi)比和推理。例如,一個(gè)人能很快認(rèn)出多年不見(jiàn)、面貌變化較大的老朋友。

(6)自組織和自學(xué)習(xí)功能

人腦能夠通過(guò)內(nèi)部自組織、自學(xué)習(xí)能力不斷適應(yīng)外界環(huán)境,從而可以有效地處理各種模擬的、模糊的或隨機(jī)的問(wèn)題。第十六頁(yè),共七十七頁(yè),2022年,8月28日人工神經(jīng)元及人工神經(jīng)網(wǎng)絡(luò)

人工神經(jīng)元的結(jié)構(gòu)

如同生物學(xué)上的基本神經(jīng)元,人工的神經(jīng)網(wǎng)絡(luò)也有基本的神經(jīng)元。人工神經(jīng)元是對(duì)生物神經(jīng)元的抽象與模擬。所謂抽象是從數(shù)學(xué)角度而言的,所謂模擬是從其結(jié)構(gòu)和功能角度而言的。

從人腦神經(jīng)元的特性和功能可以知道,神經(jīng)元是一個(gè)多輸入單輸出的信息處理單元,其模型如下圖所示:神經(jīng)元模型θx1x2xnyω1ω2ωn第十七頁(yè),共七十七頁(yè),2022年,8月28日人工神經(jīng)元及人工神經(jīng)網(wǎng)絡(luò)神經(jīng)元模型θx1x2xnyω1ω2ωn第十八頁(yè),共七十七頁(yè),2022年,8月28日人工神經(jīng)元及人工神經(jīng)網(wǎng)絡(luò)M-P模型

M-P模型屬于一種閾值元件模型,它是由美國(guó)心理學(xué)家McCulloch和數(shù)學(xué)家Pitts提出的最早(1943)神經(jīng)元模型之一。M-P模型是大多數(shù)神經(jīng)網(wǎng)絡(luò)模型的基礎(chǔ)。第十九頁(yè),共七十七頁(yè),2022年,8月28日

在如圖所示的模型中,x1,x2,…,xn表示某一神經(jīng)元的n個(gè)輸入;ωi表示第i個(gè)輸入的連接強(qiáng)度,稱(chēng)為連接權(quán)值;θ為神經(jīng)元的閾值;y為神經(jīng)元的輸出??梢钥闯觯斯ど窠?jīng)元是一個(gè)具有多輸入,單輸出的非線性器件。

神經(jīng)元模型的輸入是∑ωi

xi

(i=1,2,……,n)

輸出是

y=f(σ)=f(∑ωi

xi

θ)

其中f稱(chēng)之為神經(jīng)元功能函數(shù)(作用函數(shù),轉(zhuǎn)移函數(shù),傳遞函數(shù),激活函數(shù))。注:可以令x0=

-1,w0=θ,這樣將閾值作為權(quán)值來(lái)看待。神經(jīng)元模型θx1x2xnyω1ω2ωn第二十頁(yè),共七十七頁(yè),2022年,8月28日常用的人工神經(jīng)元模型

功能函數(shù)f是表示神經(jīng)元輸入與輸出之間關(guān)系的函數(shù),根據(jù)功能函數(shù)的不同,可以得到不同的神經(jīng)元模型。常用的神經(jīng)元模型有以下幾種。 (1)閾值型(Threshold)

這種模型的神經(jīng)元沒(méi)有內(nèi)部狀態(tài),作用函數(shù)f是一個(gè)階躍函數(shù),它表示激活值σ和其輸出f(σ)之間的關(guān)系,如圖5-3所示。σ

f(σ)10圖

5-3閾值型神經(jīng)元的輸入/輸出特性

第二十一頁(yè),共七十七頁(yè),2022年,8月28日 閾值型神經(jīng)元是一種最簡(jiǎn)單的人工神經(jīng)元。這種二值型神經(jīng)元,其輸出狀態(tài)取值1或0,分別代表神經(jīng)元的興奮和抑制狀態(tài)。任一時(shí)刻,神經(jīng)元的狀態(tài)由功能函數(shù)f來(lái)決定。 當(dāng)激活值σ>0時(shí),即神經(jīng)元輸入的加權(quán)總和超過(guò)給定的閾值時(shí),該神經(jīng)元被激活,進(jìn)入興奮狀態(tài),其狀態(tài)f(σ)為1; 否則,當(dāng)σ<0時(shí),即神經(jīng)元輸入的加權(quán)總和不超過(guò)給定的閾值時(shí),該神經(jīng)元不被激活,其狀態(tài)f(σ)為0。第二十二頁(yè),共七十七頁(yè),2022年,8月28日

(2)分段線性強(qiáng)飽和型(LinearSaturation)這種模型又稱(chēng)為偽線性,其輸入/輸出之間在一定范圍內(nèi)滿足線性關(guān)系,一直延續(xù)到輸出為最大值1為止。但當(dāng)達(dá)到最大值后,輸出就不再增大。如圖5-4所示。圖

5-4分段線性飽和型神經(jīng)元的輸入/輸出特性

f(σ)σ01第二十三頁(yè),共七十七頁(yè),2022年,8月28日 (3)S型(Sigmoid)

這是一種連續(xù)的神經(jīng)元模型,其輸出函數(shù)也是一個(gè)有最大輸出值的非線性函數(shù),其輸出值是在某個(gè)范圍內(nèi)連續(xù)取值的,輸入輸出特性常用S型函數(shù)表示。它反映的是神經(jīng)元的飽和特性,如圖5-5所示。σf(σ)圖5-5S型神經(jīng)元的輸入/輸出特性10第二十四頁(yè),共七十七頁(yè),2022年,8月28日

(4)子閾累積型(SubthresholdSummation)

這種類(lèi)型的作用函數(shù)也是一個(gè)非線性函數(shù),當(dāng)產(chǎn)生的激活值超過(guò)T值時(shí),該神經(jīng)元被激活產(chǎn)生一個(gè)反響。在線性范圍內(nèi),系統(tǒng)的反響是線性的,如圖5-6所示。σf(σ)T01圖5-6子閾累積型神經(jīng)元的輸入/輸出特性第二十五頁(yè),共七十七頁(yè),2022年,8月28日

從生理學(xué)角度看,階躍函數(shù)(閾值型)最符合人腦神經(jīng)元的特點(diǎn),事實(shí)上,人腦神經(jīng)元正是通過(guò)電位的高低兩種狀態(tài)來(lái)反映該神經(jīng)元的興奮與抑制。然而,由于階躍函數(shù)不可微,因此,實(shí)際上更多使用的是與之相仿的Sigmoid函數(shù)。第二十六頁(yè),共七十七頁(yè),2022年,8月28日人工神經(jīng)網(wǎng)絡(luò)

人工神經(jīng)網(wǎng)絡(luò)是對(duì)人類(lèi)神經(jīng)系統(tǒng)的一種模擬。盡管人類(lèi)神經(jīng)系統(tǒng)規(guī)模宏大、結(jié)構(gòu)復(fù)雜、功能神奇,但其最基本的處理單元卻只有神經(jīng)元。人工神經(jīng)系統(tǒng)的功能實(shí)際上是通過(guò)大量神經(jīng)元的廣泛互連,以規(guī)模宏偉的并行運(yùn)算來(lái)實(shí)現(xiàn)的。

基于對(duì)人類(lèi)生物系統(tǒng)的這一認(rèn)識(shí),人們也試圖通過(guò)對(duì)人工神經(jīng)元的廣泛互連來(lái)模擬生物神經(jīng)系統(tǒng)的結(jié)構(gòu)和功能。第二十七頁(yè),共七十七頁(yè),2022年,8月28日人工神經(jīng)網(wǎng)絡(luò)

人工神經(jīng)元之間通過(guò)互連形成的網(wǎng)絡(luò)稱(chēng)為人工神經(jīng)網(wǎng)絡(luò)。在人工神經(jīng)網(wǎng)絡(luò)中,神經(jīng)元之間互連的方式稱(chēng)為連接模式或連接模型。它不僅決定了神經(jīng)元網(wǎng)絡(luò)的互連結(jié)構(gòu),同時(shí)也決定了神經(jīng)網(wǎng)絡(luò)的信號(hào)處理方式。第二十八頁(yè),共七十七頁(yè),2022年,8月28日人工神經(jīng)網(wǎng)絡(luò)的分類(lèi)

目前,已有的人工神經(jīng)網(wǎng)絡(luò)模型至少有幾十種,其分類(lèi)方法也有多種。例如: 1)按網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)可分為層次型結(jié)構(gòu)和互連型結(jié)構(gòu)

2)按信息流向可分為前饋型網(wǎng)絡(luò)與有反饋型網(wǎng)絡(luò);

3)按網(wǎng)絡(luò)的學(xué)習(xí)方法可分為有教師的學(xué)習(xí)網(wǎng)絡(luò)和無(wú)教師的學(xué)習(xí)網(wǎng)絡(luò);

4)按網(wǎng)絡(luò)的性能可分為連續(xù)型網(wǎng)絡(luò)與離散型網(wǎng)絡(luò),或分為確定性網(wǎng)絡(luò)與隨機(jī)型網(wǎng)絡(luò);第二十九頁(yè),共七十七頁(yè),2022年,8月28日神經(jīng)元的模型確定之后,一個(gè)神經(jīng)網(wǎng)絡(luò)的特性及能力主要取決于網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)及學(xué)習(xí)方法第三十頁(yè),共七十七頁(yè),2022年,8月28日人工神經(jīng)網(wǎng)絡(luò)的互連結(jié)構(gòu)及其學(xué)習(xí)機(jī)理人工神經(jīng)網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)

建立人工神經(jīng)網(wǎng)絡(luò)的一個(gè)重要步驟是構(gòu)造人工神經(jīng)網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu),即確定人工神經(jīng)元之間的互連結(jié)構(gòu)。根據(jù)神經(jīng)元之間連接的拓?fù)浣Y(jié)構(gòu),可將神經(jīng)網(wǎng)絡(luò)的互連結(jié)構(gòu)分為層次型網(wǎng)絡(luò)和互連型網(wǎng)絡(luò)兩大類(lèi)。層次型網(wǎng)絡(luò)結(jié)構(gòu)又可根據(jù)層數(shù)的多少分為單層、兩層及多層網(wǎng)絡(luò)結(jié)構(gòu)。第三十一頁(yè),共七十七頁(yè),2022年,8月28日人工神經(jīng)網(wǎng)絡(luò)的互連結(jié)構(gòu)及其學(xué)習(xí)機(jī)理簡(jiǎn)單單級(jí)網(wǎng)……x1x2…xno1o2onwnmw11w1mw2mwn1輸出層輸入層 第三十二頁(yè),共七十七頁(yè),2022年,8月28日單層網(wǎng)絡(luò)結(jié)構(gòu)有時(shí)也稱(chēng)兩層網(wǎng)絡(luò)結(jié)構(gòu)

單層或兩層神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)是早期神經(jīng)網(wǎng)絡(luò)模型的互連模式,這種互連模式是最簡(jiǎn)單的層次結(jié)構(gòu)。1)不允許屬于同一層次間的神經(jīng)元互連。2)允許同一層次間的神經(jīng)元互連,則稱(chēng)為帶側(cè)抑制的連接(或橫向反饋)。此外,在有些雙層神經(jīng)網(wǎng)絡(luò)中,還允許不同層之間有反饋連接。輸出層x1o1w11w1mx2o2w2m………xnomwn1輸入層 V第三十三頁(yè),共七十七頁(yè),2022年,8月28日多層網(wǎng)絡(luò)結(jié)構(gòu)

通常把三層和三層以上的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)稱(chēng)為多層神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。所有神經(jīng)元按功能分為若干層。一般有輸入層、隱層(中間層)和輸出層。輸出層隱藏層輸入層o1o2om…x1x2xn………………第三十四頁(yè),共七十七頁(yè),2022年,8月28日多層網(wǎng)絡(luò)結(jié)構(gòu)

1)輸入層節(jié)點(diǎn)上的神經(jīng)元接受外部環(huán)境的輸入模式,并由它傳遞給相連隱層上的各個(gè)神經(jīng)元。

2)隱層是神經(jīng)元網(wǎng)絡(luò)的內(nèi)部處理層,這些神經(jīng)元再在網(wǎng)絡(luò)內(nèi)部構(gòu)成中間層,由于它們不直接與外部輸入、輸出打交道,故稱(chēng)隱層。人工神經(jīng)網(wǎng)絡(luò)所具有的模式變換能力主要體現(xiàn)在隱層的神經(jīng)元上。

3)輸出層用于產(chǎn)生神經(jīng)網(wǎng)絡(luò)的輸出模式。

較有代表性的多層網(wǎng)絡(luò)模型有:前向網(wǎng)絡(luò)模型、多層側(cè)抑制神經(jīng)網(wǎng)絡(luò)模型和帶有反饋的多層神經(jīng)網(wǎng)絡(luò)模型等。

第三十五頁(yè),共七十七頁(yè),2022年,8月28日多層前向神經(jīng)網(wǎng)絡(luò)

多層前向神經(jīng)網(wǎng)絡(luò)模型如圖5-8所示。輸入模式:由輸入層進(jìn)入網(wǎng)絡(luò),經(jīng)中間各層的順序變換,最后由輸出層產(chǎn)生一個(gè)輸出模式,便完成一次網(wǎng)絡(luò)更新。

前向網(wǎng)絡(luò)的連接模式不具有側(cè)抑制和反饋的連接方式?!瓐D5-8多層前向神經(jīng)網(wǎng)絡(luò)模型第三十六頁(yè),共七十七頁(yè),2022年,8月28日多層側(cè)抑制神經(jīng)網(wǎng) 同一層內(nèi)有相互連接的多層前向網(wǎng)絡(luò),它允許網(wǎng)絡(luò)中同一層上的神經(jīng)元之間相互連接,如圖5-9所示。這種連接方式將形成同一層的神經(jīng)元彼此之間的牽制作用,可實(shí)現(xiàn)同一層上神經(jīng)元之間的橫向抑制或興奮的機(jī)制。這樣可以用來(lái)限制同一層內(nèi)能同時(shí)激活神經(jīng)元的個(gè)數(shù),或者把每一層內(nèi)的神經(jīng)元分成若干組,讓每組作為一個(gè)整體來(lái)動(dòng)作。………………………圖5-9多層側(cè)抑制神經(jīng)網(wǎng)絡(luò)第三十七頁(yè),共七十七頁(yè),2022年,8月28日帶有反饋的多層神經(jīng)網(wǎng)絡(luò)

這是一種允許輸出層-隱層,隱層中各層之間,隱層-輸入層之間具有反饋連接的方式,反饋的結(jié)果將構(gòu)成封閉環(huán)路。x1o1輸出層隱藏層輸入層x2o2omxn…………………第三十八頁(yè),共七十七頁(yè),2022年,8月28日帶有反饋的多層神經(jīng)網(wǎng)絡(luò) 這種神經(jīng)網(wǎng)絡(luò)和前向多層神經(jīng)網(wǎng)絡(luò)不同。多層前向神經(jīng)網(wǎng)絡(luò)屬于非循環(huán)連接模式,它的每個(gè)神經(jīng)元的輸入都沒(méi)有包含該神經(jīng)元先前的輸出,因此可以說(shuō)是沒(méi)有“短期記憶”的。但帶反饋的多層神經(jīng)網(wǎng)絡(luò)則不同,它的每個(gè)神經(jīng)元的輸入都有可能包含有該神經(jīng)元先前的輸出反饋信息。因此,它的輸出要由當(dāng)前的輸入和先前的輸出兩者來(lái)決定,這有點(diǎn)類(lèi)似于人類(lèi)短期記憶的性質(zhì)。第三十九頁(yè),共七十七頁(yè),2022年,8月28日人工神經(jīng)網(wǎng)絡(luò)的運(yùn)行一般分為學(xué)習(xí)和工作兩個(gè)階段。第四十頁(yè),共七十七頁(yè),2022年,8月28日人工神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)

人工神經(jīng)網(wǎng)絡(luò)最具有吸引力的特點(diǎn)是它的學(xué)習(xí)能力。

人工神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)和記憶的心理學(xué)基礎(chǔ)

學(xué)習(xí)和記憶是人類(lèi)智能的一個(gè)重要特征。有一種觀點(diǎn)認(rèn)為,人類(lèi)的學(xué)習(xí)過(guò)程實(shí)際上是一種經(jīng)過(guò)訓(xùn)練而使個(gè)體在行為上產(chǎn)生較為持久改變的過(guò)程。按照這種觀點(diǎn),學(xué)習(xí)離不開(kāi)訓(xùn)練。

第四十一頁(yè),共七十七頁(yè),2022年,8月28日人工神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)

學(xué)習(xí)和記憶同樣也應(yīng)該是人工神經(jīng)網(wǎng)絡(luò)的一個(gè)重要特征。人工神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)過(guò)程就是它的訓(xùn)練過(guò)程。人工神經(jīng)網(wǎng)絡(luò)的功能特性由其連接的拓?fù)浣Y(jié)構(gòu)和突觸連接強(qiáng)度(即連接權(quán)值)來(lái)確定。神經(jīng)網(wǎng)絡(luò)訓(xùn)練的實(shí)質(zhì)是通過(guò)對(duì)樣本集的輸入/輸出模式反復(fù)作用于網(wǎng)絡(luò),網(wǎng)絡(luò)按照一定的學(xué)習(xí)算法自動(dòng)調(diào)節(jié)神經(jīng)元之間的連接強(qiáng)度(閾值)或拓?fù)浣Y(jié)構(gòu),當(dāng)網(wǎng)絡(luò)的實(shí)際輸出滿足期望要求,或者趨于穩(wěn)定時(shí),則認(rèn)為學(xué)習(xí)圓滿結(jié)束。第四十二頁(yè),共七十七頁(yè),2022年,8月28日現(xiàn)以人工神經(jīng)網(wǎng)絡(luò)對(duì)手寫(xiě)“A”、“B”兩個(gè)字母的識(shí)別為例進(jìn)行說(shuō)明,規(guī)定當(dāng)“A”輸入網(wǎng)絡(luò)時(shí),應(yīng)該輸出“1”,而當(dāng)輸入為“B”時(shí),輸出為“0”。網(wǎng)絡(luò)學(xué)習(xí)的準(zhǔn)則應(yīng)該是:如果網(wǎng)絡(luò)作出錯(cuò)誤的的判決,則通過(guò)網(wǎng)絡(luò)的學(xué)習(xí),應(yīng)使得網(wǎng)絡(luò)減少下次犯同樣錯(cuò)誤的可能性。首先,給網(wǎng)絡(luò)的各連接權(quán)值賦予(0,1)區(qū)間內(nèi)的隨機(jī)值,將“A”所對(duì)應(yīng)的圖象模式輸入給網(wǎng)絡(luò),網(wǎng)絡(luò)將輸入模式加權(quán)求和、與門(mén)限比較、再進(jìn)行非線性運(yùn)算,得到網(wǎng)絡(luò)的輸出。在此情況下,網(wǎng)絡(luò)輸出為“1”和“0”的概率各為50%,也就是說(shuō)是完全隨機(jī)的。這時(shí)如果輸出為“1”(結(jié)果正確),則使連接權(quán)值增大,以便使網(wǎng)絡(luò)再次遇到“A”模式輸入時(shí),仍然能作出正確的判斷。如果輸出為“0”(即結(jié)果錯(cuò)誤),則把網(wǎng)絡(luò)連接權(quán)值朝著減小綜合輸入加權(quán)值的方向調(diào)整,其目的在于使網(wǎng)絡(luò)下次再遇到“A”模式輸入時(shí),減小犯同樣錯(cuò)誤的可能性。如此操作調(diào)整,當(dāng)給網(wǎng)絡(luò)輪番輸入若干個(gè)手寫(xiě)字母“A”、“B”后,經(jīng)過(guò)網(wǎng)絡(luò)按以上學(xué)習(xí)方法進(jìn)行若干次學(xué)習(xí)后,網(wǎng)絡(luò)判斷的正確率將大大提高。這說(shuō)明網(wǎng)絡(luò)對(duì)這兩個(gè)模式的學(xué)習(xí)已經(jīng)獲得了成功,它已將這兩個(gè)模式分布地記憶在網(wǎng)絡(luò)的各個(gè)連接權(quán)值上。當(dāng)網(wǎng)絡(luò)再次遇到其中任何一個(gè)模式時(shí),能夠作出迅速、準(zhǔn)確的判斷和識(shí)別。一般說(shuō)來(lái),網(wǎng)絡(luò)中所含的神經(jīng)元個(gè)數(shù)越多,則它能記憶、識(shí)別的模式也就越多。第四十三頁(yè),共七十七頁(yè),2022年,8月28日人工神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)算法

學(xué)習(xí)算法是人工神經(jīng)網(wǎng)絡(luò)研究中的核心問(wèn)題

神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法有很多,大體可分為有導(dǎo)師學(xué)習(xí)(SupervisedLearning)、和無(wú)導(dǎo)師學(xué)習(xí)(UnsupervisedLearning)兩大類(lèi),另外還有一類(lèi)死記式學(xué)習(xí)。第四十四頁(yè),共七十七頁(yè),2022年,8月28日有導(dǎo)師學(xué)習(xí)一般需要事先收集樣本數(shù)據(jù)。將數(shù)據(jù)分為訓(xùn)練集和檢驗(yàn)集兩部分,以保證所訓(xùn)練出的神經(jīng)網(wǎng)絡(luò)同時(shí)具有擬合精度和泛化能力。第四十五頁(yè),共七十七頁(yè),2022年,8月28日第四十六頁(yè),共七十七頁(yè),2022年,8月28日第四十七頁(yè),共七十七頁(yè),2022年,8月28日神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)規(guī)則

日本著名神經(jīng)網(wǎng)絡(luò)學(xué)者Amari于1990年提出一種神經(jīng)網(wǎng)絡(luò)權(quán)值訓(xùn)練的通用學(xué)習(xí)規(guī)則。η是一正的常量,其值決定了學(xué)習(xí)的速率,也稱(chēng)為學(xué)習(xí)率或?qū)W習(xí)因子;

t時(shí)刻權(quán)值的調(diào)整量與t時(shí)刻的輸入量和學(xué)習(xí)信號(hào)r的乘積成正比。第四十八頁(yè),共七十七頁(yè),2022年,8月28日Hebb型學(xué)習(xí)

Hebb型學(xué)習(xí)(HebbianLearning)的出發(fā)點(diǎn)是Hebb學(xué)習(xí)規(guī)則如果神經(jīng)網(wǎng)絡(luò)中某一神經(jīng)元同另一直接與它連接的神經(jīng)元同時(shí)處于興奮狀態(tài),那么這兩個(gè)神經(jīng)元之間的連接強(qiáng)度將得到加強(qiáng)。第四十九頁(yè),共七十七頁(yè),2022年,8月28日Hebb型學(xué)習(xí)

Hebb學(xué)習(xí)方式可用如下公式表示:

ωij(t+1)=ωij(t)+η[xi(t)xj(t)]

其中,ωij(t+1)表示對(duì)時(shí)刻t的權(quán)值修正一次后的新的權(quán)值;xi(t)、xj(t)分別表示t時(shí)刻神經(jīng)元i(輸入)和神經(jīng)元j(輸出)的狀態(tài)。上式表明,權(quán)值的調(diào)整量與輸入輸出的乘積成正比。此時(shí)的學(xué)習(xí)信號(hào)即輸出信號(hào)。這是一種純前饋、無(wú)導(dǎo)師學(xué)習(xí)。該規(guī)則至今仍在各種神經(jīng)網(wǎng)絡(luò)模型中起著重要作用。

第五十頁(yè),共七十七頁(yè),2022年,8月28日誤差修正學(xué)習(xí)規(guī)則(也稱(chēng)感知器學(xué)習(xí)規(guī)則)

誤差修正學(xué)習(xí)(Error-CorrectionLearning)是一種有導(dǎo)師的學(xué)習(xí)過(guò)程,其基本思想是利用神經(jīng)網(wǎng)絡(luò)的期望輸出與實(shí)際之間的偏差作為連接權(quán)值調(diào)整的參考,并最終減少這種偏差。

最基本的誤差修正規(guī)則規(guī)定:連接權(quán)值的變化與神經(jīng)元希望輸出和實(shí)際輸出之差成正比。

第五十一頁(yè),共七十七頁(yè),2022年,8月28日誤差修正學(xué)習(xí)規(guī)則(也稱(chēng)感知器學(xué)習(xí)規(guī)則)

該規(guī)則的連接權(quán)的計(jì)算公式為:

ωij(t+1)=ωij(t)+η[dj(t)-yj(t)]xi(t)

其中,ωij(t)表示時(shí)刻t的權(quán)值;ωij(t+1)表示對(duì)時(shí)刻t的權(quán)值修正一次后的新的權(quán)值;dj(t)為時(shí)刻t神經(jīng)元j的希望輸出,yj(t)為與i直接連接的另一神經(jīng)元j在時(shí)刻t的實(shí)際輸出;dj(t)-yj(t)表示時(shí)刻t神經(jīng)元j的輸出誤差。

第五十二頁(yè),共七十七頁(yè),2022年,8月28日δ(Delta)學(xué)習(xí)規(guī)則

δ學(xué)習(xí)規(guī)則很容易從輸出值與希望值的最小平方誤差導(dǎo)出來(lái)。第五十三頁(yè),共七十七頁(yè),2022年,8月28日感知器模型及其學(xué)習(xí)(自學(xué)習(xí)模型)

感知器是美國(guó)心理學(xué)家羅森勃拉特于1958年為研究大腦的存儲(chǔ)、學(xué)習(xí)和認(rèn)知過(guò)程而提出的一類(lèi)具有自學(xué)習(xí)能力的神經(jīng)網(wǎng)絡(luò)模型。最初的感知器只有一個(gè)神經(jīng)元,實(shí)際上仍然是M-P模型的結(jié)構(gòu),但是它與M-P模型的區(qū)別在于神經(jīng)元之間連接權(quán)的變化。通過(guò)采用監(jiān)督學(xué)習(xí)來(lái)逐步增強(qiáng)模式劃分的能力,達(dá)到所謂學(xué)習(xí)的目的。感知器研究中首次提出了自組織、自學(xué)習(xí)的概念,對(duì)神經(jīng)網(wǎng)絡(luò)的研究起到重要的推動(dòng)作用,是研究其他網(wǎng)絡(luò)的基礎(chǔ)。

第五十四頁(yè),共七十七頁(yè),2022年,8月28日感知器模型及其學(xué)習(xí)(自學(xué)習(xí)模型)

感知器模型

感知器是一種具有分層結(jié)構(gòu)的前向網(wǎng)絡(luò)模型,它可分為單層、兩層及多層結(jié)構(gòu)。 感知器中的神經(jīng)網(wǎng)絡(luò)是線性閾值單元。當(dāng)輸入信息的加權(quán)和大于或等于閾值時(shí),輸出為1,否則輸出為0或-1。神經(jīng)元之間的連接權(quán)ωi是可變的,這種可變性就保證了感知器具有學(xué)習(xí)的能力。第五十五頁(yè),共七十七頁(yè),2022年,8月28日B-P網(wǎng)絡(luò)及其學(xué)習(xí)誤差反向傳播(ErrorBackPropagation):美國(guó)加州大學(xué)的魯梅爾哈特(Rumelhart)和麥克萊蘭(Meclelland)等學(xué)者繼續(xù)深入研究了感知器模型,他們抓住信息處理中的并行性和分布性這兩個(gè)本質(zhì)概念,1985年提出了一個(gè)神經(jīng)網(wǎng)絡(luò)反向傳播模型,簡(jiǎn)稱(chēng)為B-P模型,這個(gè)模型既實(shí)現(xiàn)了明斯基(Minsky)所提出的多層網(wǎng)絡(luò)的設(shè)想,又突破了感知器的一些局限性。第五十六頁(yè),共七十七頁(yè),2022年,8月28日B-P網(wǎng)絡(luò)及其學(xué)習(xí)

BP模型利用輸出后的誤差來(lái)估計(jì)輸出層的直接前導(dǎo)層的誤差,再利用這個(gè)誤差估計(jì)更前一層的誤差。如此下去,獲得所有其他各層的誤差估計(jì)。形成將輸出表現(xiàn)出來(lái)的誤差沿著與輸入信號(hào)傳送相反的方向逐級(jí)向網(wǎng)絡(luò)的輸入端傳遞的過(guò)程,因此稱(chēng)為后向傳播(B-P)算法。第五十七頁(yè),共七十七頁(yè),2022年,8月28日B-P網(wǎng)絡(luò)及其學(xué)習(xí)BP模型不僅有輸人層節(jié)點(diǎn)、輸出層節(jié)點(diǎn),而且有一層或多層隱含節(jié)點(diǎn)。層與層之間多采用全互連方式,但同一層的節(jié)點(diǎn)之間不存在相互連接?!谖迨隧?yè),共七十七頁(yè),2022年,8月28日B-P網(wǎng)絡(luò)的學(xué)習(xí)過(guò)程是由正向傳播和誤差反向傳播組成的。當(dāng)給定網(wǎng)絡(luò)一組輸入模式時(shí),B-P網(wǎng)絡(luò)將依次對(duì)這組輸入模式中的每個(gè)輸入模式按如下方式進(jìn)行學(xué)習(xí):把輸入模式從輸入層傳到隱含層單元,經(jīng)隱含層單元逐層處理后,產(chǎn)生一個(gè)輸出模式傳至輸出層,這一過(guò)程稱(chēng)為正向傳播。第五十九頁(yè),共七十七頁(yè),2022年,8月28日如果經(jīng)正向傳播在輸出層沒(méi)有得到所期望的輸出模式,則轉(zhuǎn)為誤差反向傳播過(guò)程,即把誤差信號(hào)沿原連接路徑返回,并通過(guò)修改各層神經(jīng)元的連接權(quán)值,使誤差信號(hào)為最小。重復(fù)正向傳播和反向傳播過(guò)程,直至得到所期望的輸出模式為止。第六十頁(yè),共七十七頁(yè),2022年,8月28日BP網(wǎng)絡(luò)除了在多層網(wǎng)絡(luò)上與單層感知器不同外,其主要差別也表現(xiàn)在激活函數(shù)上。BP網(wǎng)絡(luò)的激活函數(shù)必須是處處可微的,因此它不能采用二值型的閥值函數(shù){0,1}或符號(hào)函數(shù){-1,1}BP網(wǎng)絡(luò)經(jīng)常使用的是S型的對(duì)數(shù)或正切激活函數(shù)和線性函數(shù)第六十一頁(yè),共七十七頁(yè),2022年,8月28日B-P網(wǎng)絡(luò)的學(xué)習(xí)算法: (1)初始化網(wǎng)絡(luò)及學(xué)習(xí)參數(shù),即將隱含層和輸出層各節(jié)點(diǎn)的連接權(quán)值、神經(jīng)元閾值賦予[-1,1]區(qū)間的一個(gè)隨機(jī)數(shù)。

(2)提供訓(xùn)練樣本,即從訓(xùn)練樣本集合中選出一個(gè)訓(xùn)練樣本,將其輸入和期望輸出送入網(wǎng)絡(luò)。

(3)正向傳播過(guò)程,即對(duì)給定的輸入,從第一隱含層開(kāi)始,計(jì)算網(wǎng)絡(luò)的輸出,并把得到的輸出與期望輸出比較,若有誤差,則執(zhí)行第(4)步;否則,返回第(2)步,提供下一個(gè)訓(xùn)練模式;

(4)反向傳播過(guò)程,即從輸出層反向計(jì)算到第一隱含層,逐層修正各單元的連接權(quán)值。

(5)返回第(2)步,對(duì)訓(xùn)練樣本集中的每一個(gè)訓(xùn)練樣本重復(fù)第(2)到第(3)步,直到訓(xùn)練樣本集中的每一個(gè)樣本都滿足期望輸出為止。第六十二頁(yè),共七十七頁(yè),2022年,8月28日函數(shù)名功能newff()生成一個(gè)前饋BP網(wǎng)絡(luò)tansig()雙曲正切S型(Tan-Sigmoid)傳輸函數(shù)logsig()對(duì)數(shù)S型(Log-Sigmoid)傳輸函數(shù)traingd()梯度下降BP訓(xùn)練函數(shù)MATLAB中BP神經(jīng)網(wǎng)絡(luò)的重要函數(shù)和基本功能第六十三頁(yè),共七十七頁(yè),2022年,8月28日MATLAB中BP神經(jīng)網(wǎng)絡(luò)的重要函數(shù)和基本功能newff()功能建立一個(gè)前向BP網(wǎng)絡(luò)格式

net=newff(PR,[S1S2...SN1],{TF1TF2...TFN1},BTF,BLF,PF)說(shuō)明net為創(chuàng)建的新BP神經(jīng)網(wǎng)絡(luò);PR為網(wǎng)絡(luò)輸入取向量取值范圍的矩陣;[S1S2…SNl]表示網(wǎng)絡(luò)隱含層和輸出層神經(jīng)元的個(gè)數(shù);{TFlTF2…TFN1}表示網(wǎng)絡(luò)隱含層和輸出層的傳輸函數(shù),默認(rèn)為‘tansig’;BTF表示網(wǎng)絡(luò)的訓(xùn)練函數(shù),默認(rèn)為‘trainlm’;BLF表示網(wǎng)絡(luò)的權(quán)值學(xué)習(xí)函數(shù),默認(rèn)為‘learngdm’;PF表示性能數(shù),默認(rèn)為‘mse’。第六十四頁(yè),共七十七頁(yè),2022年,8月28日MATLAB中BP神經(jīng)網(wǎng)絡(luò)的重要函數(shù)和基本功能tansig()功能正切sigmoid激活函數(shù)格式a=tansig(n)說(shuō)明雙曲正切Sigmoid函數(shù)把神經(jīng)元的輸入范圍從(-∞,+∞)映射到(-1,1)。它是可導(dǎo)函數(shù),適用于BP訓(xùn)練的神經(jīng)元。logsig()功能對(duì)數(shù)Sigmoid激活函數(shù)格式a=logsig(N)說(shuō)明

對(duì)數(shù)Sigmoid函數(shù)把神經(jīng)元的輸入范圍從(-∞,+∞)映射到(0,1)。它是可導(dǎo)函數(shù),適用于BP訓(xùn)練的神經(jīng)元。第六十五頁(yè),共七十七頁(yè),2022年,8月28日:最大訓(xùn)練步數(shù)。不過(guò)當(dāng)誤差準(zhǔn)則滿足時(shí),即使沒(méi)達(dá)到此步數(shù)也停止訓(xùn)練。缺省為100。:網(wǎng)絡(luò)誤差準(zhǔn)則,當(dāng)誤差小于此準(zhǔn)則時(shí)停止訓(xùn)練,缺省為0。net.trainFcn:訓(xùn)練算法。缺省為’trainlm’,即Levenberg-Marquardt算法。還可使用‘traingdx’,即帶動(dòng)量的梯度下降算法;’traincgf’,即共軛梯度法。其它可看matlab幫助:help->contents->NeuralNetworkToobox->NetworkObjectReference;help(net.trainFcn)(1)MATLAB中BP神經(jīng)網(wǎng)絡(luò)的重要函數(shù)和基本功能第六十六頁(yè),共七十七頁(yè),2022年,8月28日第六十七頁(yè),共七十七頁(yè),2022年,8月28日

例下表為某藥品的銷(xiāo)售情況,月份123456銷(xiāo)量205623952930229816341600月份789101112銷(xiāo)量187314781900150020461556現(xiàn)構(gòu)建一個(gè)如下的三層BP神經(jīng)網(wǎng)絡(luò)對(duì)藥品的銷(xiāo)售進(jìn)行預(yù)測(cè):輸入層有三個(gè)結(jié)點(diǎn),隱含層結(jié)點(diǎn)數(shù)為5,隱含層的激活函數(shù)為tansig;輸出層結(jié)點(diǎn)數(shù)為1個(gè),輸出層的激活函數(shù)為logsig,并利用此網(wǎng)絡(luò)對(duì)藥品的銷(xiāo)售量進(jìn)行預(yù)測(cè),預(yù)測(cè)方法采用滾動(dòng)預(yù)測(cè)方式,即用前三個(gè)月的銷(xiāo)售量來(lái)預(yù)測(cè)第四個(gè)月的銷(xiāo)售量,如用1、2、3月的銷(xiāo)售量為輸入預(yù)測(cè)第4個(gè)月的銷(xiāo)售量,用2、3、4月的銷(xiāo)售量為輸入預(yù)測(cè)第5個(gè)月的銷(xiāo)售量.如此反復(fù)直至滿足預(yù)測(cè)精度要求為止。BP神經(jīng)網(wǎng)絡(luò)在分類(lèi)與預(yù)測(cè)中的應(yīng)用第六十八頁(yè),共七十七頁(yè),2022年,8月28日BP神經(jīng)網(wǎng)絡(luò)在分類(lèi)與預(yù)測(cè)中的應(yīng)用%以每三個(gè)月的銷(xiāo)售量經(jīng)歸一化處理后作為輸入P=[0.5152 0.8173 1.0000;0.8173 1.0000 0.7308;1.0000 0.7308 0.1390;0.7308 0.1390 0.1087;0.1390 0.1087 0.3520;0.1087 0.3520 0.1065;]';%以第四個(gè)月的銷(xiāo)售量歸一化處理后作為目標(biāo)向量T=[0.73080.13900.10870.35200.10650.3761];%創(chuàng)建一個(gè)BP神經(jīng)網(wǎng)絡(luò),每一個(gè)輸入向量的取值范圍為[0,1],隱含層有5個(gè)神經(jīng)%元,輸出層有一個(gè)神經(jīng)元,隱含層的激活函數(shù)為tansig,輸出層的激活函數(shù)為%log

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論