已閱讀5頁,還剩40頁未讀, 繼續(xù)免費(fèi)閱讀
版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
神經(jīng)網(wǎng)絡(luò)和模糊系統(tǒng),第五章 突觸動(dòng)力學(xué):有監(jiān)督的學(xué)習(xí) 張文革 2006.11,突觸動(dòng)力學(xué):有監(jiān)督的學(xué)習(xí),本章內(nèi)容: 一、預(yù)備知識(shí) 二、有監(jiān)督的函數(shù)估計(jì) 三、監(jiān)督學(xué)習(xí)就是有效的訓(xùn)練 四、已知類隸屬度的監(jiān)督學(xué)習(xí) 五、感知器、MLS和BP算法,一、預(yù)備知識(shí)(1),1、生物神經(jīng)元模型 神經(jīng)元是腦組織的基本單元,人腦是由大約140多億個(gè)神經(jīng)元組成的巨系統(tǒng)。神經(jīng)元的結(jié)構(gòu)如下圖所示:,一、預(yù)備知識(shí)(2),2、神經(jīng)元的突觸: 突觸是兩個(gè)細(xì)胞之間連接的基本單元,每個(gè)細(xì)胞約有 個(gè)突觸。突觸主要有兩種連接方式: 一是一個(gè)神經(jīng)細(xì)胞的軸突與另一個(gè)神經(jīng)細(xì)胞的樹突發(fā)生接觸; 二是一個(gè)神經(jīng)細(xì)胞的軸突與另一個(gè)神經(jīng)細(xì)胞的胞體接觸。,一、預(yù)備知識(shí)(3),突觸有兩種類型: 興奮型和抑制型。 突觸的界面具有脈沖/電位信號(hào)轉(zhuǎn)換功能,它能將沿神經(jīng)纖維傳遞的等幅、恒寬、編碼的離散脈沖信號(hào),轉(zhuǎn)換為細(xì)胞膜可以處理的連續(xù)電位信號(hào)。,一、預(yù)備知識(shí)(4),3、突觸動(dòng)力學(xué): 突觸能夠傳遞神經(jīng)沖動(dòng)。樹突從四方收集由其它神經(jīng)細(xì)胞傳來的信息,信息流由樹突出發(fā),經(jīng)過細(xì)胞體,然后由軸突輸出。信息傳遞在突觸處主要是發(fā)生化學(xué)和電的變化,從而對(duì)神經(jīng)細(xì)胞產(chǎn)生一個(gè)興奮或抑制的動(dòng)力。,一、預(yù)備知識(shí)(5),4、人工神經(jīng)網(wǎng)絡(luò)的分類: 人工神經(jīng)網(wǎng)絡(luò)的分類有多種方法,但通常采用如下分類: 按網(wǎng)絡(luò)結(jié)構(gòu)分為:前饋網(wǎng)絡(luò)和反饋網(wǎng)絡(luò); 按學(xué)習(xí)方式分為:監(jiān)督學(xué)習(xí)和非監(jiān)督學(xué)習(xí),也叫有導(dǎo)師學(xué)習(xí)和無導(dǎo)師學(xué)習(xí)。 本章主要論述前饋網(wǎng)絡(luò)的監(jiān)督學(xué)習(xí)算法。,一、預(yù)備知識(shí)(6),5、什么是學(xué)習(xí)? 學(xué)習(xí)就是對(duì)信息進(jìn)行編碼,其目的就是通過向有限個(gè)例子(訓(xùn)練樣本)的學(xué)習(xí)來找到隱藏在例子背后(即產(chǎn)生這些例子)的規(guī)律(如函數(shù)形式)。 當(dāng)樣本數(shù)據(jù)改變系統(tǒng)參數(shù)時(shí),系統(tǒng)會(huì)對(duì)這些改變進(jìn)行自適應(yīng)或自組織的學(xué)習(xí),在神經(jīng)網(wǎng)絡(luò)中表現(xiàn)為突觸的改變。 按突觸修正假說,神經(jīng)網(wǎng)絡(luò)在拓?fù)浣Y(jié)構(gòu)固定時(shí),其學(xué)習(xí)歸結(jié)為連接權(quán)的變化。 所以,對(duì)固定拓?fù)涞纳窠?jīng)網(wǎng)絡(luò),學(xué)習(xí)就是求權(quán)值,即突觸矩陣。,一、預(yù)備知識(shí)(7),6、什么是監(jiān)督? 監(jiān)督就是對(duì)每一個(gè)輸入Xi,都假定我們已經(jīng)知道它的期望輸出Yi,這個(gè)Yi可以理解為監(jiān)督信號(hào),也叫“教師信號(hào)”。 對(duì)每一個(gè)輸入Xi及其對(duì)其估計(jì)的期望輸出Yi,就構(gòu)成了一個(gè)訓(xùn)練樣本。,一、預(yù)備知識(shí)(8),7、學(xué)習(xí)的種類: 學(xué)習(xí)的種類有四種:死記式學(xué)習(xí), 學(xué)習(xí)律,自組織的學(xué)習(xí)和Hebbian學(xué)習(xí)律,相近學(xué)習(xí)。 由于監(jiān)督學(xué)習(xí)主要使用的是 學(xué)習(xí)律,所以,在此主要介紹 學(xué)習(xí)律。,一、預(yù)備知識(shí)(9),8、 學(xué)習(xí)律 這種方法是用已知例子作為教師對(duì)網(wǎng)絡(luò)的權(quán)進(jìn)行學(xué)習(xí)。其規(guī)則是通過神經(jīng)網(wǎng)絡(luò)理想輸出和實(shí)際輸出之間的誤差來修正網(wǎng)絡(luò)的權(quán)值。在很多神經(jīng)網(wǎng)絡(luò)中,都采用了這種學(xué)習(xí)方法,如Perceptron, Adaline和Back-propagation算法等。,一、預(yù)備知識(shí)(10),9、有監(jiān)督的學(xué)習(xí) 有監(jiān)督的學(xué)習(xí)就是根據(jù)這若干組訓(xùn)練樣本 ,對(duì)人工神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,利用學(xué)習(xí)系統(tǒng)的誤差( EJ ,為期望輸出與實(shí)際輸出之差),不斷校正學(xué)習(xí)系統(tǒng)的行為(即突觸權(quán)值),使誤差盡可能地小,從而估計(jì)出神經(jīng)元函數(shù):f : xy。 所以,監(jiān)督學(xué)習(xí)的最終任務(wù),就是通過使系統(tǒng)誤差盡可能地小,不斷地調(diào)整突觸權(quán)值,最終求出神經(jīng)元函數(shù)f。,一、預(yù)備知識(shí)(11),10、監(jiān)督學(xué)習(xí)與非監(jiān)督學(xué)習(xí)的區(qū)別: 在監(jiān)督學(xué)習(xí)中,假定我們知道每一輸入對(duì)應(yīng)的期望輸出,并利用學(xué)習(xí)系統(tǒng)的誤差,不斷校正系統(tǒng)的行為; 在非監(jiān)督學(xué)習(xí)中,我們不知道學(xué)習(xí)系統(tǒng)的期望輸出。,11、前饋神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)示意圖,特點(diǎn):各神經(jīng)元接受前一級(jí)輸入,并輸出到下一級(jí),無反饋。輸入、輸出節(jié)點(diǎn)稱為可見層,其它中間層稱為隱層。,12、監(jiān)督學(xué)習(xí)流圖,其關(guān)鍵之處,就是將教師信號(hào)加入到了網(wǎng)絡(luò)中.,二、有監(jiān)督的函數(shù)估計(jì)(1),在學(xué)習(xí)之前,神經(jīng)網(wǎng)絡(luò)猶如一個(gè)黑盒子,我們能做的,就是可以給它加一定的輸入 Xi,再給每個(gè)輸入Xi提供一個(gè)期望輸出Yi,即“教師信號(hào)”,從而形成了一系列的樣本對(duì)(Xi,Yi)。 有監(jiān)督的函數(shù)估計(jì),就是通過包含“教師信號(hào)”的樣本對(duì)(Xi,Yi),求出神經(jīng)網(wǎng)絡(luò)的傳輸函數(shù) f 的近似表達(dá)式。,二、有監(jiān)督的函數(shù)估計(jì)(2),采用的方法,就是利用誤差函數(shù)EJ(期望輸出與實(shí)際輸出的差值),不斷調(diào)整ANN的突觸權(quán)值,使EJ達(dá)到最小,從而達(dá)到對(duì)ANN函數(shù)的估計(jì)。,二、有監(jiān)督的函數(shù)估計(jì)(3),已知隨機(jī)樣本矢量對(duì) 通過實(shí)驗(yàn)可以測出實(shí)際輸出 求出EJ= - 然后通過使EJ最小而修改突觸權(quán)值來求出f: 其中F是要估計(jì)的ANN函數(shù); 是輸入空間; 是輸出空間。,三、監(jiān)督學(xué)習(xí)就是有效的訓(xùn)練,有效訓(xùn)練是指,對(duì)具有記憶功能的系統(tǒng),當(dāng)使用訓(xùn)練樣本對(duì)其進(jìn)行學(xué)習(xí)之后,系統(tǒng)能夠記住所學(xué)的方法,并能處理類似的問題。 對(duì)ANN進(jìn)行有監(jiān)督的學(xué)習(xí)就是有記憶功能的系統(tǒng)。也就是說,使用期望輸出與實(shí)際輸出的誤差不斷校正其突觸權(quán)值,最終的結(jié)果,就是系統(tǒng)具備了一定的功能,訓(xùn)練取得了一定的成效。就像巴普洛夫條件反射試驗(yàn)一樣。,四、已知類隸屬度的監(jiān)督學(xué)習(xí)(1),就是用已知的模式類的隸屬度函數(shù),來調(diào)整系統(tǒng)的突觸權(quán)值,從而達(dá)到學(xué)習(xí)的目的。 比如,在噪聲隨機(jī)競爭學(xué)習(xí)定律中,由于沒有使用類成員信息校正突觸矢量,所以是非監(jiān)督學(xué)習(xí)。,四、已知類隸屬度的監(jiān)督學(xué)習(xí)(2),噪聲隨機(jī)競爭學(xué)習(xí)定律為: 它實(shí)際上就是在隨機(jī)競爭學(xué)習(xí)中加入了噪聲ni。其規(guī)律為:若第j個(gè)神經(jīng)元獲勝,則學(xué)新忘舊;若第j個(gè)神經(jīng)元失敗,則不學(xué)新也不忘舊。 其不足是:未使用已知模式類X的隸屬度信息。 如果使用了類成員信息校正突觸矢量,就成了監(jiān)督學(xué)習(xí)。因?yàn)槭潜O(jiān)督學(xué)習(xí),有“教師”信號(hào),我們預(yù)先就知道其期望分類,所以實(shí)行了獎(jiǎng)懲機(jī)制:若分對(duì),則獎(jiǎng)勵(lì);分錯(cuò)則懲罰。,四、已知類隸屬度的監(jiān)督學(xué)習(xí)(3),而對(duì)應(yīng)的監(jiān)督隨機(jī)競爭學(xué)習(xí)定律為: 增強(qiáng)函數(shù)為: 若x屬于Dj,上式中第一項(xiàng)為+1,說明是分對(duì)了;若x不屬于Dj,上式中第二項(xiàng)為-1,說明是分錯(cuò)了。獎(jiǎng)勵(lì)正確的模式分類1,懲罰錯(cuò)誤的模式分類為1,從而調(diào)整權(quán)值,達(dá)到學(xué)習(xí)的目的。,五、感知器學(xué)習(xí)算法(1),1、感知器拓?fù)浣Y(jié)構(gòu),五、感知器學(xué)習(xí)算法(2),2、感知器學(xué)習(xí) 網(wǎng)絡(luò)用誤差修正規(guī)則( 規(guī)則)學(xué)習(xí),訓(xùn)練樣本對(duì)為( , )k=1,2,m.第k個(gè)模式對(duì)應(yīng)的輸入向量 =( , )為模擬值模式,輸出向量 =( , , )為二值模式。網(wǎng)絡(luò)中, 層的n個(gè)單元對(duì)應(yīng)模式 的n個(gè)分量 , 層的p個(gè)單元對(duì)應(yīng)模式 的P個(gè)分量. 所以,感知器最突出的一個(gè)特點(diǎn)便是:輸入是模擬向量,輸出是二值模式。,五、感知器學(xué)習(xí)算法(3),由于 層中每個(gè)單元只取值+1或-1,因此可將它視作輸入模式 (k=1,2m)兩個(gè)可能的分類。在學(xué)習(xí)開始 時(shí),由各連接權(quán)決定的超平面隨機(jī)地被 放到N維空間。隨著學(xué)習(xí)的進(jìn)行,這個(gè)超平面漸漸移動(dòng),直到它能將兩類模式恰當(dāng)劃分為止。,五、感知器學(xué)習(xí)算法(4),3、算法過程 從隨機(jī)的權(quán)值開始; 反復(fù)應(yīng)用每個(gè)訓(xùn)練樣例到感知器,只要它誤分樣例,就修改感知器的權(quán)值; 重復(fù)這個(gè)過程,直到感知器正確分類所有的訓(xùn)練樣例為止。,五、感知器學(xué)習(xí)算法(5),4、具體算法: (1)初始化連接權(quán)。將 層到 層的連接權(quán) , i=1,2,n,j=1,2,p及 層單元閾值 j=1,2,p賦予-1,+1間的隨機(jī)值。 (2)對(duì)每一模式對(duì)( , )k=1,m,完成下面操作: A、將 的值送到 層單元, 層單元的輸出之加權(quán)和作為 層單元的輸入,計(jì)算 層單元的輸出:,五、感知器學(xué)習(xí)算法(6),上式中j=1p,f(x)為雙極階躍函數(shù) B、計(jì)算 層單元希望輸出與實(shí)際輸出間誤差,五、感知器學(xué)習(xí)算法(7),C、調(diào)整 層單元與 層單元之間的連接權(quán) 式中i=1n,j=1p,0 1 (3)重復(fù)步驟(2)直到誤差 (j=1p且k=1m)變得足夠小或變?yōu)?為止。,五、感知器學(xué)習(xí)算法(8),5、說明: 感知器算法,如果輸入模式是線性可分的,學(xué)習(xí)后能對(duì)輸入模式正確分類; 如果輸入模式本身是線性不可分的,那么學(xué)習(xí)后的網(wǎng)絡(luò)不能對(duì)輸入模式正確分類。,六、LMS算法(1),1、LMS就是最小均方誤差算法。它采用的準(zhǔn)則函數(shù)是均方誤差函數(shù)。 它通過調(diào)整單個(gè)神經(jīng)元的權(quán)值,以使誤差為最小,其數(shù)學(xué)基礎(chǔ)是誤差曲面上的梯度下降。 其學(xué)習(xí)過程也是根據(jù)教師信號(hào)計(jì)算其均方誤差,由均方誤差調(diào)整突觸向量,如此反復(fù),最后達(dá)到學(xué)習(xí)的目的。,六、LMS算法(2),2、權(quán)值調(diào)整公式: 其中 為下一次權(quán)值向量的取值, 為現(xiàn)在的權(quán)向量, 為現(xiàn)在的輸入向量, 為現(xiàn)在的誤差, 為系數(shù), 為輸入向量的模.,七、反向傳播網(wǎng)絡(luò)學(xué)習(xí)(1),1、定義:反向傳播神經(jīng)網(wǎng)絡(luò)(Back-Propagation Networks)簡稱BP模型。由于在這一神經(jīng)網(wǎng)絡(luò)模型中引入了中間隱含神經(jīng)元層,所以,標(biāo)準(zhǔn)的BP模型由三個(gè)神經(jīng)元層次組成,分別為輸入層、隱層和輸出層。各層次之間的神經(jīng)元形成全互連接,各層次內(nèi)的神經(jīng)元之間沒有連接。,七、反向傳播網(wǎng)絡(luò)學(xué)習(xí)(2),2、BP算法是通過使代價(jià)函數(shù)最小化的過程來完成輸入到輸出的映射。 代價(jià)函數(shù)有多種,但通常在BP算法中,將代價(jià)函數(shù)定義為期望輸出與實(shí)際輸出的誤差平方和。 在本算法中,將代價(jià)函數(shù)(期望輸出與實(shí)際輸出的誤差平方和)用與其等價(jià)的一般化誤差來代替,從而減小了運(yùn)算量。,七、反向傳播網(wǎng)絡(luò)學(xué)習(xí)(3),3、BP算法分成兩個(gè)階段 第一階段:正向傳播。 在正向傳播過程中,輸入信息從輸入層經(jīng)隱層逐層處理,并傳向輸出層,獲得各個(gè)單元的實(shí)際輸出,每一層神經(jīng)元的狀態(tài)只影響下一層神經(jīng)元的狀態(tài)。,七、反向傳播網(wǎng)絡(luò)學(xué)習(xí)(4),第二階段:反向傳播。 如果在輸出層未能得到期望的輸出,則轉(zhuǎn)入反向傳播,計(jì)算出輸出層各單元的一般化誤差,然后將這些誤差信號(hào)沿原來的連接通路返回,以獲得調(diào)整各連接權(quán)所需的各單元參考誤差,通過修改各層神經(jīng)元的權(quán)值,使得誤差信號(hào)最小。,七、反向傳播網(wǎng)絡(luò)學(xué)習(xí)(5),4、BP網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu),七、反向傳播網(wǎng)絡(luò)學(xué)習(xí)(6),5、BP算法: (1)初始化。將網(wǎng)絡(luò)中所有權(quán)值及閾值賦予(-1,+1)之間的隨機(jī)值; (2)對(duì)于樣本模式對(duì)( , )(k=1m)進(jìn)行如下操作: A)將 的值送到輸入層單元,通過連接權(quán)矩陣V送到隱層單元,產(chǎn)生隱層單元新的激活值 式中i=1p, f為S型函數(shù):,七、反向傳播網(wǎng)絡(luò)學(xué)習(xí)(7),B)計(jì)算輸出層單元的激活值 C)計(jì)算輸出層單元的一般化誤差 式中j=1q, 為輸出層單元j的期望輸出;,七、反向傳播網(wǎng)絡(luò)學(xué)習(xí)(8),D)計(jì)算隱含層單元對(duì)于每個(gè) 的誤差 式中i=1p;上式相當(dāng)于將輸出層單元的誤差反向傳播到隱含層; E)調(diào)整隱含層到輸出層的連接權(quán) 為學(xué)習(xí)率,0 1.,七、反向傳播網(wǎng)絡(luò)學(xué)習(xí)(9),F)調(diào)整輸入層到隱含層的連接權(quán) 式中h=1n,i=1p,0 1; G)調(diào)整輸出單元的閾值 式中j=1q;,七、反向傳播網(wǎng)絡(luò)學(xué)習(xí)(10),H)調(diào)整隱含層單元的閾值 (3)重復(fù)步驟(2),直到對(duì)于k=1,2,m,誤差 變得足夠小或?yàn)?為止。,七、反向傳播網(wǎng)絡(luò)學(xué)習(xí)(11),6、BP算法的優(yōu)點(diǎn) (1) BP算法是一個(gè)很有效的算法,許多問題都可由它來解決。BP模型把一組樣本的I/O問題變?yōu)橐粋€(gè)非線性優(yōu)化問題,使用了優(yōu)化中最普通的梯度下降法,用迭代運(yùn)算求解權(quán)相應(yīng)于學(xué)習(xí)記憶問題,加入隱節(jié)點(diǎn)使優(yōu)化問題的可調(diào)參數(shù)增加,從而可得到更精確的解。,七、反向傳播網(wǎng)絡(luò)學(xué)
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 二零二五年度高品質(zhì)住宅租賃服務(wù)合同3篇
- 二零二五版房屋改造權(quán)典當(dāng)借款合同3篇
- 二零二五年度緊急電梯臨時(shí)租用服務(wù)合同協(xié)議書3篇
- 二零二五版旅游度假村經(jīng)營管理合同范本3篇
- 二零二五版標(biāo)準(zhǔn)房產(chǎn)拍賣委托合同范本3篇
- 二零二五版導(dǎo)游帶團(tuán)餐飲服務(wù)合同模板3篇
- 二零二五版蘋果種植技術(shù)培訓(xùn)與咨詢服務(wù)合同3篇
- 二零二五版房屋買賣合同中的稅費(fèi)分擔(dān)約定3篇
- 二零二五版電力工程監(jiān)理勞務(wù)分包合同范本2篇
- 基于2025年度預(yù)算的網(wǎng)絡(luò)營銷與電商平臺(tái)建設(shè)合同3篇
- 歷史-廣東省大灣區(qū)2025屆高三第一次模擬試卷和答案
- 2024年安全生產(chǎn)法律、法規(guī)、標(biāo)準(zhǔn)及其他要求清單
- 2023年高考文言文閱讀設(shè)題特點(diǎn)及備考策略
- 抗心律失常藥物臨床應(yīng)用中國專家共識(shí)
- 考級(jí)代理合同范文大全
- 2024解析:第三章物態(tài)變化-講核心(原卷版)
- DB32T 1590-2010 鋼管塑料大棚(單體)通 用技術(shù)要求
- 安全行車知識(shí)培訓(xùn)
- 2024年安徽省高校分類對(duì)口招生考試數(shù)學(xué)試卷真題
- 第12講 語態(tài)一般現(xiàn)在時(shí)、一般過去時(shí)、一般將來時(shí)(原卷版)
- 2024年采購員年終總結(jié)
評(píng)論
0/150
提交評(píng)論