基于神經(jīng)網(wǎng)絡(luò)的智能控制系統(tǒng)_第1頁(yè)
基于神經(jīng)網(wǎng)絡(luò)的智能控制系統(tǒng)_第2頁(yè)
基于神經(jīng)網(wǎng)絡(luò)的智能控制系統(tǒng)_第3頁(yè)
基于神經(jīng)網(wǎng)絡(luò)的智能控制系統(tǒng)_第4頁(yè)
基于神經(jīng)網(wǎng)絡(luò)的智能控制系統(tǒng)_第5頁(yè)
已閱讀5頁(yè),還剩34頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、智能控制理論及其應(yīng)用信息學(xué)院尤富強(qiáng)4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) 按照神經(jīng)網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)與學(xué)習(xí)算法相結(jié)按照神經(jīng)網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)與學(xué)習(xí)算法相結(jié)合的方法可將神經(jīng)網(wǎng)絡(luò)的類(lèi)型分為前饋網(wǎng)絡(luò)、競(jìng)合的方法可將神經(jīng)網(wǎng)絡(luò)的類(lèi)型分為前饋網(wǎng)絡(luò)、競(jìng)爭(zhēng)網(wǎng)絡(luò)、反饋網(wǎng)絡(luò)和隨機(jī)網(wǎng)絡(luò)四大類(lèi)。爭(zhēng)網(wǎng)絡(luò)、反饋網(wǎng)絡(luò)和隨機(jī)網(wǎng)絡(luò)四大類(lèi)。4.4.1 BP神經(jīng)網(wǎng)絡(luò) 19861986年,年,D. E. RumelhartD. E. Rumelhart和和J. L. McClellandJ. L. McClelland提出了提出了一種利用誤差反向傳播訓(xùn)練算法的神經(jīng)網(wǎng)絡(luò),簡(jiǎn)稱(chēng)一種利用誤差反向傳播訓(xùn)練算法的神經(jīng)網(wǎng)絡(luò),簡(jiǎn)稱(chēng)BP(BackBP(Back Pro

2、pagation)Propagation)網(wǎng)絡(luò),是一種有隱含層的多層前饋網(wǎng)絡(luò),系網(wǎng)絡(luò),是一種有隱含層的多層前饋網(wǎng)絡(luò),系統(tǒng)地解決了多層網(wǎng)絡(luò)中隱含單元連接權(quán)的學(xué)習(xí)問(wèn)題。統(tǒng)地解決了多層網(wǎng)絡(luò)中隱含單元連接權(quán)的學(xué)習(xí)問(wèn)題。(1) BP算法原理 BPBP學(xué)習(xí)算法的基本原理是梯度最速下降法,它的中心思學(xué)習(xí)算法的基本原理是梯度最速下降法,它的中心思想是調(diào)整權(quán)值使網(wǎng)絡(luò)總誤差最小。想是調(diào)整權(quán)值使網(wǎng)絡(luò)總誤差最小。 4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) (1) BP算法原理 多層網(wǎng)絡(luò)運(yùn)用多層網(wǎng)絡(luò)運(yùn)用BPBP學(xué)習(xí)算法時(shí),實(shí)際上包含了正向和反向?qū)W習(xí)算法時(shí),實(shí)際上包含了正向和反向傳播兩個(gè)階段。在正向傳播過(guò)程中,輸入信息從輸入層經(jīng)傳播兩

3、個(gè)階段。在正向傳播過(guò)程中,輸入信息從輸入層經(jīng)隱含層逐層處理,并傳向輸出層,每一層神經(jīng)元的狀態(tài)只隱含層逐層處理,并傳向輸出層,每一層神經(jīng)元的狀態(tài)只影響下一層神經(jīng)元的狀態(tài)。如果在輸出層不能得到期望輸影響下一層神經(jīng)元的狀態(tài)。如果在輸出層不能得到期望輸出,則轉(zhuǎn)入反向傳播,將誤差信號(hào)沿原來(lái)的連接通道返回,出,則轉(zhuǎn)入反向傳播,將誤差信號(hào)沿原來(lái)的連接通道返回,通過(guò)修改各層神經(jīng)元的權(quán)值,使誤差信號(hào)最小。通過(guò)修改各層神經(jīng)元的權(quán)值,使誤差信號(hào)最小。 這種網(wǎng)絡(luò)沒(méi)有反饋存在,實(shí)際運(yùn)行仍是單向的,所以這種網(wǎng)絡(luò)沒(méi)有反饋存在,實(shí)際運(yùn)行仍是單向的,所以不能將其看成是一非線(xiàn)性動(dòng)力學(xué)系統(tǒng),而只是一種非線(xiàn)性不能將其看成是一非線(xiàn)性動(dòng)

4、力學(xué)系統(tǒng),而只是一種非線(xiàn)性映射關(guān)系。具有隱含層映射關(guān)系。具有隱含層BPBP網(wǎng)絡(luò)的結(jié)構(gòu)如圖網(wǎng)絡(luò)的結(jié)構(gòu)如圖4-94-9所示。所示。 (1)BP算法原理4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) 目標(biāo)函數(shù): 函數(shù)為Sigmoid函數(shù):正向推算過(guò)程:(1)隱層輸出 (2)網(wǎng)絡(luò)輸出 4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) (1)BP算法原理(2)BP算法的計(jì)算步驟 1) 計(jì)算一個(gè)輸出單元活性改變時(shí)的誤差導(dǎo)數(shù)EA,即實(shí)際輸出與期望輸出的差值 2)計(jì)算一個(gè)單元所接受總輸入變化時(shí)的誤差導(dǎo)數(shù)EI,EI實(shí)際上等于上述步驟1)的結(jié)果乘以一個(gè)單元的總輸入變化時(shí)其輸出的變化率,即4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) (2)BP算法的計(jì)算步驟 3)計(jì)算一個(gè)與

5、輸出單元聯(lián)接權(quán)值改變時(shí)的誤差變化率EW 4)為了計(jì)算對(duì)誤差總的影響,把對(duì)各輸出單元的所有單獨(dú)影響相加 4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) (2)BP算法的計(jì)算步驟 運(yùn)用步驟2)和4),可把一層單元的EA變成前面一層單元的EA,為了得到期望的前面各層的EA,可重復(fù)此計(jì)算步驟。當(dāng)?shù)玫揭粋€(gè)單元的EA后,可用步驟2)和3)來(lái)計(jì)算作用于它的輸入聯(lián)接上的EW。4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) (3)BP算法的計(jì)算機(jī)實(shí)現(xiàn)流程 1) 初始化,對(duì)所有權(quán)值賦以隨機(jī)任意小值,并對(duì)閾值設(shè)定初值; 2) 給定訓(xùn)練數(shù)據(jù)集,即提供輸入向量 和期望輸出 ; 3) 計(jì)算實(shí)際輸出 Xyy4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) (3)BP算法的計(jì)算機(jī)實(shí)現(xiàn)流

6、程 4) 調(diào)整權(quán)值,按誤差反向傳播方向,從輸出節(jié)點(diǎn)開(kāi)始返回到隱層按下式修正權(quán)值 其中: 5) 返回第2)步重復(fù),直至誤差滿(mǎn)足要求為止。4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) (4)使用BP算法應(yīng)注意的幾個(gè)問(wèn)題 學(xué)習(xí)速率 的選擇非常重要。 在設(shè)置各訓(xùn)練樣本的期望輸出分量時(shí),不能設(shè)置為1或0,以設(shè)置為 0.9或0.1較為適宜。 若實(shí)際問(wèn)題給予網(wǎng)絡(luò)的輸入量較大,需做歸一化處理,網(wǎng)絡(luò)的輸出也要進(jìn)行相應(yīng)的處理。 各加權(quán)系數(shù)的初值以設(shè)置為隨機(jī)數(shù)為宜。 在學(xué)習(xí)過(guò)程中,應(yīng)盡量避免落入某些局部最小值點(diǎn)上,引入慣性項(xiàng)有可能使網(wǎng)絡(luò)避免落入某一局部最小值。 4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) (5)BP網(wǎng)絡(luò)的優(yōu)缺點(diǎn)1)BP網(wǎng)絡(luò)主要網(wǎng)絡(luò)主

7、要: 只要有足夠多的隱含層和隱節(jié)點(diǎn),BP網(wǎng)絡(luò)可以逼近任意的非線(xiàn)性映射關(guān)系; BP網(wǎng)絡(luò)的學(xué)習(xí)算法屬于全局逼近的方法,因而它具有較好的泛化能力。2)BP網(wǎng)絡(luò)的主要網(wǎng)絡(luò)的主要: 收斂速度慢; 局部權(quán)值; 難以確定隱含層和隱節(jié)點(diǎn)的個(gè)數(shù)。4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) (6)典型的BP網(wǎng)絡(luò)改進(jìn)算法 1) 引入慣性項(xiàng) 輸出層的任意神經(jīng)元 k 在樣本p 作用時(shí)的加權(quán)系數(shù)改進(jìn)公式為 隱含層的任意神經(jīng)元 i 在樣本p 作用時(shí)的加權(quán)系數(shù)改進(jìn)公式為4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) (6)典型的BP網(wǎng)絡(luò)改進(jìn)算法2)引入動(dòng)量項(xiàng) 加入的動(dòng)量項(xiàng)實(shí)質(zhì)上相當(dāng)于阻尼項(xiàng)收斂性式中, 既可表示單個(gè)的連接權(quán)系數(shù); 為 時(shí)刻的負(fù)梯度: 是 時(shí)刻的

8、負(fù)梯度: 為學(xué)習(xí)速率, ; 為動(dòng)量項(xiàng)因子, 。 )(kw)()(kwJkDk) 1( kD1k0104.4 幾種典型的神經(jīng)網(wǎng)絡(luò) 4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) 4.4.2 徑向基神經(jīng)網(wǎng)絡(luò)徑向基神經(jīng)網(wǎng)絡(luò) 1985年,Powell提出了多變量插值的徑向基函數(shù)(Radial Basis Function,RBF)方法。 徑向基函數(shù)網(wǎng)絡(luò)比BP網(wǎng)絡(luò)需要更多的神經(jīng)元,但是它能夠按時(shí)間片來(lái)訓(xùn)練網(wǎng)絡(luò)。徑向基網(wǎng)絡(luò)是一種局部逼近網(wǎng)絡(luò),已證明它能以任意精度逼近任一連續(xù)函數(shù)。4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) 4.4.2 徑向基神經(jīng)網(wǎng)絡(luò)徑向基神經(jīng)網(wǎng)絡(luò) 構(gòu)成RBF網(wǎng)絡(luò)的:用RBF作為隱單元的“基”構(gòu)成隱含層空間,這樣就可將輸入矢量

9、直接(即不通過(guò)權(quán)連接)映射到隱空間。當(dāng)RBF的中心點(diǎn)確定以后,這種映射關(guān)系也就確定了。而隱含層空間到輸出空間的映射是線(xiàn)性的,即網(wǎng)絡(luò)的輸出是隱單元輸出的線(xiàn)性加權(quán)和。此處的權(quán)即為網(wǎng)絡(luò)可調(diào)參數(shù)。4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) 4.4.2 徑向基神經(jīng)網(wǎng)絡(luò)徑向基神經(jīng)網(wǎng)絡(luò) (1)徑向基函數(shù)網(wǎng)絡(luò)模型 RBF網(wǎng)絡(luò)由兩層組成,其結(jié)構(gòu)如圖4-10所示。4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) 4.4.2 徑向基神經(jīng)網(wǎng)絡(luò)徑向基神經(jīng)網(wǎng)絡(luò) (1)徑向基函數(shù)網(wǎng)絡(luò)模型 輸入層節(jié)點(diǎn)只是傳遞輸入信號(hào)到隱含層,隱含層節(jié)點(diǎn)由象高斯核函數(shù)那樣的輻射狀作用函數(shù)構(gòu)成,而輸出層節(jié)點(diǎn)通常是簡(jiǎn)單的線(xiàn)性函數(shù)。隱含層節(jié)點(diǎn)中的作用函數(shù)(核函數(shù))對(duì)輸入信號(hào)將在局部產(chǎn)生

10、響應(yīng)。 4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) (2)網(wǎng)絡(luò)輸出 RBF網(wǎng)絡(luò)的輸入層到隱含層實(shí)現(xiàn) 的非線(xiàn)性映射,徑向基網(wǎng)絡(luò)隱含層節(jié)點(diǎn)的作用函數(shù)一般取下列幾種形式)(xuxi4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) (2)網(wǎng)絡(luò)輸出最常用的是高斯激活函數(shù) 采用高斯基函數(shù),具備如下優(yōu)點(diǎn): 表示形式簡(jiǎn)單,即使對(duì)于多變量輸入也不增加太多的復(fù)改性; 徑向?qū)ΨQ(chēng); 光滑性好,任意階導(dǎo)數(shù)存在; 由于該基函數(shù)表示簡(jiǎn)單且解析性好,因而使于進(jìn)行理論分析。4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) (2)網(wǎng)絡(luò)輸出最常用的是高斯激活函數(shù) 采用高斯基函數(shù),具備如下優(yōu)點(diǎn): 表示形式簡(jiǎn)單,即使對(duì)于多變量輸入也不增加太多的復(fù)改性; 徑向?qū)ΨQ(chēng); 光滑性好,任意階導(dǎo)數(shù)存在;

11、由于該基函數(shù)表示簡(jiǎn)單且解析性好,因而使于進(jìn)行理論分析。4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) (2)網(wǎng)絡(luò)輸出 考慮到提高網(wǎng)絡(luò)精度和減少隱含層節(jié)點(diǎn)數(shù),也可以將網(wǎng)絡(luò)激活函數(shù)改成多變量正態(tài)密度函數(shù) 式中, 是輸入?yún)f(xié)方差陣的逆。 RBF網(wǎng)絡(luò)的隱含層到輸出層實(shí)現(xiàn) 的線(xiàn)性映射,即)()(1iTicxcxEKkiyxu)(4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) (2)網(wǎng)絡(luò)輸出式中, 是隱含層第 個(gè)節(jié)點(diǎn)的輸出; 是輸出層第 個(gè)節(jié)點(diǎn)的輸出; 是隱含層到輸出層的加權(quán)系數(shù); 是輸出層的閥值; 是隱含層節(jié)點(diǎn)數(shù)。 iuikykkiwkq4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) (3)RBF網(wǎng)絡(luò)的學(xué)習(xí)過(guò)程 RBF網(wǎng)絡(luò)的學(xué)習(xí)過(guò)程分為兩個(gè)階段。第一階段是無(wú)教師學(xué)

12、習(xí);第二階段是有教師學(xué)習(xí)。1) (a) 給定各隱節(jié)點(diǎn)的初始中心向量 和判定停止計(jì)算的 (b) 計(jì)算距離(歐氏距離)并求出最小距離的節(jié)點(diǎn);)0(ic4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) (3)RBF網(wǎng)絡(luò)的學(xué)習(xí)過(guò)程 (c)調(diào)整中心 (d)判定聚類(lèi)質(zhì)量 對(duì)于全部樣本 反復(fù)進(jìn)行以上(b),(c)步,直至滿(mǎn)足以上條件。 k4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) (3)RBF網(wǎng)絡(luò)的學(xué)習(xí)過(guò)程 2) 有教師學(xué)習(xí)也稱(chēng)為有監(jiān)督學(xué)習(xí)。當(dāng) 確定以后,訓(xùn)練由隱含層至輸出層之間的權(quán)值,由上可知,它是一個(gè)線(xiàn)性方程組,則求權(quán)值就成為線(xiàn)性?xún)?yōu)化問(wèn)題。 隱含層至輸出層之間的連接權(quán)值 學(xué)習(xí)算法為式中, , 為高斯函數(shù)。ickiwT21)()()(xuxu

13、xuuq)(xui4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) (3)RBF網(wǎng)絡(luò)有關(guān)的幾個(gè)問(wèn)題 從理論上而言,RBF網(wǎng)絡(luò)和BP網(wǎng)絡(luò)一樣可近似任何連續(xù)非線(xiàn)性函數(shù)。已證明RBF網(wǎng)絡(luò)具有惟一最佳通近的特性,且無(wú)局部極小。求RBF網(wǎng)絡(luò)隱節(jié)點(diǎn)的中心向量 和標(biāo)準(zhǔn)化常數(shù) 是一個(gè)困難的問(wèn)題。徑向基函數(shù),即徑向?qū)ΨQ(chēng)函數(shù)有多種。(RBF網(wǎng)絡(luò)雖具有惟一最佳逼近的特性以及無(wú)局部極小的優(yōu)點(diǎn),但隱節(jié)點(diǎn)的中心難求,這是該網(wǎng)絡(luò)難以廣泛應(yīng)用的原因。RBF網(wǎng)絡(luò)學(xué)習(xí)速度很快,適于在線(xiàn)實(shí)時(shí)控制。 ici4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) 4.4.3 Hopfield網(wǎng)絡(luò)網(wǎng)絡(luò) 美國(guó)物理學(xué)家Hopfield在1982年首先提出了一種由非線(xiàn)性元件構(gòu)成的單層反饋網(wǎng)絡(luò)

14、系統(tǒng),稱(chēng)這種單層反饋網(wǎng)絡(luò)為Hopfield網(wǎng)絡(luò)。圖4-11給出Hopfield網(wǎng)絡(luò)的一種結(jié)構(gòu)形式。 4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) (1)Hopfield網(wǎng)絡(luò)模型 Hopfield網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)可看作全連接加權(quán)無(wú)向圖,它是一種網(wǎng)狀網(wǎng)絡(luò),可分為離散和連續(xù)兩種類(lèi)型。離散網(wǎng)絡(luò)的節(jié)點(diǎn)僅取+1和-1(或0和1)兩個(gè)值,而連續(xù)網(wǎng)絡(luò)取0和1之間任一實(shí)數(shù)。 設(shè)此網(wǎng)絡(luò)含有 個(gè)神經(jīng)元,神經(jīng)元 的狀態(tài) 取0或1,各神經(jīng)元按下列規(guī)則隨機(jī)地、異步地改變狀態(tài) niiS4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) (1)Hopfield網(wǎng)絡(luò)模型 Hopfield網(wǎng)絡(luò)模型的:只要由神經(jīng)元興奮的算法和聯(lián)接權(quán)系數(shù)所決定的神經(jīng)網(wǎng)絡(luò)的狀態(tài),在適當(dāng)給定的興

15、奮模式下尚未達(dá)到穩(wěn)定狀態(tài),那么該狀態(tài)就會(huì)一直變化下去,直到預(yù)先定義的一個(gè)必定減小的能量函數(shù)達(dá)到極小值時(shí),狀態(tài)才達(dá)到穩(wěn)定而不再變化。 4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) (2)Hopfield網(wǎng)絡(luò)的聯(lián)想記憶功能 Hopfield網(wǎng)絡(luò)的聯(lián)想記憶過(guò)程,從動(dòng)力學(xué)的角度就是非線(xiàn)性動(dòng)力學(xué)系統(tǒng)朝著某個(gè)穩(wěn)定狀態(tài)運(yùn)行的過(guò)程,這一過(guò)程可分為和兩個(gè)階段。 在給定樣本的條件下,按照Hebb學(xué)習(xí)規(guī)則,調(diào)整聯(lián)接權(quán)值,使得存儲(chǔ)的樣本成為動(dòng)力學(xué)的吸引子,這個(gè)過(guò)程就是學(xué)習(xí)階段。而聯(lián)想是指在已調(diào)整好權(quán)值不變的情況下,給出部分不全或受了干擾的信息,按照動(dòng)力學(xué)規(guī)則改變神經(jīng)元的狀態(tài),使系統(tǒng)最終變到動(dòng)力學(xué)的吸引子。即指收斂于某一點(diǎn),或周期性迭代

16、(極限環(huán)),或處于混沌狀態(tài)。4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) (2)Hopfield網(wǎng)絡(luò)的聯(lián)想記憶功能 Hopfield網(wǎng)絡(luò)用于聯(lián)想記憶的學(xué)習(xí)算法,本算法取偏流I為零。 1) 按照Hebb規(guī)則設(shè)置權(quán)值 2) 對(duì)未知樣本初始化4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) (2)Hopfield網(wǎng)絡(luò)的聯(lián)想記憶功能 3) 迭代計(jì)算 直至節(jié)點(diǎn)輸出狀態(tài)不改變時(shí),迭代結(jié)束。此時(shí)節(jié)點(diǎn)的輸出狀態(tài)即為未知輸入最佳匹配的樣本。 4) 返回 2)繼續(xù)迭代。 4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) (3)Hopfield網(wǎng)絡(luò)的的優(yōu)化計(jì)算功能 Hopfield網(wǎng)絡(luò)理論的認(rèn)為,網(wǎng)絡(luò)從高能狀態(tài)轉(zhuǎn)移到最小能量狀態(tài),則達(dá)到收斂,獲得穩(wěn)定的解,完成網(wǎng)絡(luò)功能。Hop

17、field網(wǎng)絡(luò)所構(gòu)成的動(dòng)力學(xué)系統(tǒng)與固體物理學(xué)模型自旋玻璃相似,可用二次能量函數(shù)來(lái)描述系統(tǒng)的狀態(tài),系統(tǒng)從高能狀態(tài)到低能的穩(wěn)定狀態(tài)的變化過(guò)程,相似于滿(mǎn)足約束問(wèn)題的搜索最優(yōu)解的過(guò)程。4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) (3)Hopfield網(wǎng)絡(luò)的的優(yōu)化計(jì)算功能 Hopfield網(wǎng)絡(luò)可用于優(yōu)化問(wèn)題的計(jì)算。Hopfield網(wǎng)絡(luò)用于優(yōu)化問(wèn)題的計(jì)算與用于聯(lián)想記憶的計(jì)算過(guò)程是對(duì)偶的。在解決優(yōu)化問(wèn)題時(shí),權(quán)矩陣W已知,目的是求取最大能量正的穩(wěn)定狀態(tài)。為此,必須將待優(yōu)化的問(wèn)題映射到網(wǎng)絡(luò)的相應(yīng)于優(yōu)化問(wèn)題可能解的特定組態(tài)上,再構(gòu)造一待優(yōu)化問(wèn)題的能量函數(shù),它應(yīng)和優(yōu)化問(wèn)題中的二次型代價(jià)函數(shù)成正比例。 4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) 4.4.4 小腦模型關(guān)聯(lián)控制器小腦模型關(guān)聯(lián)控制器CMAC網(wǎng)絡(luò)網(wǎng)絡(luò) 1975年,Albus根據(jù)神經(jīng)生理學(xué)小腦皮層結(jié)構(gòu)特點(diǎn),提出了一種小腦模型關(guān)聯(lián)控制器(Cerebellum Model Articulation Controller),簡(jiǎn)記為CMAC網(wǎng)絡(luò)。經(jīng)過(guò)多年的研究,其中包括Mille

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論