模糊神經網絡精品課件_第1頁
模糊神經網絡精品課件_第2頁
模糊神經網絡精品課件_第3頁
模糊神經網絡精品課件_第4頁
模糊神經網絡精品課件_第5頁
已閱讀5頁,還剩69頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

1、模糊神經網絡第1頁,共74頁,2022年,5月20日,6點57分,星期四 “當系統(tǒng)的復雜性增加時,我們使它精確化的能力將減小。直到達到一個閾值,一旦超越它,復雜性和精確性將互相排斥。” 模糊數(shù)學創(chuàng)始人教授互克性原理第2頁,共74頁,2022年,5月20日,6點57分,星期四雨的大小風的強弱人的胖瘦年齡大小個子高低天氣冷熱第3頁,共74頁,2022年,5月20日,6點57分,星期四 客觀世界的模糊性反映在人腦中,便產生了概念上的模糊性;人巧妙地利用自已建立的模糊概念來進行判斷、推理和控制,完成那些現(xiàn)代先進設備所不能完成的工作: 人們幾乎可以同樣地辨認胖子和瘦子,美麗和丑陋; 人們無須測量車速便可

2、明智地躲過川流不息的車隊; 一行草書雖然大異于整齊的印刷字體,卻照樣可以被人看懂。第4頁,共74頁,2022年,5月20日,6點57分,星期四在科學發(fā)展的今天,尤其在工程研究設計領域,模糊問題無法回避,要求對數(shù)據(jù)進行定量分析。模糊概念定量分析?第5頁,共74頁,2022年,5月20日,6點57分,星期四1、模糊理論 1965年,Zadeh教授發(fā)表論文“模糊集合”(Fuzzy set),標志模糊數(shù)學的誕生。模糊集合的基本思想是把經典集合中的絕對隸屬關系靈活化,即元素對“集合”的隸屬度不再是局限于取0或1,而是可以取從0到1間的任一數(shù)值。用隸屬函數(shù)(Membership Function)來刻畫處

3、于中間過渡的事物對差異雙方所具有的傾向性。隸屬度(Membership Degree)就表示元素隸屬于集合的程度。第6頁,共74頁,2022年,5月20日,6點57分,星期四設X是論域,映射A(x):X0,1確定了一個X上的模糊子集A,A(x)稱為A的隸屬函數(shù)。第7頁,共74頁,2022年,5月20日,6點57分,星期四例1第8頁,共74頁,2022年,5月20日,6點57分,星期四例2第9頁,共74頁,2022年,5月20日,6點57分,星期四隸屬函數(shù)是模糊理論中的重要概念,實際應用中經常用到以下三類隸屬函數(shù):(1)S函數(shù)(偏大型隸屬函數(shù))注:(a、b為待定參數(shù))第10頁,共74頁,2022

4、年,5月20日,6點57分,星期四(2)Z函數(shù)(偏小型隸屬函數(shù))這種隸屬函數(shù)可用于表示像年輕、冷、矮、淡等偏向小的一方的模糊現(xiàn)象。(3)函數(shù)(中間型隸屬函數(shù)) 這種隸屬函數(shù)可用于表示像中年、適中、平均等趨于中間的模糊現(xiàn)象。第11頁,共74頁,2022年,5月20日,6點57分,星期四圖a、b、c分別表示偏大型、偏小型和中間型第12頁,共74頁,2022年,5月20日,6點57分,星期四常用的模糊分布有矩形分布或半矩形分別、梯形或半梯形分布、拋物線型分布、正態(tài)分布、高斯分布、鐘型函數(shù)等等。 (1)矩形或半矩形分布 第13頁,共74頁,2022年,5月20日,6點57分,星期四(2)梯形或半梯形分

5、布 (3)拋物線形分布 第14頁,共74頁,2022年,5月20日,6點57分,星期四(4)正態(tài)分布 (5)高斯分布第15頁,共74頁,2022年,5月20日,6點57分,星期四鐘型函數(shù)第16頁,共74頁,2022年,5月20日,6點57分,星期四三角形隸屬函數(shù)梯形隸屬函數(shù)高斯形隸屬函數(shù)鐘型隸屬函數(shù)第17頁,共74頁,2022年,5月20日,6點57分,星期四2、模糊系統(tǒng)(Fussy System,簡稱FS) 許多實際的應用系統(tǒng)很難用準確的術語來描述。如化學過程中的“溫度很高”、“反應驟然加快”等。 模糊系統(tǒng)(也稱模糊邏輯系統(tǒng))就是以模糊規(guī)則為基礎而具有模糊信息處理能力的動態(tài)模型。第18頁,共

6、74頁,2022年,5月20日,6點57分,星期四2.1 模糊系統(tǒng)的構成 模糊系統(tǒng)(也稱模糊邏輯系統(tǒng))就是以模糊規(guī)則為基礎而具有模糊信息處理能力的動態(tài)模型。它由四部分構成,如下圖:第19頁,共74頁,2022年,5月20日,6點57分,星期四(1)模糊化接口(Fuzzification)模糊化接口主要將檢測輸入變量的精確值根據(jù)其模糊度劃分和隸屬度函數(shù)轉換成合適的模糊值。 為了盡量減少模糊規(guī)則數(shù),可對于檢測和控制精度要求高的變量劃分多(一般5一7個)的模糊度,反之則劃分少(一般3個)的模糊度。當完成變量的模糊度劃分后,需定義變量各模糊集的隸屬函數(shù)。第20頁,共74頁,2022年,5月20日,6點

7、57分,星期四第21頁,共74頁,2022年,5月20日,6點57分,星期四(2)知識庫(knowledge base)知識庫中存貯著有關模糊控制器的一切知識,包含了具體應用領域中的知識和要求的控制目標,它們決定著模糊控制器的性能,是模糊控制器的核心。 如專家經驗等。比如:If渾濁度 清,變化率 零,then洗滌時間 短 If渾濁度 較濁,變化率 小,then洗滌時間 標準第22頁,共74頁,2022年,5月20日,6點57分,星期四(3)模糊推理機( Fuzzy Inference Engine)根據(jù)模糊邏輯法則把模糊規(guī)則庫中的模糊“if-then”規(guī)則轉換成某種映射。模糊推理,這是模糊控制

8、器的核心,模擬人基于模糊概念的推理能力。第23頁,共74頁,2022年,5月20日,6點57分,星期四(4)反模糊化器(Defuzzification) 把輸出的模糊量轉化為實際用于控制的清晰量。 第24頁,共74頁,2022年,5月20日,6點57分,星期四按照常見的形式,模糊推理系統(tǒng)可分為: 純模糊邏輯系統(tǒng) 高木-關野(Takagi-Sugeno)模糊邏輯系統(tǒng) 其他模糊邏輯系統(tǒng)2.2 模糊系統(tǒng)的分類第25頁,共74頁,2022年,5月20日,6點57分,星期四2.2.1 純模糊邏輯系統(tǒng)純模糊邏輯系統(tǒng)僅由知識庫和模糊推理機組成。其輸入輸出均是模糊集合。第26頁,共74頁,2022年,5月20

9、日,6點57分,星期四純模糊邏輯系統(tǒng)結構圖第27頁,共74頁,2022年,5月20日,6點57分,星期四純模糊邏輯系統(tǒng)的優(yōu)點:提供了一種量化專輯語言信息和在模糊邏輯原則下系統(tǒng)地利用這類語言信息的一般化模式;缺點:輸入輸出均為模糊集合,不易為絕大數(shù)工程系統(tǒng)所應用。第28頁,共74頁,2022年,5月20日,6點57分,星期四2.2.2 高木-關野模糊系統(tǒng)該系統(tǒng)是由日本學者Takagi和Sugeno提出的,系統(tǒng)輸出為精確值,也稱為T-S模糊系統(tǒng)或Sugeno系統(tǒng)。舉例:第29頁,共74頁,2022年,5月20日,6點57分,星期四典型的一階Sugeno型模糊規(guī)則形式如下: 其中: x和y為輸入語言

10、變量;A和B為推理前件的模糊集合;z為輸出語言變量;p、q、k為常數(shù)。 第30頁,共74頁,2022年,5月20日,6點57分,星期四2.3 自適應模糊系統(tǒng) 自適應模糊系統(tǒng)是指具有學習算法的模糊邏輯系統(tǒng),其中模糊邏輯系統(tǒng)是由服從模糊邏輯規(guī)則的一系列“If-then”規(guī)則構造的;學習算法則依靠數(shù)據(jù)信息來調整模糊邏輯系統(tǒng)的參數(shù)。 自適應模糊系統(tǒng)被認為是通過學習能自動產生其模糊規(guī)則的模糊邏輯系統(tǒng)。 第31頁,共74頁,2022年,5月20日,6點57分,星期四(1)從知識的表達方式來看模糊系統(tǒng)可以表達人的經驗性知識,便于理解,而神經網絡只能描述大量數(shù)據(jù)之間的復雜函數(shù)關系,難于理解。(2)從知識的存儲

11、方式來看模糊系統(tǒng)將知識存在規(guī)則集中,神經網絡將知識存在權系數(shù)中,都具有分布存儲的特點。2.4 模糊系統(tǒng)與神經網絡的區(qū)別與聯(lián)系第32頁,共74頁,2022年,5月20日,6點57分,星期四(3)從知識的運用方式來看模糊系統(tǒng)和神經網絡都具有并行處理的特點,模糊系統(tǒng)同時激活的規(guī)則不多,計算量小,而神經網絡涉及的神經元很多,計算量大。(4)從知識的獲取方式來看模糊系統(tǒng)的規(guī)則靠專家提供或設計,難于自動獲取而神經網絡的權系數(shù)可由輸入輸出樣本中學習,無需人來設置。第33頁,共74頁,2022年,5月20日,6點57分,星期四 將兩者結合起來,在處理大規(guī)模的模糊應用問題方面將表現(xiàn)出優(yōu)良的效果。 第34頁,共7

12、4頁,2022年,5月20日,6點57分,星期四模糊神經網絡?第35頁,共74頁,2022年,5月20日,6點57分,星期四3、模糊神經網絡(FNN) 模糊神經網絡(Fuzzy Neural Network,簡稱FNN)將模糊系統(tǒng)和神經網絡相結合,充分考慮了二者的互補性,集邏輯推理、語言計算、非線性動力學于一體,具有學習、聯(lián)想、識別、自適應和模糊信息處理能力等功能。 其本質就是將常規(guī)的神經網絡輸入模糊輸入信號和模糊權值。 第36頁,共74頁,2022年,5月20日,6點57分,星期四在模糊神經網絡中,神經網絡的輸入、輸出節(jié)點用來表示模糊系統(tǒng)的輸入、輸出信號,神經網絡的隱含節(jié)點用來表示隸屬函數(shù)和

13、模糊規(guī)則,利用神經網絡的并行處理能力使得模糊系統(tǒng)的推理能力大大提高。第37頁,共74頁,2022年,5月20日,6點57分,星期四 模糊神經網絡的三種形式:邏輯模糊神經網絡算術模糊神經網絡(常規(guī)模糊神經網絡)混合模糊神經網絡第38頁,共74頁,2022年,5月20日,6點57分,星期四3.1 典型模糊神經網絡的結構由于模糊系統(tǒng)的規(guī)則集和隸屬度函數(shù)等設計參數(shù)只能靠設計經驗來選擇,所以用神經網絡的學習方法,根據(jù)輸入輸出的學習樣本自動設計和調整模糊系統(tǒng)的設計參數(shù),實現(xiàn)模糊系統(tǒng)的自學習和自適應功能。結構上像神經網絡,功能上是模糊系統(tǒng),這是目前研究和應用最多的一類模糊神經網絡。第39頁,共74頁,202

14、2年,5月20日,6點57分,星期四 該網絡共分5層,是根據(jù)模糊系統(tǒng)的工作過程來設計的,是神經網絡實現(xiàn)的模糊推理系統(tǒng)。第二層的隸屬函數(shù)參數(shù)和三、四層間及四、五層間的連接權是可以調整的。第40頁,共74頁,2022年,5月20日,6點57分,星期四典型的模糊神經網絡結構第一層為輸入層,為精確值。節(jié)點個數(shù)為輸入變量的個數(shù)。第41頁,共74頁,2022年,5月20日,6點57分,星期四典型的模糊神經網絡結構第二層為輸入變量的隸屬函數(shù)層,實現(xiàn)輸入變量的模糊化。第42頁,共74頁,2022年,5月20日,6點57分,星期四典型的模糊神經網絡結構第三層也稱“與”層,該層節(jié)點個數(shù)為模糊規(guī)則數(shù)。該層每個節(jié)點只

15、與第二層中前m個節(jié)點中的一個和后n個節(jié)點中的一個相連,共有m n個節(jié)點,也就是有m n條規(guī)則。第43頁,共74頁,2022年,5月20日,6點57分,星期四典型的模糊神經網絡結構第四層為“或”層,節(jié)點數(shù)為輸出變量模糊度劃分的個數(shù)q。該層與第三層的連接為全互連,連接權值為Wkj,其中k=1,2,q; j=1,2,mn.(權值代表了每條規(guī)則的置信度,訓練中可調。)第44頁,共74頁,2022年,5月20日,6點57分,星期四典型的模糊神經網絡結構第五層為清晰化層,節(jié)點數(shù)為輸出變量的個數(shù)。該層與第四層的連接為全互連,該層將第四層各個節(jié)點的輸出,轉換為輸出變量的精確值。第45頁,共74頁,2022年,

16、5月20日,6點57分,星期四3.2 模糊神經網絡的學習算法模糊神經網絡無論作為逼近器,還是模式存儲器,都是需要學習和優(yōu)化權系數(shù)的。學習算法是模糊神經網絡優(yōu)化權系數(shù)的關鍵。模糊神經網絡的學習算法,大多來自神經網絡,如BP算法、RBF算法等。第46頁,共74頁,2022年,5月20日,6點57分,星期四Matlab實現(xiàn)自適應模糊神經推理系統(tǒng),也稱為基于神經網絡的自適應模糊推理系統(tǒng)(Adaptive Network-based Fuzzy Inference System),簡稱ANFIS,1993年由學者Jang Roger提出。融合了神經網絡的學習機制和模糊系統(tǒng)的語言推理能力等優(yōu)點,彌補各自不

17、足。同其他模糊神經系統(tǒng)相比,ANFIS具有便捷高效的特點。第47頁,共74頁,2022年,5月20日,6點57分,星期四ANFIS使用一個給定的輸入輸出數(shù)據(jù)集,從而構造出一個模糊推理系統(tǒng)(支持T-S型系統(tǒng)),并用一個單獨的反向傳播算法或該算法與最小二乘法相結合的方法來完成對系統(tǒng)隸屬函數(shù)參數(shù)的調節(jié)。這使得模糊系統(tǒng)可以從其建模數(shù)據(jù)中學習信息。 第48頁,共74頁,2022年,5月20日,6點57分,星期四ANFIS建模方法 首先假定一個參數(shù)化的模型結構,然后采集輸入輸出的數(shù)據(jù),最后使用ANFIS訓練FIS(fuzzy inference system)模型,根據(jù)選定的誤差準則修正隸屬函數(shù)參數(shù),仿真

18、給定的訓練數(shù)據(jù)。第49頁,共74頁,2022年,5月20日,6點57分,星期四具體步驟:(1)將選取的訓練樣本和評價樣本分別寫入兩個.dat文件。如trainData.dat和checkData,dat作為ANFIS的數(shù)據(jù)源,在ANFIS編輯器中載入這兩個樣本數(shù)據(jù)。 load trainData.dat load checkData.dat第50頁,共74頁,2022年,5月20日,6點57分,星期四(2)初始化模糊推理系統(tǒng)FIS的參數(shù),包括選擇輸入的隸屬度函數(shù),利用規(guī)則編輯器生成規(guī)則等等,作為訓練初始的FIS。 fismat= genfis1(trainData)fismat = genfi

19、s1(data) fismat = genfis1(data,numMFs,inmftype, outmftype) The default number of membership functions, numMFs, is 2; the default input membership function type is gbellmf; and the default output membership function type is linear. 第51頁,共74頁,2022年,5月20日,6點57分,星期四(3)根據(jù)載入ANFIS編輯器中的訓練樣本和評價樣本數(shù)據(jù),利用anfis函數(shù)

20、對已初始化的FIS結構進行訓練。 fismat,error,stepsize = anfis(trnData,fismat,n) 注:fismat是已初始化的FIS結構,n為訓練次數(shù)。(4)利用evalfis、plot等函數(shù),對訓練好的模糊神經 推理系統(tǒng)進行驗證。 如 evalfis(x1,x2,,format); plot(error)第52頁,共74頁,2022年,5月20日,6點57分,星期四例1:設某水泥廠煤粉制備系統(tǒng)煤磨的輸入輸出特征數(shù)據(jù)見下表。利用表中樣本建立一個模糊神經推理系統(tǒng)。表:輸入輸出樣本X1-X5為煤磨機的特征參數(shù),Y為煤磨機的狀態(tài)(正常或異常)第53頁,共74頁,202

21、2年,5月20日,6點57分,星期四(1)將1-9作為訓練樣本,10-11作為評價樣本。(2)將表中的訓練樣本寫入trainData.dat,作為ANFIS的數(shù)據(jù)源,并在ANFIS編輯器中載入樣本數(shù)據(jù):load trainData.dat(3)利用ANFIS自動生成一個FIS結構作為初始FIS。 in_format=genfis1(trainData)(4)對初始FIS(in_format)進行訓練。對樣本數(shù)據(jù)訓練200次后得到一個訓練好的ANFIS系統(tǒng)。 format1,error1,stepsize=anfis(trainData,in_format,200)第54頁,共74頁,2022年

22、,5月20日,6點57分,星期四(5)運用評價數(shù)據(jù)對訓練好的模糊神經系統(tǒng)進行驗證,觀察仿真結果。 如input=58 16 11 793 3302;33 10 11 783 3114, evalfis(input,format1)第55頁,共74頁,2022年,5月20日,6點57分,星期四例2:anfis函數(shù)逼近函數(shù) 分別在區(qū)間: 進行函數(shù)逼近。第56頁,共74頁,2022年,5月20日,6點57分,星期四x1,x2=meshgrid(-1:0.1:1,-1:0.05:1); %將輸入空間劃分為41*21個網格點y=0.5*(pi*(x1.2).*sin(2*pi*x2); %求得函數(shù)輸出值

23、x11=reshape(x1,861,1); %將輸入變量變?yōu)榱邢蛄縳12=reshape(x2,861,1); %將輸入變量變?yōu)榱邢蛄縴1=reshape(y,861,1); %將輸出變量變?yōu)榱邢蛄縯rnData=x11(1:2:861) x12(1:2:861) y1(1:2:861); %構造訓練數(shù)據(jù)chkData=x11 x12 y1; %構造檢驗數(shù)據(jù)numMFs=5; %定義隸屬函數(shù)個數(shù)mfType=gbellmf;epoch_n=20; %定義隸屬函數(shù)類型及訓練次數(shù)in_fisMat=genfis1(trnData,numMFs,mfType); %采用genfis1函數(shù)由訓練數(shù)據(jù)

24、直接生成模糊推理系統(tǒng)參考代碼第57頁,共74頁,2022年,5月20日,6點57分,星期四out_fisMat=anfis(trnData,in_fisMat, epoch_n); %訓練模糊系統(tǒng)y11=evalfis(chkData(:,1:2),out_fisMat); %對訓練好的模糊神經推理系統(tǒng)進行驗證x111=reshape(x11,41,21);x112=reshape(x12,41,21);y111=reshape(y11,41,21); %構造41*21向量矩陣subplot(221),mesh(x1,x2,y);title(期望輸出);subplot(222),mesh(x1

25、11,x112,y111);title(實際輸出);subplot(223),mesh(x1,x2,(y-y111);title(誤差);x,mf=plotmf(in_fisMat,input,1);x,mf1=plotmf(out_fisMat,input,1);subplot(224),plot(x,mf,r-,x,mf1,k-);title(隸屬度函數(shù)變化);第58頁,共74頁,2022年,5月20日,6點57分,星期四訓練后的模糊神經網絡結構圖 第59頁,共74頁,2022年,5月20日,6點57分,星期四運行結果第60頁,共74頁,2022年,5月20日,6點57分,星期四也可以:運用ANFIS構建模型,首先在打開MATLAB,并在命令行中鍵入“anfisedit”,從而打開ANFIS編輯器操作界面。第61頁,共74頁,2022年,5月20日,6點57分,星期四編輯FIS屬性第62頁,共74頁,2022年,5月20日,6點57分,星期四可以修改輸入變量、輸出變量的個數(shù)等。第63頁,共74頁,2022年,5月20日,6點57分,星期四下一步根據(jù)實際要求定義各個量的屬性?!癊dit”“Me

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論