BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測中的應(yīng)用解析_第1頁
BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測中的應(yīng)用解析_第2頁
BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測中的應(yīng)用解析_第3頁
BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測中的應(yīng)用解析_第4頁
BP神經(jīng)網(wǎng)絡(luò)在分類與預(yù)測中的應(yīng)用解析_第5頁
已閱讀5頁,還剩89頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

1、一、 BP神經(jīng)網(wǎng)絡(luò)二、 徽章的分類三、光催化臭氧氧化處理自來水1.1 神經(jīng)網(wǎng)絡(luò)(Artificial Neural Netwroks,簡稱ANN)1.1.1 研究ANN目的 利用機器模仿人類的智能是長期以來人們認識自然、改造自然和認識自身的理想。 (1) 探索和模擬人的感覺、思維和行為的規(guī)律,設(shè)計具有人類智能的計算機系統(tǒng)。 (2) 探討人腦的智能活動,用物化了的智能來考察和研究人腦智能的物質(zhì)過程及其規(guī)律。1.1 神經(jīng)網(wǎng)絡(luò)(Artificial Neural Netwroks,簡稱ANN)1.1.1 研究ANN目的1.1.2 研究ANN方法(1) (1) 生生理結(jié)構(gòu)的模擬理結(jié)構(gòu)的模擬 用仿生學(xué)觀

2、點,探索人腦的生理結(jié)構(gòu),把對人腦的微觀結(jié)構(gòu)及其智能行為的研究結(jié)合起來即人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Netwroks,簡稱ANN)方法。1.1 神經(jīng)網(wǎng)絡(luò)(Artificial Neural Netwroks,簡稱ANN)1.1.1 研究ANN目的1.1.2 研究ANN方法(1) (1) 生生理結(jié)構(gòu)的模擬理結(jié)構(gòu)的模擬(2) (2) 宏觀功能的模擬宏觀功能的模擬 從人的思維活動和智能行為的心理學(xué)特性出發(fā),利用計算機系統(tǒng)來對人腦智能進行宏觀功能的模擬,即符號處理方法。1.1 神經(jīng)網(wǎng)絡(luò)(Artificial Neural Netwroks,簡稱ANN)1.1.1 研究ANN目的1.

3、1.2 研究ANN方法1.1.3 ANN的研究內(nèi)容(1) (1) 理理論研究論研究 ANN模型及其學(xué)習(xí)算法,試圖從數(shù)學(xué)上描述ANN的動力學(xué)過程,建立相應(yīng)的ANN模型,在該模型的基礎(chǔ)上,對于給定的學(xué)習(xí)樣本,找出一種能以較快的速度和較高的精度調(diào)整神經(jīng)元間互連權(quán)值,使系統(tǒng)達到穩(wěn)定狀態(tài),滿足學(xué)習(xí)要求的算法。1.1 神經(jīng)網(wǎng)絡(luò)(Artificial Neural Netwroks,簡稱ANN)1.1.1 研究ANN目的1.1.2 研究ANN方法1.1.3 ANN的研究內(nèi)容(1) (1) 理理論研究論研究(2) (2) 實現(xiàn)技術(shù)的研究實現(xiàn)技術(shù)的研究 探討利用電子、光學(xué)、生物等技術(shù)實現(xiàn)神經(jīng)計算機的途徑。1.1

4、 神經(jīng)網(wǎng)絡(luò)(Artificial Neural Netwroks,簡稱ANN)1.1.1 研究ANN目的1.1.2 研究ANN方法1.1.3 ANN的研究內(nèi)容(1) (1) 理理論研究論研究(2) (2) 實現(xiàn)技術(shù)的研究實現(xiàn)技術(shù)的研究(3) (3) 應(yīng)用的研究應(yīng)用的研究 探討如何應(yīng)用ANN解決實際問題,如模式識別、故障檢測、智能機器人等。1.1 神經(jīng)網(wǎng)絡(luò)(Artificial Neural Netwroks,簡稱ANN)1.1.1 研究ANN目的1.1.2 研究ANN方法1.1.3 ANN的研究內(nèi)容1.1.4 人工神經(jīng)網(wǎng)絡(luò)概述 人工神經(jīng)網(wǎng)絡(luò)是由具有適應(yīng)性簡單的單元組成的廣泛并行互連的網(wǎng)絡(luò),它的

5、組織能夠模擬生物神經(jīng)系統(tǒng)對真實物體所作出的交互作用。1.1 神經(jīng)網(wǎng)絡(luò)(Artificial Neural Netwroks,簡稱ANN)1.1.1 研究ANN目的1.1.2 研究ANN方法1.1.3 ANN的研究內(nèi)容1.1.4 人工神經(jīng)網(wǎng)絡(luò)概述 1.1.5 腦神經(jīng)信息活動的特征(1) (1) 巨量并行性巨量并行性(2) (2) 信息處理和存儲單元的有機結(jié)合信息處理和存儲單元的有機結(jié)合(3) (3) 自組織自學(xué)習(xí)功能自組織自學(xué)習(xí)功能 1.1.6 ANN研究的目的和意義1.1 神經(jīng)網(wǎng)絡(luò)(Artificial Neural Netwroks,簡稱ANN)1.1.1 研究ANN目的1.1.2 研究AN

6、N方法1.1.3 ANN的研究內(nèi)容1.1.4 人工神經(jīng)網(wǎng)絡(luò)概述 1.1.5 腦神經(jīng)信息活動的特征 (1) 通過揭示物理平面與認知平面之間的映射,了解它們相互聯(lián)系和相互作用的機理,揭示思維的本質(zhì),探索智能的本源。1.1.6 ANN研究的目的和意義1.1 神經(jīng)網(wǎng)絡(luò)(Artificial Neural Netwroks,簡稱ANN)1.1.1 研究ANN目的1.1.2 研究ANN方法1.1.3 ANN的研究內(nèi)容1.1.4 人工神經(jīng)網(wǎng)絡(luò)概述 1.1.5 腦神經(jīng)信息活動的特征 (2) 爭取構(gòu)造出盡可能與人腦具有相似功能的計算機,即ANN計算機。 1.1.6 ANN研究的目的和意義1.1 神經(jīng)網(wǎng)絡(luò)(Art

7、ificial Neural Netwroks,簡稱ANN)1.1.1 研究ANN目的1.1.2 研究ANN方法1.1.3 ANN的研究內(nèi)容1.1.4 人工神經(jīng)網(wǎng)絡(luò)概述 1.1.5 腦神經(jīng)信息活動的特征 (3) 研究仿照腦神經(jīng)系統(tǒng)的人工神經(jīng)網(wǎng)絡(luò),將在模式識別、組合優(yōu)化和決策判斷等方面取得傳統(tǒng)計算機所難以達到的效果。 1.1.6 ANN研究的目的和意義1.1.7 神經(jīng)網(wǎng)絡(luò)研究的發(fā)展1.1 神經(jīng)網(wǎng)絡(luò)(Artificial Neural Netwroks,簡稱ANN)1.1.1 研究ANN目的1.1.2 研究ANN方法1.1.3 ANN的研究內(nèi)容1.1.4 人工神經(jīng)網(wǎng)絡(luò)概述 1.1.5 腦神經(jīng)信息活

8、動的特征 (1) 第一次熱潮(40-60年代未) 1943年,美國心理學(xué)家W.McCulloch和數(shù)學(xué)家W. Pitts在提出了一個簡單的神經(jīng)元模型,即MP模型.1958年,F(xiàn).Rosenblatt等研制出了感知機(Perceptron)。1.1.6 ANN研究的目的和意義1.1.7 神經(jīng)網(wǎng)絡(luò)研究的發(fā)展1.1 神經(jīng)網(wǎng)絡(luò)(Artificial Neural Netwroks,簡稱ANN)1.1.1 研究ANN目的1.1.2 研究ANN方法1.1.3 ANN的研究內(nèi)容1.1.4 人工神經(jīng)網(wǎng)絡(luò)概述 1.1.5 腦神經(jīng)信息活動的特征 (2) 低潮(70-80年代初) (3) 第二次熱潮 1982年,美

9、國物理學(xué)家J.J.Hopfield提出Hopfield模型,它是一個互聯(lián)的非線性動力學(xué)網(wǎng)絡(luò), 他解決問題的方法是一種反復(fù)運算的動態(tài)過程,這是符號邏輯處理方法所不具備的性質(zhì)。1987年首屆國際ANN大會在圣地亞哥召開,國際ANN聯(lián)合會成立,創(chuàng)辦了多種ANN國際刊物。1.1 神經(jīng)網(wǎng)絡(luò)(Artificial Neural Netwroks,簡稱ANN)1.1.8 神經(jīng)網(wǎng)絡(luò)基本模型細胞體突觸軸突樹突圖12.2 生物神經(jīng)元功能模型輸入輸出信息處理電脈沖形成傳輸1.1.9 人工神經(jīng)網(wǎng)絡(luò)研究的局限性1.1 神經(jīng)網(wǎng)絡(luò)(Artificial Neural Netwroks,簡稱ANN)1.1.8 神經(jīng)網(wǎng)絡(luò)基本模

10、型(1 1)ANN研究受到腦科學(xué)研究成果的限制研究受到腦科學(xué)研究成果的限制(2 2)ANN缺少一個完整、成熟的理論體系缺少一個完整、成熟的理論體系(3 3)ANN研究帶有濃厚的策略和經(jīng)驗色彩研究帶有濃厚的策略和經(jīng)驗色彩(4 4)ANN與傳統(tǒng)技術(shù)的接口不成熟與傳統(tǒng)技術(shù)的接口不成熟1.1.9 人工神經(jīng)網(wǎng)絡(luò)研究的局限性1.1 神經(jīng)網(wǎng)絡(luò)(Artificial Neural Netwroks,簡稱ANN)1.1.8 神經(jīng)網(wǎng)絡(luò)基本模型細胞體突觸軸突樹突圖 12.2 生物神經(jīng)元功能模型輸入輸出信息處理電脈沖形成傳輸黑箱1.1.9 人工神經(jīng)網(wǎng)絡(luò)研究的局限性1.1 神經(jīng)網(wǎng)絡(luò)(Artificial Neural

11、Netwroks,簡稱ANN)1.1.8 神經(jīng)網(wǎng)絡(luò)基本模型細胞體突觸軸突樹突圖 12.2 生物神經(jīng)元功能模型輸入輸出信息處理電脈沖形成傳輸黑箱 一般而言, ANN與經(jīng)典計算方法相比并非優(yōu)越, 只有當(dāng)常規(guī)方法解決不了或效果不佳時ANN方法才能顯示出其優(yōu)越性 . 尤其對問題的機理不甚了解或不能用數(shù)學(xué)模型表示的系統(tǒng),如故障診斷,特征提取和預(yù)測等問題,ANN往往是最有利的工具.另一方面, ANN對處理大量原始數(shù)據(jù)而不能用規(guī)則或公式描述的問題, 表現(xiàn)出極大的靈活性和自適應(yīng)性。1.1 神經(jīng)網(wǎng)絡(luò)(Artificial Neural Netwroks,簡稱ANN)1.2 BP神經(jīng)網(wǎng)絡(luò) 人工神經(jīng)網(wǎng)絡(luò)以其具有自學(xué)

12、習(xí)、自組織、較好的容錯性和優(yōu)良的非線性逼近能力,受到眾多領(lǐng)域?qū)W者的關(guān)注。在實際應(yīng)用中,80%80%90%90%的人工神經(jīng)網(wǎng)絡(luò)模型是采用誤差反傳算法或其變化形式的網(wǎng)絡(luò)模型( (簡稱BPBP網(wǎng)絡(luò)),),目前主要應(yīng)用于函數(shù)逼近、模式識別、分類和數(shù)據(jù)壓縮或數(shù)據(jù)挖掘。 1.1 神經(jīng)網(wǎng)絡(luò)(Artificial Neural Netwroks,簡稱ANN)1.2 BP神經(jīng)網(wǎng)絡(luò) Rumelhart,Mc Clelland于1985年提出了BP網(wǎng)絡(luò)的誤差反向后傳BP(Back Propagation)學(xué)習(xí)算法J. Mc Clelland David Rumelhart 1.2.1 BP神經(jīng)網(wǎng)絡(luò)概述1.1 神經(jīng)網(wǎng)

13、絡(luò)(Artificial Neural Netwroks,簡稱ANN)1.2 BP神經(jīng)網(wǎng)絡(luò) BPBP算法基本原理算法基本原理 利用輸出后的誤差來估計輸出層的直接前導(dǎo)層的誤差,再用這個誤差估計更前一層的誤差,如此一層一層的反傳下去,就獲得了所有其他各層的誤差估計。 1.2.1 BP神經(jīng)網(wǎng)絡(luò)概述1.1 神經(jīng)網(wǎng)絡(luò)(Artificial Neural Netwroks,簡稱ANN)1.2 BP神經(jīng)網(wǎng)絡(luò)1.2.1 BP神經(jīng)網(wǎng)絡(luò)概述1.2.2 BP神經(jīng)網(wǎng)絡(luò)特點神經(jīng)網(wǎng)絡(luò)能以任意精度逼近任何非線性連續(xù)函數(shù)。在建模過程中的許多問題正是具有高度的非線性。(1)(1)非非線性映射能力線性映射能力1.1 神經(jīng)網(wǎng)絡(luò)(A

14、rtificial Neural Netwroks,簡稱ANN)1.2 BP神經(jīng)網(wǎng)絡(luò)1.2.1 BP神經(jīng)網(wǎng)絡(luò)概述1.2.2 BP神經(jīng)網(wǎng)絡(luò)特點在神經(jīng)網(wǎng)絡(luò)中信息是分布儲存和并行處理的,這使它具有很強的容錯性和很快的處理速度。(2)(2)并行分布處理方式并行分布處理方式(1)(1)非非線性映射能力線性映射能力1.1 神經(jīng)網(wǎng)絡(luò)(Artificial Neural Netwroks,簡稱ANN)1.2 BP神經(jīng)網(wǎng)絡(luò)1.2.1 BP神經(jīng)網(wǎng)絡(luò)概述1.2.2 BP神經(jīng)網(wǎng)絡(luò)特點神經(jīng)網(wǎng)絡(luò)在訓(xùn)練時,能從輸入、輸出的數(shù)據(jù)中提取出規(guī)律性的知識,記憶于網(wǎng)絡(luò)的權(quán)值中,并具有泛化能力,即將這組權(quán)值應(yīng)用于一般情形的能力。神經(jīng)網(wǎng)

15、絡(luò)的學(xué)習(xí)也可以在線進行。(2)(2)并行分布處理方式并行分布處理方式(3)(3)自學(xué)習(xí)和自適應(yīng)能力自學(xué)習(xí)和自適應(yīng)能力(1)(1)非非線性映射能力線性映射能力1.1 神經(jīng)網(wǎng)絡(luò)(Artificial Neural Netwroks,簡稱ANN)1.2 BP神經(jīng)網(wǎng)絡(luò)1.2.1 BP神經(jīng)網(wǎng)絡(luò)概述1.2.2 BP神經(jīng)網(wǎng)絡(luò)特點神經(jīng)網(wǎng)絡(luò)可以同時處理定量信息和定性信息,因此它可以利用傳統(tǒng)的工程技術(shù)(數(shù)值運算)和人工智能技術(shù)(符號處理)(2)(2)并行分布處理方式并行分布處理方式(3)(3)自學(xué)習(xí)和自適應(yīng)能力自學(xué)習(xí)和自適應(yīng)能力(4)(4)數(shù)據(jù)融合的能力數(shù)據(jù)融合的能力(1)(1)非非線性映射能力線性映射能力1.1

16、 神經(jīng)網(wǎng)絡(luò)(Artificial Neural Netwroks,簡稱ANN)1.2 BP神經(jīng)網(wǎng)絡(luò)1.2.1 BP神經(jīng)網(wǎng)絡(luò)概述1.2.2 BP神經(jīng)網(wǎng)絡(luò)特點(2)(2)并行分布處理方式并行分布處理方式(3)(3)自學(xué)習(xí)和自適應(yīng)能力自學(xué)習(xí)和自適應(yīng)能力神經(jīng)網(wǎng)絡(luò)的輸入和輸出變量的數(shù)目是任意的,對單變量系統(tǒng)與多變量系統(tǒng)提供了一種通用的描述方式,不必考慮各子系統(tǒng)間的解耦問題。(4)(4)數(shù)據(jù)融合的能力數(shù)據(jù)融合的能力(5)(5)多變量系統(tǒng)多變量系統(tǒng)(1)(1)非非線性映射能力線性映射能力1.1 神經(jīng)網(wǎng)絡(luò)(Artificial Neural Netwroks,簡稱ANN)1.2 BP神經(jīng)網(wǎng)絡(luò)1.2.1 BP神

17、經(jīng)網(wǎng)絡(luò)概述1.2.2 BP神經(jīng)網(wǎng)絡(luò)特點1.2.3 BP神經(jīng)網(wǎng)絡(luò)模型1x2x1Nx1y2y2Ny1z2z3Nz123N1T2Tihwhjw- - -隱含層輸出層輸入層3NT1.2.3 BP神經(jīng)網(wǎng)絡(luò)模型-2-112-1-0.50.51221( )1xxef xe Sigmoid函數(shù)-2-10.821( )1xf xe 對數(shù)Sigmoid函數(shù)1.2.3 BP神經(jīng)網(wǎng)絡(luò)模型(2)使用S型激活函數(shù)時BP網(wǎng)絡(luò)輸入與輸出關(guān)系1.2.3 BP神經(jīng)網(wǎng)絡(luò)模型 kx1xnx2x()yf net y輸輸出出端端net 傳輸函數(shù)( )f輸輸入入端端kw1wnw2w1122.nnnetx wx wx

18、wb1()1netyf nete1.2.3 BP神經(jīng)網(wǎng)絡(luò)模型-211()(1)1(1)netnetfnetyyee1122.nnnetx wx wx wb1()1netyf nete1.1 神經(jīng)網(wǎng)絡(luò)(Artificial Neural Netwroks,簡稱ANN)1.2 BP神經(jīng)網(wǎng)絡(luò)1.2.1 BP神經(jīng)網(wǎng)絡(luò)概述1.2.2 BP神經(jīng)網(wǎng)絡(luò)特點1.2.3 BP神經(jīng)網(wǎng)絡(luò)模型1.2.4 BP神經(jīng)網(wǎng)絡(luò)的標(biāo)準(zhǔn)學(xué)習(xí)算法1.2.4 1.2.4 將誤差分攤給各層的所將誤差分攤給各層的所有單元有單元-各層單元的各層單元的誤差信號誤差信號修正各單元權(quán)值修正各單元權(quán)值 A. 正向傳播 輸入樣本輸入層各隱層輸出層 B.

19、 判斷是否轉(zhuǎn)入反向傳播階段 若輸出層的實際輸出與期望的輸出(教師信號)不符. C. 誤差反傳 誤差以某種形式在各層表示修正各層單元的權(quán)值. D. 網(wǎng)絡(luò)輸出的誤差減少到可接受的程度 進行到預(yù)先設(shè)定的學(xué)習(xí)次數(shù)為止1.2.4 (6) 網(wǎng)絡(luò)結(jié)構(gòu)網(wǎng)絡(luò)結(jié)構(gòu) 輸入層有n個神經(jīng)元,隱含層有p個神經(jīng)元, 輸出層有q個神經(jīng)元(7) 變量定義變量定義 1.2.4 12,nxxxx12,phihihihi12,pho hohoho12,qyiyiyiyi12,qyoyoyoyo1.2.4 211( )( )2qoooedkyo kihw( )f howhb1,2,kmob12,qdddod12( )( ),( ),(

20、 )nkx kx kx kx12( )( ),( ),( )qkd kdkdkod1.2.4 1( )( )1,2,nhihihihikw x kbhp( )( )1,2,hhho kf hi khp1( )( )1,2,pohohohyi kw ho kboq( )( )1,2,ooyo kf yi koq1.2.4 ohoohoeeyiwyiw( )( )( )phohoohhhohow ho kbyi kho kww211( ( )( )2( ( )( )( )( ( )( ) ( )( )qooooooooooood kyo ked kyo k yo kyiyid kyo k f yi

21、 kk1.2.4 ( )ok( )( )oohhoohoeeyik ho kwyiw 1( )( )( )( )( )hihhihnihihhiiihiheehi kwhi kww x kbhi kx kww( )hk( )ok1.2.4 21212111( )( ) )( )2( )( )( )1( )( ) )( )2( )( )1( )( ) )( )2( )( )qooohhhhqooohhhqpohohoohhhhdkyo kho kehi kho khi kdkf yi kho kho khi kdkfw ho kbho kho khi k11( )( )( )( )( )( )(

22、 )( )qhooohoohqohohhoho kdkyo kfyi k whi kk wfhi kk 1.2.4 1( )( )( )( )( )hoohhoNNhohoohewkk ho kwwwk ho k ( )ok( )howk1.2.4 ( )hk1( )( )( ) ( )( )( ) ( )hihhiihhihNNihihhieehi kw kk x kwhi kwwwk x k1.2.4 2111( )( )2qmookoEdky km1.2.4 whohoewe0,此時who01.2.4 hoewe0who1.2.4 一、 BP神經(jīng)網(wǎng)絡(luò)1.1 神經(jīng)網(wǎng)絡(luò)(Artificial

23、 Neural Netwroks,簡稱ANN)1.2 BP神經(jīng)網(wǎng)絡(luò)1.2.1 BP神經(jīng)網(wǎng)絡(luò)概述1.2.2 BP神經(jīng)網(wǎng)絡(luò)特點1.2.3 BP神經(jīng)網(wǎng)絡(luò)模型1.2.4 BP神經(jīng)網(wǎng)絡(luò)的標(biāo)準(zhǔn)學(xué)習(xí)算法1.2.5 BP神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)算法的MATLAB實現(xiàn)1.2.4 1.2.4 1.2.4 net.trainParam.epochs:最大訓(xùn)練步數(shù)。不過當(dāng)誤差準(zhǔn)則滿足時,即使沒達到此步數(shù)也停止訓(xùn)練。缺省為100。net.trainParam.goad:網(wǎng)絡(luò)誤差準(zhǔn)則,當(dāng)誤差小于此準(zhǔn)則時停止訓(xùn)練,缺省為0。net.trainFcn:訓(xùn)練算法。缺省為 trainlm,即Levenberg-Marquardt算法。還可

24、使用traingdx,即帶動量的梯度下降算法;traincgf,即共軛梯度法。其它可看matlab幫助:help-contents- Neural Network Toobox- Network Object Reference;help(net.trainFcn)1.2.4 1.2.4 1.2.4 %以每三個月的銷售量經(jīng)歸一化處理后作為輸入 P=0.5152 0.81731.0000 ; 0.8173 1.00000.7308; 1.00000.73080.1390; 0.73080.13900.1087; 0.13900.10870.3520; 0.10870.35200.1065; ;

25、%以第四個月的銷售量歸一化處理后作為目標(biāo)向量 T=0.7308 0.1390 0.1087 0.3520 0.1065 0.3761; %創(chuàng)建一個BP神經(jīng)網(wǎng)絡(luò),每一個輸入向量的取值范圍為0 ,1,隱含層有5個神經(jīng)%元,輸出層有一個神經(jīng)元,隱含層的激活函數(shù)為tansig,輸出層的激活函數(shù)為%logsig,訓(xùn)練函數(shù)為梯度下降函數(shù). net=newff(0 1;0 1;0 1,5,1,tansig,logsig,traingd); net.trainParam.epochs=15000; net.trainParam.goal=0.01; %設(shè)置學(xué)習(xí)速率為0.1 LP.lr=0.1; net=tra

26、in(net,P,T); 1.2.4 1.2.4 徽章問題是一個典型的分類問題。我們可以用一個具體的例子描述:在某個國際會議上,參加會議的280名代表每人收到會議組織者發(fā)給一枚徽章,徽章的標(biāo)記為“”或“”。會議的組織者聲明:每位代表得到徽章“”或“”的標(biāo)記只與他們的姓名有關(guān),并希望代表們能夠找出徽章“”與“”的分類方法。由于客觀原因,有14名代表沒能參加此次會議。按照代表們找出的方法判斷,如果他們參加會議將得到的徽章類型。14名未參加會議的代表14名未參加會議的代表Y初始化給定導(dǎo)師信號計算個節(jié)點網(wǎng)絡(luò)輸出計算反向誤差權(quán)值學(xué)習(xí)學(xué)習(xí)結(jié)束?對測試樣本分類結(jié)束N模型一 我們先做第一種嘗試,將人名的前五個

27、字母進行編號,a z 分別對應(yīng) 0 25,即每個人名的特征值是一個長度為5的一維列向量,總共280個人名就是個5*280的矩陣p,作為網(wǎng)絡(luò)輸入。將題目中的徽章問題量化,假設(shè)徽章為則為1, 徽章為則為0, 就形成一個1*280的矩陣t,作為目標(biāo)輸出。 將這些特征值作為訓(xùn)練樣本, 通過Matlab的工具箱對BP分類算法進行訓(xùn)練,并確定權(quán)值,具體程序,注釋及結(jié)果如下:模型一 net=newff(0 25;0 25;0 25;0 25;0 25,100,1,logsig,purelin,trainlm); /創(chuàng)建一個神經(jīng)網(wǎng)絡(luò),每個字母所對應(yīng)的量化值的輸入范圍025,神經(jīng)網(wǎng)絡(luò)有2層,第一層有100個神經(jīng)

28、元,第二層1個,傳遞函數(shù)分別是S型和線性,訓(xùn)練方式trainlm。 net=init(net); /初始化神經(jīng)網(wǎng)絡(luò) net.trainParam.min_grad= 1e-020; /設(shè)定最小梯度值,提高訓(xùn)練效果 net=train(net,p,t);TRAINLM, Epoch 0/100, MSE 4.78695/0, Gradient 4628.35/1e-020TRAINLM, Epoch 25/100, MSE 0.000969475/0, Gradient 4.93588/1e-020TRAINLM, Epoch 50/100, MSE 6.16266e-005/0, Gradie

29、nt 4.48141/1e-020TRAINLM, Epoch 72/100, MSE 4.00219e-031/0, Gradient 1.53435e-013/1e-020TRAINLM, Maximum MU reached, performance goal was not met.模型一訓(xùn)練次數(shù)與訓(xùn)練精度的關(guān)系圖 將用于訓(xùn)練的輸入數(shù)據(jù)p代入訓(xùn)練后的神經(jīng)網(wǎng)絡(luò),輸出結(jié)果為a矩陣模型一a=sim(net,p)a = Columns 1 through 9 1.0000 0.0000 1.0000 1.0000 0.0000 1.0000 -0.0000 1.0000 1.0000 Colu

30、mns 10 through 18 1.0000 1.0000 1.0000 1.0000 1.0000 -0.0000 1.0000 -0.0000 1.0000(后面數(shù)據(jù)略)將它和用于訓(xùn)練的目標(biāo)輸出矩陣t對比可以看出,吻合得很好模型一a=sim(net,n)a = Columns 1 through 8 1.3889 0.8504 1.0000 0.9551 -0.0006 -0.0515 1.0000 -0.7714 Columns 9 through 14 1.0776 0.9977 2.0655 0.4673 0.4794 1.0000 將14個待分類的人名的前五個字母編碼輸入神經(jīng)網(wǎng)

31、絡(luò),得到的結(jié)果如下: 可以看到,這個結(jié)果不是很好, 由很多介于0和1之間的數(shù)字,從這里的分析可以看出,選取字母的編碼作為特征值是合理的,但需要對特征值的選取方案進行細化。模型二 對所給出的280個人名取特征值,我們將人名的第一個字母的進行編號,a z分別對應(yīng) 0 25,并將這些特征值帶入到BP網(wǎng)絡(luò)中去進行訓(xùn)練,具體程序如下:模型二 從訓(xùn)練情況可以看出,在誤差值比較大的時候訓(xùn)練就停止了,將輸入p帶入訓(xùn)練后的矩陣,發(fā)現(xiàn)輸出結(jié)果與t很不一致,說明這里找不到分類的規(guī)律。模型三 對所給出的280個人名取特征值,我們將人名的第二個字母的進行編號,a z分別對應(yīng) 0 25,并將這些特征值帶入到BP網(wǎng)絡(luò)中去進

32、行訓(xùn)練,具體程序如下:模型三訓(xùn)練后的BP神經(jīng)網(wǎng)絡(luò),輸入?yún)⒓佑?xùn)練的數(shù)據(jù)p,驗證數(shù)據(jù),可以看出,和所給人名所對應(yīng)的徽章滿足的很好,所得到的數(shù)據(jù)如下:模型三a = Columns 1 through 8 0.9877 0.0000 0.9877 0.9877 -0.0000 0.9877 0.0000 1.0000 Columns 9 through 16 0.9877 0.9877 0.9877 1.0000 1.0000 1.0000 -0.0000 1.0000訓(xùn)練次數(shù)和訓(xùn)練精度的關(guān)系收斂的速度相當(dāng)之快模型三對于待分類的人名,先將其做同樣的量化,如下: n=4 4 8 8 4 14 0 19

33、0 0 0 8 4 14 ; a=sim(net,n) 用已訓(xùn)練完的BP神經(jīng)網(wǎng)絡(luò)對其進行分類,得到的結(jié)果如下:a = Columns 1 through 8 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 0.9877 0.0000 Columns 9 through 14 0.9877 0.9877 0.9877 1.0000 1.0000 1.0000可以看出,也是呈0-1的分布,和分類的要求比較接近。分類方法的確定 通過模型一,模型二和模型三的比較,我們可以看出模型三的特征值的取法所得的BP算法對于所給的 280 個數(shù)據(jù)的正確率為100, 并且對于14

34、 個待分類的人名計算得到的特征值從數(shù)據(jù)本身看來非0即1,可見模型三所對應(yīng)的分類方法有可能是可行的,即我們可以通過對名字的第二個字母的某種標(biāo)準(zhǔn)進行分類。 我們通過對第二個字母的多種分類方法進行嘗試,得到通過第二個字母的元輔音進行分類,即第二個字母是元音為,為輔音為,并對280個所給人名進行分類,結(jié)果與所給分類方式一致,可見這就是我們要找的分類方法。分類方法的確定 用這種分類方法對14個待分類人名進行分類得到的結(jié)果如下:1 1 1 1 1 1 1 0 1 1 1 1 1 1 將這個分類結(jié)果與上面我們通過Matlab用BP算法得出的分類結(jié)果一致, 這再一次證明我們所找到的分類方法就是最好的分類方法。

35、光催化臭氧氧化處理自來水光催化臭氧氧化處理自來水光催化臭氧氧化處理自來水檢驗樣本光催化臭氧氧化處理自來水網(wǎng)絡(luò)分為4層。各層節(jié)點數(shù)分別為:輸入層2個;第一隱層12個;第二隱層6個;輸出層1個。BP網(wǎng)絡(luò)模型輸入層輸出層隱層1臭氧濃度入口UV254UV254去除率隱層2光催化臭氧氧化處理自來水minmaxminxxxxx 進水進水UV254值臭 氧 濃 度 , mg/LUV254去除率,BP網(wǎng)絡(luò)訓(xùn)練誤差曲線和網(wǎng)絡(luò)模型實驗號實驗號 臭氧臭氧 (mg/L)(mg/L)UVUV254254去除率去除率(%)(%)相對誤差相對誤差(%)實測值實測值網(wǎng)絡(luò)預(yù)測值網(wǎng)絡(luò)預(yù)測值1 11.421.4257.3-1.47-1.472 22.512.5178.878.877.777.7-1.47-1.473 33.213.2189.689.690.590.50.960.964 44.294.

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論