水資源系統(tǒng)分析-第8章人工神經(jīng)網(wǎng)絡(luò)與遺傳算法課件_第1頁
水資源系統(tǒng)分析-第8章人工神經(jīng)網(wǎng)絡(luò)與遺傳算法課件_第2頁
水資源系統(tǒng)分析-第8章人工神經(jīng)網(wǎng)絡(luò)與遺傳算法課件_第3頁
水資源系統(tǒng)分析-第8章人工神經(jīng)網(wǎng)絡(luò)與遺傳算法課件_第4頁
水資源系統(tǒng)分析-第8章人工神經(jīng)網(wǎng)絡(luò)與遺傳算法課件_第5頁
已閱讀5頁,還剩57頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

2022/10/1018人工神經(jīng)網(wǎng)絡(luò)

與遺傳算法2022/10/102人工智能技術(shù)之一。人類對人工智能的研究可以分成兩種方式對應(yīng)著兩種不同的技術(shù):傳統(tǒng)的人工智能技術(shù)——心理的角度模擬基于人工神經(jīng)網(wǎng)絡(luò)的技術(shù)——生理的角度模擬2022/10/103研究人工智能的目的增加人類探索世界,推動社會前進的能力進一步認識自己三大學術(shù)流派符號主義(或叫做符號/邏輯主義)學派聯(lián)接主義(或者叫做PDP)學派進化主義(或者叫做行動/響應(yīng))學派

2022/10/1041.1人工神經(jīng)網(wǎng)絡(luò)的提出

人工神經(jīng)網(wǎng)絡(luò)(ArtificialNeuralNetworks,簡記作ANN),是對人類大腦系統(tǒng)的一階特性的一種描述。簡單地講,它是一個數(shù)學模型,可以用電子線路來實現(xiàn),也可以用計算機程序來模擬,是人工智能研究的一種方法。

2022/10/105聯(lián)接主義觀點

核心:智能的本質(zhì)是聯(lián)接機制。人工智能應(yīng)著重于結(jié)構(gòu)模擬,即模擬人的生理神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),并認為功能、結(jié)構(gòu)和智能行為是密切相關(guān)的。神經(jīng)網(wǎng)絡(luò)是一個由大量簡單的處理單元組成的高度復(fù)雜的大規(guī)模非線性自適應(yīng)系統(tǒng)

ANN力求從四個方面去模擬人腦的智能行為物理結(jié)構(gòu)

計算模擬

存儲與操作

訓(xùn)練2022/10/107第一高潮期(1950~1968)

以MarvinMinsky,F(xiàn)rankRosenblatt,BernardWidrow等為代表人物,代表作是單級感知器(Perceptron)??捎秒娮泳€路模擬。人們樂觀地認為幾乎已經(jīng)找到了智能的關(guān)鍵。許多部門都開始大批地投入此項研究,希望盡快占領(lǐng)制高點。

2022/10/108反思期(1969~1982)

M.L.Minsky和S.Papert,《Perceptron》,MITPress,1969年

二十世紀70年代和80年代早期的研究結(jié)果

認識規(guī)律:認識——實踐——再認識

2022/10/10104)1986年,并行分布處理小組的Rumelhart等研究者重新獨立地提出多層網(wǎng)絡(luò)的學習算法——BP算法,較好地解決了多層網(wǎng)絡(luò)的學習問題。(Paker1982和Werbos1974年)國內(nèi)首屆神經(jīng)網(wǎng)絡(luò)大會是1990年12月在北京舉行的。

2022/10/10112人工神經(jīng)網(wǎng)絡(luò)基礎(chǔ)2.1生物神經(jīng)網(wǎng)2.2人工神經(jīng)元2.3人工神經(jīng)網(wǎng)絡(luò)的拓撲特性2.4人工神經(jīng)網(wǎng)絡(luò)的訓(xùn)練2022/10/1012單個神經(jīng)元細胞的工作速度并不高(毫秒級),但它通過超并行處理使得整個系統(tǒng)實現(xiàn)處理的高速性和信息表現(xiàn)的多樣性。

人腦的信息處理機制極其復(fù)雜,從結(jié)構(gòu)上看它是包含有140億神經(jīng)細胞的大規(guī)模神經(jīng)網(wǎng)絡(luò)。2022/10/1014樹突:是向四方收集由其他神經(jīng)細胞傳來的信息。在兩個神經(jīng)細胞之間的相互連接觸點稱為突觸。細胞體:神經(jīng)元接受與處理信息的部件。軸突:傳出從細胞體送來的信息。2工作過程每個神經(jīng)元具有興奮和抑制兩種狀態(tài),只有當所有外來刺激(輸入)作用之和超過某一閥值后,神經(jīng)元由抑制變?yōu)榕d奮,并輸出電脈沖。神經(jīng)元之間連接的強弱可隨外部的激勵信號自適應(yīng)地變化。大腦通過調(diào)節(jié)這些連結(jié)的數(shù)目和強度進行學習。2022/10/10153六個基本特征:1)神經(jīng)元及其聯(lián)接;2)神經(jīng)元之間的聯(lián)接強度決定信號傳遞的強弱;3)神經(jīng)元之間的聯(lián)接強度是可以隨訓(xùn)練改變的;4)信號可以是起刺激作用的,也可以是起抑制作用的;5)一個神經(jīng)元接受的信號的累積效果決定該神經(jīng)元的狀態(tài);6)每個神經(jīng)元可以有一個“閾值”。2022/10/10172.2.1人工神經(jīng)元的基本構(gòu)成

人工神經(jīng)元模擬生物神經(jīng)元的一階特性。輸入:X=(x1,x2,…,xn)信號聯(lián)接權(quán):W=(w1,w2,…,wn)T連接強度網(wǎng)絡(luò)輸入: net=XW激活函數(shù):f網(wǎng)絡(luò)輸出:o=f(net)輸出脈沖xnwn∑x1w1x2w2out…2022/10/10182.2.2激活函數(shù)(ActivationFunction)

激活函數(shù)——執(zhí)行對該神經(jīng)元所獲得的網(wǎng)絡(luò)輸入的變換,也可以稱為激勵函數(shù)、活化函數(shù):

O=f(net)

1、線性函數(shù)(LinerFunction)

f(net)=k*net+cnetooc2022/10/10192、非線性斜面函數(shù)(RampFunction)γ-γθ

net

o

2022/10/10203、閾值函數(shù)(ThresholdFunction)階躍函數(shù)β

-γθonet02022/10/10214、S形函數(shù)

a+bo(0,c)netac=a+b/22022/10/10222.2.3M-P模型

x2w2

∑fo=f(net)xnwn…net=XWx1w1McCulloch—Pitts(M—P)模型,也稱為處理單元(PE)

2022/10/1024層次劃分

信號只被允許從較低層流向較高層。輸入層:被記作第0層。該層負責接收來自網(wǎng)絡(luò)外部的信息輸出層隱藏層輸入層o1o2om…x1x2xn………………2022/10/1025第j層:第j-1層的直接后繼層(j>0),它直接接受第j-1層的輸出。輸出層:它是網(wǎng)絡(luò)的最后一層,具有該網(wǎng)絡(luò)的最大層號,負責輸出網(wǎng)絡(luò)的計算結(jié)果。隱藏層:除輸入層和輸出層以外的其它各層叫隱藏層。隱藏層不直接接受外界的信號,也不直接向外界發(fā)送信號輸出層隱藏層輸入層o1o2om…x1x2xn………………2022/10/10272.4人工神經(jīng)網(wǎng)絡(luò)的訓(xùn)練

人工神經(jīng)網(wǎng)絡(luò)最具有吸引力的特點是它的學習能力。1962年,Rosenblatt給出了人工神經(jīng)網(wǎng)絡(luò)著名的學習定理:人工神經(jīng)網(wǎng)絡(luò)可以學會它可以表達的任何東西。人工神經(jīng)網(wǎng)絡(luò)的表達能力大大地限制了它的學習能力。人工神經(jīng)網(wǎng)絡(luò)的學習過程就是對它的訓(xùn)練過程2022/10/10282.5.1無導(dǎo)師學習

無導(dǎo)師學習(UnsupervisedLearning)與無導(dǎo)師訓(xùn)練(UnsupervisedTraining)相對應(yīng)

樣本模式無期望輸出.抽取樣本集合中蘊含的統(tǒng)計特性,并以神經(jīng)元之間的聯(lián)接權(quán)的形式存于網(wǎng)絡(luò)中。聚類2022/10/10292.5.2有導(dǎo)師學習

有導(dǎo)師學習(SupervisedLearning)與有導(dǎo)師訓(xùn)練(SupervisedTraining)相對應(yīng)。輸入向量與其對應(yīng)的輸出向量構(gòu)成一個“訓(xùn)練對”。有導(dǎo)師學習的訓(xùn)練算法的主要步驟包括:

1)

從樣本集合中取一個樣本(Ai,Bi);

2)

計算出網(wǎng)絡(luò)的實際輸出O;

3)

求D=Bi-O;

4)

根據(jù)D調(diào)整權(quán)矩陣W;

5)對每個樣本重復(fù)上述過程,直到對整個樣本集來說,誤差不超過規(guī)定范圍。

2022/10/10303BP網(wǎng)絡(luò)

BP算法的出現(xiàn)前饋非循環(huán)多級網(wǎng)絡(luò)的訓(xùn)練算法加州大學圣地牙哥分校(UCSD)的并行分布處理(PDP)小組的Rumelhart、Hinton和Williams1986年獨立地給出了BP算法清楚而簡單的描述1982年,Paker就完成了相似的工作1974年,Werbos已提出了該方法2、弱點:訓(xùn)練速度非常慢3、優(yōu)點:廣泛的適應(yīng)性和有效性。2022/10/1031網(wǎng)絡(luò)的拓撲結(jié)構(gòu)

BP網(wǎng)的結(jié)構(gòu)輸入向量、輸出向量的維數(shù)、網(wǎng)絡(luò)隱藏層的層數(shù)和各個隱藏層神經(jīng)元的個數(shù)的決定實驗:增加隱藏層的層數(shù)和隱藏層神經(jīng)元個數(shù)不一定總能夠提高網(wǎng)絡(luò)精度和表達能力。BP網(wǎng)一般都選用二級網(wǎng)絡(luò)。2022/10/1032網(wǎng)絡(luò)的拓撲結(jié)構(gòu)x1o1輸出層隱藏層輸入層x2o2omxn…………WV2022/10/10333.2.4基本的BP算法

樣本集:S={(X1,Y1),(X2,Y2),…,(Xs,Ys)}

基本思想:逐一地根據(jù)樣本集中的樣本(Xk,Yk)計算出實際輸出Ok和誤差測度E1,對W(1)

,W(2)

,…,W(L)各做一次調(diào)整,重復(fù)這個循環(huán),直到∑Ep<ε。用輸出層的誤差調(diào)整輸出層權(quán)矩陣,并用此誤差估計輸出層的直接前導(dǎo)層的誤差,再用輸出層前導(dǎo)層誤差估計更前一層的誤差。如此獲得所有其它各層的誤差估計,并用這些估計實現(xiàn)對權(quán)矩陣的修改。形成將輸出端表現(xiàn)出的誤差沿著與輸入信號相反的方向逐級向輸入端傳遞的過程

2022/10/10344ANN在水文水資源系統(tǒng)中應(yīng)用隨著近幾年神經(jīng)網(wǎng)絡(luò)研究熱的興起,ANN技術(shù)在水文水資源系統(tǒng)中的應(yīng)用也日漸增多,已開發(fā)出了許多水文水資源神經(jīng)網(wǎng)絡(luò)(HWRNN)模型,為解決水文水資源問題提供了新的途徑。2022/10/1035在目前的水資源研究中,ANN涉及的具體領(lǐng)域包括氣候影響分析、水質(zhì)分析、水文預(yù)測與預(yù)報、地下水管理和水庫優(yōu)化調(diào)度等。2022/10/10364.1水文預(yù)報ANN用于水文水資源中預(yù)測預(yù)報問題的研究主要有:降水預(yù)報、徑流預(yù)報、水質(zhì)預(yù)測、水量預(yù)測等。所采用的神經(jīng)網(wǎng)絡(luò)模型有BP模型、Adaline模型等。應(yīng)用神經(jīng)網(wǎng)絡(luò)進行水文預(yù)報,其建模比較容易。一般影響因子(預(yù)測因子)就是網(wǎng)絡(luò)的輸入,輸入層神經(jīng)元個數(shù)就等于影響因子(預(yù)測因子)的個數(shù),需要預(yù)報的水文變量就是網(wǎng)絡(luò)的輸出。2022/10/1037(1)BP人工神經(jīng)網(wǎng)絡(luò)在短期降水預(yù)報中的應(yīng)用a.預(yù)測因子:依據(jù)降水的主要條件,選取反映預(yù)測區(qū)域降水條件的物理量。如:濕度條件:相對濕度、水汽通量;垂直速度條件:散度、垂直速度、降水量、渦度;東高西低條件:高度差;鋒區(qū)和能量條件:溫度差等。2022/10/1038b.BP神經(jīng)網(wǎng)絡(luò)的建立可采用三層BP人工神經(jīng)網(wǎng)絡(luò)模式,輸入層為n(如n=10)個神經(jīng)元,其對應(yīng)10個預(yù)報因子。輸出層為1個神經(jīng)元,對應(yīng)降水量。中間層一般取輸入層和輸出層數(shù)的平均,這里取7個神經(jīng)元。設(shè)X為輸入層,H為隱含層,Y為預(yù)報輸出層。2022/10/1039①預(yù)報因子0~1化:Xi=(Xmax-Xi)/(Xmax-Xmin);②在訓(xùn)練以前我們?nèi)?~1之間的隨機數(shù)為連接權(quán)重系數(shù)Uil、Wlt賦初值。由于訓(xùn)練開始時誤差常常較大,它們將在以后的訓(xùn)練學習過程中自動逐步調(diào)節(jié)。③輸入訓(xùn)練樣本訓(xùn)練:

以河北保定市氣象局02年為例。從3月到11月接收數(shù)值預(yù)報產(chǎn)品齊全的共有159天,用前109天的資料作為網(wǎng)絡(luò)訓(xùn)練樣本。50天為檢驗樣本。擬合結(jié)果:經(jīng)過兩萬多次的訓(xùn)練,總體預(yù)報誤差達到了4.0以下。終止訓(xùn)練后。這109天中共有降水日27天,其中小雨20天,中雨6天,大雨以上降水一次。訓(xùn)練結(jié)束時27天降水全部報出,量級也全部正確,只是空報兩次小雨過程,歷史擬合率達到27/29=93%。檢驗結(jié)果:在試報的50天中共有降水8次,其中大雨2次,漏一次,一次報中雨。中雨3次,報對2次,漏一次。3次小雨,一次報中雨,漏2次。另空報2次小雨,定性準確率4/10=40%。2022/10/1041(2)人工神經(jīng)網(wǎng)絡(luò)在徑流(中長期)預(yù)報中的應(yīng)用a.流域年徑流量主要影響因子分析在建立網(wǎng)絡(luò)預(yù)報模型之前,要分析流域產(chǎn)流的主要影響因子,流域年徑流量與降雨條件、流域地貌、植被、土壤特性等自然因素有關(guān),降雨是流域產(chǎn)流的直接動力因子,流域內(nèi)降雨強度、降雨量以及降雨范圍和落區(qū)等因素都對流域產(chǎn)流有較大影響,而流域的面平均降雨量則是主要的影響因子.b.實測水文系列標準化。c.建立神經(jīng)網(wǎng)絡(luò)模型。d.把影響因子標準化序列輸入網(wǎng)絡(luò),以實測徑流量為期望輸出對網(wǎng)絡(luò)進行訓(xùn)練。e.使用訓(xùn)練好的網(wǎng)絡(luò)模型進行預(yù)測。2022/10/1042(1)BP神經(jīng)網(wǎng)絡(luò)水質(zhì)評價流域中水質(zhì)參數(shù)的變化都是一個漸變的過程,所以根據(jù)歷史變化的趨勢來預(yù)測后面的輸出有比較好的效果。所以以若干連續(xù)實際值作為輸入,來預(yù)測下一時段的輸出值是本文構(gòu)建神經(jīng)網(wǎng)絡(luò)的主要框架。預(yù)測模型可以描述為:式中:D(t)表示t時刻某水質(zhì)指標的監(jiān)測數(shù)據(jù)(即濃度值),n為輸入節(jié)點個數(shù),F(xiàn)是由神經(jīng)網(wǎng)絡(luò)確定的輸入輸出映射關(guān)系。

項目CODMn氨氮處理后COD項目CODMn氨氮處理后COD日期≦6mg/l≦1mg/l≦6mg/l日期≦6mg/l≦1mg/l≦6mg/l12.80.2010.280112.70.2020.27022.60.2130.260122.60.2100.26032.80.1750.280132.70.1980.27042.60.1690.260142.40.2030.24052.90.2110.290152.40.2520.24062.30.2260.230162.70.2160.27072.80.1900.280172.90.2310.29082.30.1800.230183.00.2670.30092.70.1950.270193.20.2280.320102.70.2050.270

啟發(fā)式算法-遺傳算法遺傳算法的基本思想是基于Darwin進化論和Mendel的遺傳學說的。Darwin進化論最重要的是適者生存原理。Mendel遺傳學說最重要的是基因遺傳原理?;蛐问桨谌旧w內(nèi),經(jīng)過存優(yōu)去劣的自然淘汰,適應(yīng)性高的基因結(jié)構(gòu)得以保存下來。遺傳算法是模擬生物自然遺傳和進化過程而形成的一種自適應(yīng)全局優(yōu)化概率搜索方法。每代中都保留一組候選解,并按某種指標從解群中選取較優(yōu)的個體,利用遺傳算子(選擇、交叉和變異)對這些個體進行組合,產(chǎn)生新一代的候選解群,重復(fù)此過程,直到滿足某種收斂指標為止。種群編碼適應(yīng)度復(fù)制與變異進化求下列一元函數(shù)的最大值:

x∈[-1,2],求解結(jié)果精確到6位小數(shù)。例:幾個術(shù)語基因型:1000101110110101000111表現(xiàn)型:0.637197編碼解碼個體(染色體)基因(2)初始群體的產(chǎn)生遺傳算法是對群體進行的進化操作,需要給其淮備一些表示起始搜索點的初始群體數(shù)據(jù)。本例中,群體規(guī)模的大小取為4,即群體由4個個體組成,每個個體可通過隨機方法產(chǎn)生。如:011101,101011,011100,111001(3)適應(yīng)度汁算遺傳算法中以個體適應(yīng)度的大小來評定各個個體的優(yōu)劣程度,從而決定其遺傳機會的大小。適應(yīng)度函數(shù)值越大,解的質(zhì)量越好。適應(yīng)度函數(shù)是遺傳算法進化過程的驅(qū)動力,也是進行自然選擇的唯一標準,它的設(shè)計應(yīng)結(jié)合求解問題本身的要求而定。本例中,目標函數(shù)總?cè)》秦撝?,并且是以求函?shù)最大值為優(yōu)化目標,故可直接利用目標函數(shù)值作為個體的適應(yīng)度。(4)選擇運算遺傳算法使用選擇運算來實現(xiàn)對群體中的個體進行優(yōu)勝劣汰操作:選擇運算(或稱為復(fù)制運算)把當前群體中適應(yīng)度較高的個體按某種規(guī)則或模型遺傳到下一代群體中。一般要求適應(yīng)度較高的個體將有更多的機會遺傳到下一代群體中。選擇算子選擇操作的任務(wù)就是按某種方法從父代群體中選取一些個體,遺傳到下一代群體。SGA中選擇算子采用輪盤賭選擇方法?;舅枷胧牵簜€體被選中的概率與其適應(yīng)度函數(shù)值大小成正比。設(shè)群體大小為n,個體i的適應(yīng)度為Fi,則個體i被選中遺傳到下一代群體的概率為:

......p1p2pir0124%24%17%35%1#2#3#4#編號初始群體p(0)適值占總數(shù)的百分比總和1234011101101011011100111001343425500.240.240.170.351431選擇次數(shù)選擇結(jié)果1102011101111001101011111001

(5)交叉運算交叉運算是遺傳算法中產(chǎn)生新個體的主要操作過程,它以某一概率相互交換某兩個個體之間的部分染色體。交叉運算是遺傳算法區(qū)別于其他進化算法的重要特征,它在遺傳算法中起關(guān)鍵作用,是產(chǎn)生新個體的主要方法。

SGA采用單點交叉的方法,其具體操作過程是:

?先對群體進行隨機配對;

?其次隨機設(shè)置交叉點位置;

?最后再相互交換配對染色體之間的部分基因。選擇結(jié)果011101111001101011111001配對情況交叉點位置個體編號12341-23-41-2:23-4:4交叉結(jié)果011001111101101001111011新產(chǎn)生的個體“111101”、“111011”的適應(yīng)度較原來兩個個體的適應(yīng)度都要高。(6)變異運算變異運算是對個體的某一個或某一些基因座上的基因值按某一較小的概率進行改變,它也是產(chǎn)生新個體保持種群多樣性的一種操作方法。本例中,我們采用基本位變異的方法來進行變異運算,其具體操作過程是:

首先確定出各個個體的基因變異位置,下表所示為隨機產(chǎn)生的變異點位置,其中的數(shù)字表示變異點設(shè)置在該基因座處;然后依照某一概率將變異點的原有基因值取反。個體編號1234交叉結(jié)果011001111101101001111011變異結(jié)果變異點4526011101111111111001111010子代群體p(1)011101111111111001

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論