水力旋流器神經(jīng)網(wǎng)絡(luò)性能預(yù)測(cè)_第1頁(yè)
水力旋流器神經(jīng)網(wǎng)絡(luò)性能預(yù)測(cè)_第2頁(yè)
水力旋流器神經(jīng)網(wǎng)絡(luò)性能預(yù)測(cè)_第3頁(yè)
水力旋流器神經(jīng)網(wǎng)絡(luò)性能預(yù)測(cè)_第4頁(yè)
水力旋流器神經(jīng)網(wǎng)絡(luò)性能預(yù)測(cè)_第5頁(yè)
已閱讀5頁(yè),還剩19頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

基于神經(jīng)網(wǎng)絡(luò)的旋流過(guò)濾器

性能預(yù)測(cè)研究問(wèn)題概述數(shù)學(xué)模型2BP神經(jīng)網(wǎng)絡(luò)模型3Matlab程序41目錄5結(jié)論2研究問(wèn)題概述

旋流過(guò)濾器作為一種多機(jī)理、多功能化的新型固液分離設(shè)備,分離性能受到多種因素的影響,而有效地預(yù)測(cè)其性能對(duì)于工程實(shí)踐具有重要意義。以往旋流過(guò)濾器的性能預(yù)測(cè)方法主要是依賴(lài)傳統(tǒng)的數(shù)學(xué)模型。這些模型大都是在某些特定的簡(jiǎn)化條件下得到的線性或近似線性模型。而實(shí)際生產(chǎn)中旋流器各項(xiàng)參數(shù)間多為復(fù)雜的非線性關(guān)系,若用傳統(tǒng)的線性模型對(duì)其性能進(jìn)行預(yù)測(cè),得到的結(jié)果往往不能令人滿意。所以需要新的手段和方法來(lái)解決這些問(wèn)題。

1.1研究背景3研究問(wèn)題概述人工神經(jīng)網(wǎng)絡(luò)模型2BP神經(jīng)網(wǎng)絡(luò)模型3Matlab程序41目錄5結(jié)論4人工神經(jīng)網(wǎng)絡(luò)模型圖1.神經(jīng)元信息處理過(guò)程示意圖生物神經(jīng)元的信息處理包括兩個(gè)階段,第一階段是神經(jīng)元接收信息流的加權(quán)過(guò)程,稱(chēng)作聚合過(guò)程;第二階段是對(duì)聚合后信息流的處理過(guò)程,稱(chēng)作活化過(guò)程。圖1模擬了單個(gè)生物神經(jīng)元的信息處理過(guò)程。5人工神經(jīng)網(wǎng)絡(luò)模型圖2.人工神經(jīng)元數(shù)學(xué)模型從生物神經(jīng)元的特性和功能可以知道,神經(jīng)元是一個(gè)多輸入單輸出的信息處理單元,它對(duì)信息的處理是非線性的。根據(jù)生物神經(jīng)元的特性和功能,可以把神經(jīng)元抽象為一個(gè)簡(jiǎn)單的數(shù)學(xué)模型,如圖2所示。X1--Xn:神經(jīng)元輸入;Wij:神經(jīng)元i對(duì)各輸入的權(quán)系數(shù)(j=1~n);Yi:i神經(jīng)元的輸出;f(·):激發(fā)函數(shù)6研究問(wèn)題概述人工神經(jīng)網(wǎng)絡(luò)模型2BP神經(jīng)網(wǎng)絡(luò)模型3Matlab程序41目錄5結(jié)論7BP神經(jīng)網(wǎng)絡(luò)模型BP神經(jīng)網(wǎng)絡(luò)是一種按誤差逆?zhèn)鞑ニ惴ǎɡ幂敵鰧拥恼`差來(lái)估計(jì)輸出層的直接前導(dǎo)層的誤差,再用這個(gè)誤差估計(jì)更前一層的誤差)訓(xùn)練的多層前饋網(wǎng)絡(luò),是目前應(yīng)用最廣泛的神經(jīng)網(wǎng)絡(luò)模型之一。BP網(wǎng)絡(luò)能學(xué)習(xí)和存貯大量的輸入-輸出模式映射關(guān)系,而無(wú)需事前揭示描述這種映射關(guān)系的數(shù)學(xué)方程。它的學(xué)習(xí)規(guī)則是使用最速下降法,通過(guò)反向傳播來(lái)不斷調(diào)整網(wǎng)絡(luò)的權(quán)值和閾值,使網(wǎng)絡(luò)的誤差平方和最小。BP神經(jīng)網(wǎng)絡(luò)模型拓?fù)浣Y(jié)構(gòu)包括輸入層(input)、隱層(hiddenlayer)和輸出層(outputlayer)。3.1BP神經(jīng)網(wǎng)絡(luò)模型簡(jiǎn)介8BP神經(jīng)網(wǎng)絡(luò)模型圖3.BP網(wǎng)絡(luò)結(jié)構(gòu)BP算法的運(yùn)算過(guò)程如下:1)計(jì)算隱層單元的輸入;2)計(jì)算隱層單元的輸出;3)計(jì)算輸出單元的輸入;4)計(jì)算輸出單元的輸出。9BP神經(jīng)網(wǎng)絡(luò)模型輸入層的輸出等于整個(gè)網(wǎng)絡(luò)的輸入信號(hào),如式(1)所示:

隱含層第i個(gè)神經(jīng)元輸入等于的加權(quán)和,式(2):激活函數(shù)為Sigmoid函數(shù)則隱含層第i個(gè)神經(jīng)元的輸出表示為式(3):輸出層第j個(gè)神經(jīng)元的輸入等于的加權(quán)和如式(4)所示(1)(2)(3)(4)10BP神經(jīng)網(wǎng)絡(luò)模型輸出層第j個(gè)神經(jīng)元的誤差如式(6): 網(wǎng)絡(luò)的總的誤差如式(7):

輸出層第j個(gè)神經(jīng)元的輸出:(5)(6)(7)11BP神經(jīng)網(wǎng)絡(luò)模型

將120組實(shí)驗(yàn)數(shù)據(jù)劃分為訓(xùn)練集(114組)和測(cè)試集(6組)。其中訓(xùn)練集數(shù)據(jù)用來(lái)訓(xùn)練并建立神經(jīng)網(wǎng)絡(luò)模型,測(cè)試集用來(lái)驗(yàn)證網(wǎng)絡(luò)預(yù)測(cè)性能的準(zhǔn)確性。為了防止較小的數(shù)據(jù)被較大的數(shù)據(jù)淹沒(méi),對(duì)各輸入樣本進(jìn)行歸一化處理,使網(wǎng)絡(luò)的輸入和目標(biāo)矢量取值范圍為[-1,1]。y--歸一化的輸入數(shù)據(jù);ymax--歸一化的數(shù)據(jù)最大值,即1;ymin--歸一化后數(shù)據(jù)最小值,即-1;x--輸入矢量;xmin--輸入矢量最小值;xmax--輸入矢量最大值12BP神經(jīng)網(wǎng)絡(luò)模型底流率流量分離效率壓降底流率流量分離效率壓降-0.8947-1-1-0.9544-0.68420.2-0.12450.03731-10.3193-1-0.57890.2-0.01070.0287-1-0.6-0.6844-0.6374-0.78950.6-0.04920.45070.6842-0.60.4835-0.7101-0.68420.60.06220.4410-0.5789-0.2-0.0602-0.3633-11-0.34651-0.4737-0.20.0748-0.3712-0.89471-0.22250.9773表3-1部分歸一化數(shù)據(jù)表3.2試驗(yàn)數(shù)據(jù)預(yù)處理13BP神經(jīng)網(wǎng)絡(luò)模型

對(duì)于BP神經(jīng)網(wǎng)絡(luò),最關(guān)鍵的網(wǎng)絡(luò)參數(shù)是隱含層節(jié)點(diǎn)數(shù)。隱含層節(jié)點(diǎn)數(shù)過(guò)少,導(dǎo)致網(wǎng)絡(luò)容錯(cuò)性差、識(shí)別未經(jīng)學(xué)習(xí)的樣本能力低。隱含層節(jié)點(diǎn)數(shù)過(guò)多,又會(huì)降低收斂速度,降低泛化能力。

3.3網(wǎng)絡(luò)參數(shù)設(shè)置圖4不同隱含層節(jié)點(diǎn)數(shù)下各預(yù)測(cè)參數(shù)相對(duì)誤差曲線

綜合考慮分離效率和壓降的預(yù)報(bào)誤差,選擇隱含層節(jié)點(diǎn)數(shù)為9。3.3.1隱含層節(jié)點(diǎn)數(shù)n--輸入層節(jié)點(diǎn)數(shù);m--輸出層節(jié)點(diǎn)數(shù);a--0~10之間的常數(shù)。輸入層節(jié)點(diǎn):旋流器的操作參數(shù),包括入口流量和底流率,n=2;輸出層節(jié)點(diǎn):旋流器的分離參數(shù),包括分離效率和壓降,m=2。14BP神經(jīng)網(wǎng)絡(luò)模型圖5不同訓(xùn)練方法下網(wǎng)絡(luò)訓(xùn)練過(guò)程3.3.2訓(xùn)練方法的選擇選擇trainlm作為訓(xùn)練函數(shù)訓(xùn)練方法訓(xùn)練步長(zhǎng)最小訓(xùn)練誤差trainlm12010-5traingdm100010-1trainbr7510-2表3-2不同訓(xùn)練方法比較trainlmtraingdmtrainbr15研究問(wèn)題概述人工神經(jīng)網(wǎng)絡(luò)模型2BP神經(jīng)網(wǎng)絡(luò)模型3Matlab程序41目錄5結(jié)論16clear,clc[x]=textread(‘shujubianhua11.txt’);%讀取數(shù)據(jù)trainx=x(1:2,1:114);trainy=x(3:4,1:114);%定義訓(xùn)練數(shù)據(jù)testx=x(1:2,115:120);testy=x(3:4,115:120);%定義測(cè)試數(shù)據(jù)[trainx1,s1]=mapminmax(trainx);%歸一化處理[trainy1,s2]=mapminmax(trainy);testx1=mapminmax('apply',testx,s1);testy1=mapminmax('apply',testy,s2);trainx11=trainx1(1:2,1:114);%預(yù)測(cè)參數(shù)trainy11=trainy1(1:2,1:114);net=newff(trainx1,trainy1,9);%建立可訓(xùn)練的前饋數(shù)據(jù)網(wǎng)絡(luò)net.trainparam.epochs=1000;%最大訓(xùn)練次數(shù)net.trainparam.goal=1e-8;%最小均方誤差net.trainparam.min_grad=1e-20;%最小梯度Matlab程序17Matlab程序net.trainparam.show=200;%訓(xùn)練顯示間隔net.trainparam.time=inf;%最大訓(xùn)練時(shí)間ticnet=train(net,trainx11,trainy11);%訓(xùn)練toctestty2=sim(net,testx1);%對(duì)測(cè)試樣本進(jìn)行仿真testtty=mapminmax(‘reverse’,testty2,s2)%反歸一化處理e=(testy-testtty)./testy%計(jì)算與實(shí)驗(yàn)值的相對(duì)誤差

figure(1)%作圖x=1:length(testtty);plot(x,testy(1,:),'b-');%分離效率真實(shí)值holdonplot(x,testtty(1,:),'r--');%分離效率預(yù)測(cè)值legend('真實(shí)值','預(yù)測(cè)值')18Matlab程序title('分離效率的測(cè)試結(jié)果')figure(2)plot(x,testy(2,:),'b-');%壓降真實(shí)值holdonplot(x,testtty(2,:),'r--');%壓降預(yù)測(cè)值legend('真實(shí)值','預(yù)測(cè)值')title('壓降的測(cè)試結(jié)果')19研究問(wèn)題概述人工神經(jīng)網(wǎng)絡(luò)模型2BP神經(jīng)網(wǎng)絡(luò)模型3Matlab程序41目錄5結(jié)論20結(jié)論5.1BP網(wǎng)絡(luò)預(yù)測(cè)結(jié)果分析5.1.1樣本組數(shù)對(duì)網(wǎng)絡(luò)性能影響43組56組85組114組訓(xùn)練樣本數(shù)分離效率Er/%壓降Er/%訓(xùn)練次數(shù)性能驗(yàn)證最佳值/×10-3436.466.241091.47567.012.161360.43852.040.54430.041140.650.71770.13表5-1不同訓(xùn)練樣本數(shù)下的BP網(wǎng)絡(luò)預(yù)測(cè)結(jié)果網(wǎng)絡(luò)預(yù)測(cè)精度與訓(xùn)練樣本數(shù)成正相關(guān)圖7BP網(wǎng)絡(luò)訓(xùn)練過(guò)程21BP神經(jīng)網(wǎng)絡(luò)模型

表5-2不同樣本順序下BP網(wǎng)絡(luò)預(yù)測(cè)結(jié)果5.1.2樣本順序?qū)W(wǎng)絡(luò)性能影響組別分離效率預(yù)測(cè)值1/%分離效率預(yù)測(cè)值2/%Er1/%Er2/%壓降預(yù)測(cè)值1/KPa壓降預(yù)測(cè)值2/KPaEr1/%Er2/%110.26799.86883.073.8953.469952.8358-0.131.19228.606829.0501-0.31-1.1578.621178.29610.3630.41336.190035.5932-1.011.65104.0784104.15680.27-0.08440.029440.0702-0.18-0.10138.7584138.5982-0.100.12545.975146.02671.27-0.11172.1850171.88080.820.18648.224048.2026-0.060.04215.0538215.26500.68-0.10

訓(xùn)練樣本的輸入順序?qū)P神經(jīng)網(wǎng)絡(luò)的預(yù)測(cè)性能影響并不大。22

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論