基于深度學(xué)習(xí)的非定常周期性流動預(yù)測方法_第1頁
基于深度學(xué)習(xí)的非定常周期性流動預(yù)測方法_第2頁
基于深度學(xué)習(xí)的非定常周期性流動預(yù)測方法_第3頁
基于深度學(xué)習(xí)的非定常周期性流動預(yù)測方法_第4頁
基于深度學(xué)習(xí)的非定常周期性流動預(yù)測方法_第5頁
已閱讀5頁,還剩4頁未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

基于深度學(xué)習(xí)的非定常周期性流動預(yù)測方法摘要:為了克服傳統(tǒng)CFD計(jì)算需要耗費(fèi)大量的計(jì)算時(shí)間與成本的缺陷,提出了一種基于深度學(xué)習(xí)的非定常周期性流場的預(yù)測框架,可以實(shí)時(shí)生成給定狀態(tài)的高可信度的流場結(jié)果。將條件生成對抗網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)相結(jié)合,改進(jìn)條件生成對抗網(wǎng)絡(luò)對生成樣本的約束方法,建立了基于深度學(xué)習(xí)策略采用改進(jìn)的回歸生成對抗網(wǎng)絡(luò)模型,并與常規(guī)的條件生成對抗網(wǎng)絡(luò)模型的預(yù)測結(jié)果進(jìn)行對比&研究表明,基于改進(jìn)的回歸生成對抗網(wǎng)絡(luò)的深度學(xué)習(xí)策略能準(zhǔn)確預(yù)測出指定時(shí)刻的流場變量,且總時(shí)長比CFD數(shù)值模擬減少至少1個(gè)量級&關(guān)鍵詞:深度學(xué)習(xí);卷積神經(jīng)網(wǎng)絡(luò);生成對抗網(wǎng)絡(luò);回歸;非定常流場;預(yù)測Amethodofunsteadyperiodicflowfieldprediction

basedonthedeeplearningAbstract:Inordertoovercometheshortagesofthecomputationallyexpensiveandtime!consumingiterativeprocessintraditionalCFDsimulation,aframeworkbasedonthedeeplearningtopredictperiodicunsteadyflowfieldisproposed,whichcanaccuratelypredictreal-timecomplexvortexflowstateatdifferentmoments.TheconditionalgenerativeadversarialnetworkandconvoAutionaAneuraAnetworkarecombinedtoimprovetheconditionaconstraintmethodfromconditionalgenerativeadversarialnetwork.Theimprovedregressiongenerativeadversarialnetworkbasedonthedeeplearnng;sproposed.Thetwoscenarosofcondtonalgeneratveadversaralnetworkandregressongeneratveadversaralnetworkaretestedandcomparedvagvngdfferentperodcmomentstopredctthecorrespondngflowfeldvarables.Thefnalresultsdemonstratethatregressongeneratveadversaralnetworkcanestmatecomplexflowfelds,and;sfasterthantradtonalCFDsmulatonoveroneorderofmagntudes.!Peywords:deeplearnng$convolutonalneuralnetwork$generatveadversaralnetworks$regresson$unsteadyflow$predcton在航空領(lǐng)域中進(jìn)行與氣動相關(guān)的設(shè)計(jì)或優(yōu)化時(shí),經(jīng)常使用CFD數(shù)值模擬。但CFD往往需要消耗大量的計(jì)算資源與時(shí)間,在日益追求效率的現(xiàn)今時(shí)代,許多學(xué)者都對如何節(jié)省計(jì)算成本進(jìn)行了大量研究&例如借助降階模型,提取流場主要特征來降低計(jì)算時(shí)間。但降階模型對流場參數(shù)變化非常敏感⑵,缺乏足夠的魯棒性,即使是參數(shù)微小的變化,也容易導(dǎo)致降階模型精度降低。近年來,深度學(xué)習(xí)技術(shù)強(qiáng)大的學(xué)習(xí)隱藏特征的能力,使其在圖像識別等領(lǐng)域得到廣泛應(yīng)用與發(fā)展$這也為如何進(jìn)行流場計(jì)算提供了新的思路$目前,深度學(xué)習(xí)在流體力學(xué)中的相關(guān)應(yīng)用仍不多見$2016年,美國Sandia國家實(shí)驗(yàn)室Ling等,通過將伽利略不變量嵌入深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),構(gòu)建了對雷諾平均(ReynoldsAveragedNavier-Stokes,RANS)湍流模型的深度學(xué)習(xí),對雷諾應(yīng)力的進(jìn)行了預(yù)測,并以此為結(jié)果對管道流和速度場進(jìn)行了預(yù)測$Myanawala等人(2017)首次實(shí)現(xiàn)了深度卷積網(wǎng)絡(luò)通過二維柱體尾跡區(qū)流場變量對氣動載荷的準(zhǔn)確預(yù)測$他們僅采用3組不同幾何外形柱體的全階模擬數(shù)據(jù)來訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)(ConvolutionalNeuralNetworks,CNN)[5],就成功預(yù)測了其他10組不同幾何外形柱體的流體載荷"6#$Lee等人(2017)采用生成對抗網(wǎng)絡(luò),來學(xué)習(xí)全階N!S方程(Navier-StokesEquations)的非定常數(shù)值解,通過對兩個(gè)雷諾數(shù)下二維圓柱繞流全階數(shù)值解的學(xué)習(xí),就能夠準(zhǔn)確預(yù)測出介于兩個(gè)訓(xùn)練雷諾數(shù)之間的二維圓柱尾流融合的非定常過程"7#$2018年,Lee通過雷諾數(shù)100?400的流場樣本集,成功預(yù)測了未參與訓(xùn)練的雷諾數(shù)為500與3000的流場"8#$上述例子充分說明深度學(xué)習(xí)具有學(xué)習(xí)和預(yù)測復(fù)雜流動現(xiàn)象的強(qiáng)大潛力$然而,現(xiàn)有的研究結(jié)果仍然存在一定的局限性,例如Myanawala"6#提出的卷積神經(jīng)網(wǎng)絡(luò)框架僅僅預(yù)測了圓柱繞流的氣動力系數(shù)但并未直接預(yù)測非定常流場,Lee"7-8」提出的生成對抗網(wǎng)絡(luò)框架必須將預(yù)測時(shí)刻的前幾個(gè)時(shí)刻的流場作為輸入信息,在事先沒有初始流場結(jié)果時(shí),很難開展相應(yīng)的流場預(yù)測工作。本文旨在實(shí)現(xiàn)僅需給出時(shí)間條件,即可基于深度學(xué)習(xí)預(yù)測對應(yīng)非定常流場。以非定常流場數(shù)值仿真結(jié)果作為訓(xùn)練樣本,將條件生成對抗網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)相結(jié)合,改進(jìn)條件約束方式。建立了回歸生成對抗網(wǎng)絡(luò),并比較了本文的約束方式與傳統(tǒng)方式的效果$1回歸生成對抗網(wǎng)絡(luò)為了能夠生成考慮時(shí)間條件約束的非定常流場預(yù)測結(jié)果,基于條件生成對抗網(wǎng)絡(luò)(ConditionalGenerativeAdversarialNets,CGAN)"D#,提出了改進(jìn)的回歸生成對抗網(wǎng)絡(luò)(RegressionGAN),并將常規(guī)的條件生成對抗網(wǎng)絡(luò)與改進(jìn)的回歸生成對抗網(wǎng)絡(luò)分別用于二維圓柱的非定常流場預(yù)測,進(jìn)行了結(jié)果對比$1.1條件生成對抗網(wǎng)絡(luò)條件生成對抗網(wǎng)絡(luò)是一種考慮條件約束的生成對抗網(wǎng)絡(luò)模型$相比于傳統(tǒng)的"無控型"生成對抗網(wǎng)絡(luò),條件生成對抗網(wǎng)絡(luò)可以生成給定條件約束下的預(yù)測結(jié)果$條件生成對抗網(wǎng)絡(luò)與傳統(tǒng)生成對抗網(wǎng)絡(luò)"10」的區(qū)別是在生成器和判別器中均引入了條件y$將輸入噪聲z與條件y組合,作為生成器新的輸入,組合方式多種多樣,可選方式很多"11#;同樣的,將原本的輸入x和y作為判別器的新輸入$這樣我們可以通過改變y來指定輸出信息,其數(shù)學(xué)表達(dá)式為:minmaxV(D,G)=EG?0dataG)[lnD(x|y)#+GDEG~"ln(1—D(G(z|y)))# (1)其中,G(z|y)、D(G(z|y))分別為生成器、判別器輸出數(shù)據(jù),Pdaa表示訓(xùn)練樣本分布,6L表示噪聲分布,E代表期望值$1.2回歸生成對抗網(wǎng)絡(luò)訓(xùn)練流程!回歸生成對抗網(wǎng)絡(luò)對條件生成對抗網(wǎng)絡(luò)進(jìn)行了改進(jìn),增加回歸器對生成器的優(yōu)化方向進(jìn)行約束,其訓(xùn)練流程如圖1所示,主要分為三部分:生成器生成流場變量G(z|y)$為了學(xué)習(xí)流場變量x的分布P,我們定義噪聲z的先驗(yàn)分布PZ),與條件生成對抗網(wǎng)絡(luò)相同,生成器將z|y映射至G(z|y),即為預(yù)測得到的流場變量$判別器判別數(shù)據(jù)真假與自動編碼$本文的判別器采用自動編碼器E#的網(wǎng)絡(luò)結(jié)構(gòu),該方法在基于能量的生成對抗網(wǎng)絡(luò)"12#中首次提出,主要作用是判斷生成數(shù)據(jù)的真實(shí)性,以及自動編碼真實(shí)數(shù)據(jù)與生成數(shù)據(jù)$以G(z|y)與x分別作為判別器的輸入,在訓(xùn)練過程中,D(G(z|y))越小,代表G(z|y)與真實(shí)數(shù)據(jù)x越接近,判別器自動編碼數(shù)據(jù)的能力越強(qiáng);同理,D(x)越小,判別器自動編碼數(shù)據(jù)的能力越強(qiáng)$圖1回歸生成對抗網(wǎng)絡(luò)訓(xùn)練流程圖Fig.1TrainingprocessofregressionGAN回歸生成對抗網(wǎng)絡(luò)在條件生成對抗網(wǎng)絡(luò)的基礎(chǔ)上增加回歸器,用于回歸時(shí)間標(biāo)簽R(G(z|y))$對于回歸器來說,只有G(z|y)足夠準(zhǔn)確,才能夠正確預(yù)測出對應(yīng)的時(shí)間R(G(z|y))$為了將回歸器

的效果反饋加入訓(xùn)練,以R(G(<Iy))與y之間的誤差作為損失函數(shù),作為生成器損失函數(shù)的一部分,用于約束生成器的優(yōu)化方向$訓(xùn)練過程中不斷重復(fù)上述三部分工作,最終可以得到有良好預(yù)測能力的生成器$測試過程僅需進(jìn)行第一部分,直接輸入對應(yīng)的時(shí)間標(biāo)簽y,即可得到需要預(yù)測時(shí)刻的流場$1.3樣本集采用CFD求解器對Re(1X10*、Ma(0.2&13'、圓柱直徑D=1m的圓柱繞流進(jìn)行了數(shù)值模擬。通過RANS方程求解,求解器為NASACFL3D&1*'$計(jì)算網(wǎng)格如圖2所示,網(wǎng)格尺寸為128X128(周向X法向),附面層第一層高度設(shè)置為5X10!*,》+(。.3,遠(yuǎn)場高度為50倍特征長度(圓柱直徑)$圖2計(jì)算與訓(xùn)練網(wǎng)格Fig.2Sketchofcomputation/traininggrid圓柱繞流是以時(shí)間T為一周期的周期性流動,本文以T/40作為一個(gè)時(shí)間間隔,去除t(0、t(T時(shí)刻的流場數(shù)據(jù),以剩余的39個(gè)時(shí)刻的流場變量7F、6作為訓(xùn)練數(shù)據(jù)$標(biāo)簽y是該樣本在T中對應(yīng)的時(shí)間£$因?yàn)樯窠?jīng)網(wǎng)絡(luò)參數(shù)通過梯度下降方法[15]進(jìn)行優(yōu)化,為了令參數(shù)優(yōu)化更加準(zhǔn)確、加速梯度收斂,訓(xùn)練前對數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化處理$設(shè)共有5個(gè)訓(xùn)練樣本,以流場變量7為例:171&7F、6與7的標(biāo)準(zhǔn)化方法相同$即訓(xùn)練樣本集由38個(gè)尺寸為128X128X3(周向點(diǎn)數(shù)X法向點(diǎn)數(shù)以流場變量7為例:171&7X*7,F,6+y={'}(5)(5)(6)回歸生成對抗網(wǎng)絡(luò)的損失函數(shù)為:7Ld=D(x')—$D(G(<Iy))6lg(z)==D(G(zIy))+(1—=)L (7)[kl+1=$'J/k&)D(x)—D(G(<Iy))'L!="MSE(y,R(G(<Iy)))i-+"—R(G(<Iy))1 (8)其中:為一固定比例,取=0.001;初始$,=0,權(quán)重==0.97;)=0.5為平衡超參數(shù),其值越小表示生成樣本的多樣性越低,'為訓(xùn)練步數(shù)。$決定D(G<Iy))所占權(quán)重,防止D或G相較另一方能力太強(qiáng),出現(xiàn)過擬合或模型坍塌$1.5網(wǎng)絡(luò)結(jié)構(gòu)參數(shù)使用的回歸生成對抗網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)參數(shù)為:生成器以隱變量(隨機(jī)噪聲<(128X1)與真實(shí)標(biāo)簽(y(1)1)疊加作為輸入,即輸入數(shù)據(jù)尺寸為129X1$使用的生成器結(jié)構(gòu)為多層反向卷積神經(jīng)網(wǎng)絡(luò),其框架如圖3所示$訓(xùn)練過程中,生成器生成尺寸為128X128X3(周向點(diǎn)數(shù)X法向點(diǎn)數(shù)X流場變量個(gè)數(shù))的生成樣本G(<\y)$生成器模型結(jié)構(gòu)參數(shù)見表1$(a)生成器/解碼器 (b)編碼器圖3自動編碼器網(wǎng)絡(luò)結(jié)構(gòu)Fig.3Designedautoencodernetworkarchitecture層類型核激活函數(shù)隱變量輸入0(128+1)--隱含層1卷積3X3X128ELU隱含層2卷積3X3X128ELU上采樣1-2X2-(隱含層1?上采樣1重復(fù)3次層類型核激活函數(shù)隱變量輸入0(128+1)--隱含層1卷積3X3X128ELU隱含層2卷積3X3X128ELU上采樣1-2X2-(隱含層1?上采樣1重復(fù)3次)隱含層9卷積3X3X128ELU隱含層10卷積3X3X128ELU隱含層11卷積3X3X3ELU表1生成器/解碼器網(wǎng)絡(luò)結(jié)構(gòu)與參數(shù)設(shè)置Table1Generator/decodernetworkusedinexperiments(2)(3)(4)表2編碼器網(wǎng)絡(luò)結(jié)構(gòu)與參數(shù)設(shè)置Table2Encodernetworkusedinexperiments層類型核激活函數(shù)輸入層輸入(128X128X3)--隱含層0卷積3X3X128ELU隱含層1卷積3X3X128ELU隱含層2卷積3X3X128ELUNN降采樣1-2X2-隱含層3卷積3X3X128ELU隱含層4卷積3X3X256ELUNN降采樣2-2X2-隱含層5卷積3X3X256ELU隱含層6卷積3X3X384ELUNN降采樣3-2X2-隱含層7卷積3X3X384ELU隱含層8卷積3X3X512ELUNN降采樣4-2X2-隱含層9卷積3X3X512ELU隱含層10卷積3X3X512ELU隱含層11全連接層128-使用的回歸器結(jié)構(gòu)為卷積神經(jīng)網(wǎng)絡(luò),如圖4所示$生成器生成的流場變量作為輸入,提取與映射輸入數(shù)據(jù)的特征回歸標(biāo)簽R!G<Iy))$回歸器模型結(jié)構(gòu)參數(shù)見表3$圖4本文中使用的回歸器網(wǎng)絡(luò)結(jié)構(gòu)Fig.4DesigEedregressornetworkarchitecture表!回歸器網(wǎng)絡(luò)結(jié)構(gòu)與參數(shù)設(shè)置Table3Regressornetworkusedinexperiments層類型核激活函數(shù)輸入層輸入(128X128X3)--隱含層1卷積3X3X20ReLU隱含層2池化2X2-隱含層3卷積3X3X40ReLU隱含層4池化2X2-隱含層5卷積3X3X60ReLU隱含層6池化2X2-隱含層7卷積3X3X80ReLU隱含層8池化2X2-隱含層9全連接層1024-隱含層10全連接層1tanh一般卷積神經(jīng)網(wǎng)絡(luò)主要由卷積層、激活函數(shù)、上采樣、降采樣、池化層和全連接層等組成$卷積層$卷積層是卷積神經(jīng)網(wǎng)絡(luò)的核心組成部分,每個(gè)卷積層由若干個(gè)卷積核組成,使用卷積核的目的是提取數(shù)據(jù)的不同特征$激活函數(shù)$神經(jīng)網(wǎng)絡(luò)本質(zhì)是線性函數(shù)的疊加,無法解決非線性問題。激活函數(shù)給神經(jīng)元引入了非線性因素,使得神經(jīng)網(wǎng)絡(luò)可以逼近任意非線性函數(shù)$本文在自動編碼器中的卷積層后都增加了指數(shù)線性單元(ExponentialLinearUnits,ELU)&1句激活函數(shù),在回歸器中使用了修正線性單元(RectifiedLinearUnt,ReLU)[17]和雙切正切函數(shù)[18]$上采樣。上采樣的目的是放大數(shù)據(jù)尺寸,-般采用內(nèi)插方法。插值方法有多種,本文采用最鄰近插值一一在待求點(diǎn)的四個(gè)相鄰點(diǎn)中,將距離待求點(diǎn)最近的點(diǎn)上的值直接賦予待求點(diǎn)$降采樣。降采樣的目的是縮小數(shù)據(jù)尺寸,獲取不同尺度信息$例如對于尺寸為HXW的數(shù)據(jù),對其進(jìn)行;倍降采樣,即得到(H/;)X(W/;)尺寸的數(shù)據(jù)$本文通過卷積層直接對數(shù)據(jù)進(jìn)行降采樣$池化層$池化層與降采樣的作用相似,主要用于特征降維,減少運(yùn)算數(shù)據(jù)量,在一定程度上防止過擬合$池化分為最大池化和平均池化。本文使用最大池化$全連接層$全連接層是由許多神經(jīng)元組成的,起到將學(xué)習(xí)到的“分布式特征表示”映射到樣本標(biāo)記空間的作用$這樣做的目的是高度提純數(shù)據(jù)特征,減少特征位置帶來的影響$2結(jié)果討論生成的訓(xùn)練樣本集總數(shù)為39個(gè),搭配對應(yīng)的周期性時(shí)間進(jìn)行訓(xùn)練$優(yōu)化器選擇Adam&19'最速下降法,—&(0.5,-2(0.999,學(xué)習(xí)率設(shè)置為0.0001,每批輸入2個(gè)樣本進(jìn)行訓(xùn)練,訓(xùn)練步數(shù)為1I0000步$訓(xùn)練完成后,將隱變量與未參與訓(xùn)練的39個(gè)標(biāo)簽(隨機(jī)選取如'(50/4、'(6/4等時(shí)刻)進(jìn)行疊加,輸入回歸生成對抗網(wǎng)絡(luò)、條件生成對抗網(wǎng)絡(luò)中的生成器進(jìn)行流場預(yù)測,并挑選'(0、'(4/3、'(24/3、'(4時(shí)刻作為算例展示,如圖5?圖8所示$圖5?圖8,將回歸生成對抗網(wǎng)絡(luò)與條件生成對抗網(wǎng)絡(luò)與真實(shí)樣本進(jìn)行比較,可見回歸生成對抗網(wǎng)絡(luò)預(yù)測效果較為準(zhǔn)確,雖然在一些小尺度結(jié)構(gòu)上仍有差別,但已經(jīng)能夠捕捉三個(gè)流場變量7F6的絕大部分特征;'(0、'(4/3與'(4時(shí)刻比'(24/3時(shí)刻的預(yù)測效果更好,'(24/3時(shí)刻可以明顯觀察到等值線略微抖動,而不是像真實(shí)樣本中光滑連續(xù)$條件生成對抗網(wǎng)絡(luò)出現(xiàn)模型坍塌現(xiàn)象,不同時(shí)刻的流場預(yù)測結(jié)果幾乎完全一致,僅能夠捕捉到單一時(shí)刻的流場特征。以上兩項(xiàng)實(shí)驗(yàn)均表明,深度學(xué)習(xí)具有模擬復(fù)雜流動的潛力$此時(shí)N-S方程已經(jīng)封閉,可通過7F6計(jì)算渦

量。渦量圖相較速度云圖與壓力云圖可以更加清晰地反映各個(gè)時(shí)刻不同的流動狀態(tài)和旋渦的強(qiáng)度及方向,從渦量圖中可以直接觀察到渦在一個(gè)周期內(nèi)的變化情況。圖9展示了計(jì)算得到的渦量圖。與預(yù)測流場變量UFP類似,回歸生成對抗網(wǎng)絡(luò)成功地捕捉到流場特征,與真實(shí)樣本吻合良好。由于'(24/3時(shí)刻的預(yù)測效果相對較差,造成渦量雖能夠反映流動特征,但渦的邊界抖動,出現(xiàn)不符合實(shí)際的流動現(xiàn)象。(a)回歸生成對抗網(wǎng)絡(luò)預(yù)測結(jié)果(b)條件生成對抗網(wǎng)絡(luò)預(yù)測結(jié)果(c)真實(shí)樣本圖5非定常周期性流動4=0流場變量預(yù)測結(jié)果對比(a)回歸生成對抗網(wǎng)絡(luò)預(yù)測結(jié)果Fig.5Comparisonbetweenthepredictedandgroundtruthflowfieldsat(a)回歸生成對抗網(wǎng)絡(luò)預(yù)測結(jié)果Fig.5Comparisonbetweenthepredictedandgroundtruthflowfieldsat4=0(b)條件生成對抗網(wǎng)絡(luò)預(yù)測結(jié)果(c)真實(shí)樣本圖6非定常周期性流動4=)/3流場變量預(yù)測結(jié)果對比(a)回歸生成對抗網(wǎng)絡(luò)預(yù)測結(jié)果Fig.6Comparisonbetweenthepredictedandgroundtruthflowfieldsat4=(a)回歸生成對抗網(wǎng)絡(luò)預(yù)測結(jié)果Fig.6Comparisonbetweenthepredictedandgroundtruthflowfieldsat4=)/3(b)條件生成對抗網(wǎng)絡(luò)預(yù)測結(jié)果(c)真實(shí)樣本圖7非定常周期性流動4=2)/3流場變量預(yù)測結(jié)果對比Fig.7Comparisonbetweenthepredictedandgroundtruthflowfieldsat4=2)/3(a)回歸生成對抗網(wǎng)絡(luò)預(yù)測結(jié)果(b)條件生成對抗網(wǎng)絡(luò)預(yù)測結(jié)果(c)真實(shí)樣本圖8非定常周期性流動t=TFig.8Comparisonbetweenthepredictedandgroundtruthflowfieldsatt=Tduringtest(a)方(0時(shí)刻渦量云圖(b)t(T/3時(shí)刻渦量云圖(c)'(2T/3時(shí)刻渦量云圖(d)(d)'(T時(shí)刻渦量云圖圖9非定常周期性流動渦量圖PredictedvorticityfromregressionGAN,conditionalGANandtruevalueFig.9邊界層信息對于計(jì)算氣動力至關(guān)重要$本文收集了位于g(0、g(0.18D、g(0.36:處通過真實(shí)樣本與回歸生成對抗網(wǎng)絡(luò)預(yù)測樣本計(jì)算的邊界層速度型(圖10)$將真實(shí)樣本與回歸生成對抗網(wǎng)絡(luò)預(yù)測結(jié)果計(jì)算的速度型作差,得到相對誤差曲線,如圖11$從圖11中可以明顯觀察到,'(2T/3時(shí)刻的相對誤差較其余3個(gè)時(shí)刻的誤差更大,與前文的7、f、6預(yù)測效果相符$速度型預(yù)測的相對誤差維持在4%以內(nèi),大部分誤差不超過0.5%,反映出本文預(yù)測方法效果良好,可以正確捕捉邊界層特征$本文統(tǒng)計(jì)了CFD計(jì)算時(shí)長、回歸生成對抗網(wǎng)絡(luò)訓(xùn)練與測試時(shí)長如表4(CPU-h表示CPU單核計(jì)算1h,GPU?h表示GPU單核計(jì)算1h)$可以發(fā)現(xiàn),經(jīng)過GPU加速,訓(xùn)練完成后,只須運(yùn)行數(shù)秒即可生成所求流場變量,相比于CFD數(shù)值模擬,其計(jì)算時(shí)間至少減少一個(gè)量級,且可以非常方便地預(yù)測任意時(shí)刻的流場變量,大大降低了計(jì)算時(shí)間與成本,縮短計(jì)算周期$

GroundTruth:x=0GroundTruth:x=0.1GroundTruth:x=0GroundTruth:x=0.18DGroundTruth:x=0.36DPredicted:x=0Predicted:x=0.18DPredicted:x=0.36Z)(c)t(2T/3時(shí)刻(5)t(T時(shí)刻(a)'=%時(shí)刻GroundTruth:x=0GroundTruth:x=0.18DGroundTruth:x=0.36DPredicted:x=0(a)'=%時(shí)刻GroundTruth:x=0GroundTruth:x=0.18DGroun

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論