




版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
基于深度學(xué)習(xí)的非定常周期性流動(dòng)預(yù)測(cè)方法摘要:為了克服傳統(tǒng)CFD計(jì)算需要耗費(fèi)大量的計(jì)算時(shí)間與成本的缺陷,提出了一種基于深度學(xué)習(xí)的非定常周期性流場(chǎng)的預(yù)測(cè)框架,可以實(shí)時(shí)生成給定狀態(tài)的高可信度的流場(chǎng)結(jié)果。將條件生成對(duì)抗網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)相結(jié)合,改進(jìn)條件生成對(duì)抗網(wǎng)絡(luò)對(duì)生成樣本的約束方法,建立了基于深度學(xué)習(xí)策略采用改進(jìn)的回歸生成對(duì)抗網(wǎng)絡(luò)模型,并與常規(guī)的條件生成對(duì)抗網(wǎng)絡(luò)模型的預(yù)測(cè)結(jié)果進(jìn)行對(duì)比&研究表明,基于改進(jìn)的回歸生成對(duì)抗網(wǎng)絡(luò)的深度學(xué)習(xí)策略能準(zhǔn)確預(yù)測(cè)出指定時(shí)刻的流場(chǎng)變量,且總時(shí)長(zhǎng)比CFD數(shù)值模擬減少至少1個(gè)量級(jí)&關(guān)鍵詞:深度學(xué)習(xí);卷積神經(jīng)網(wǎng)絡(luò);生成對(duì)抗網(wǎng)絡(luò);回歸;非定常流場(chǎng);預(yù)測(cè)Amethodofunsteadyperiodicflowfieldprediction
basedonthedeeplearningAbstract:Inordertoovercometheshortagesofthecomputationallyexpensiveandtime!consumingiterativeprocessintraditionalCFDsimulation,aframeworkbasedonthedeeplearningtopredictperiodicunsteadyflowfieldisproposed,whichcanaccuratelypredictreal-timecomplexvortexflowstateatdifferentmoments.TheconditionalgenerativeadversarialnetworkandconvoAutionaAneuraAnetworkarecombinedtoimprovetheconditionaconstraintmethodfromconditionalgenerativeadversarialnetwork.Theimprovedregressiongenerativeadversarialnetworkbasedonthedeeplearnng;sproposed.Thetwoscenarosofcondtonalgeneratveadversaralnetworkandregressongeneratveadversaralnetworkaretestedandcomparedvagvngdfferentperodcmomentstopredctthecorrespondngflowfeldvarables.Thefnalresultsdemonstratethatregressongeneratveadversaralnetworkcanestmatecomplexflowfelds,and;sfasterthantradtonalCFDsmulatonoveroneorderofmagntudes.!Peywords:deeplearnng$convolutonalneuralnetwork$generatveadversaralnetworks$regresson$unsteadyflow$predcton在航空領(lǐng)域中進(jìn)行與氣動(dòng)相關(guān)的設(shè)計(jì)或優(yōu)化時(shí),經(jīng)常使用CFD數(shù)值模擬。但CFD往往需要消耗大量的計(jì)算資源與時(shí)間,在日益追求效率的現(xiàn)今時(shí)代,許多學(xué)者都對(duì)如何節(jié)省計(jì)算成本進(jìn)行了大量研究&例如借助降階模型,提取流場(chǎng)主要特征來(lái)降低計(jì)算時(shí)間。但降階模型對(duì)流場(chǎng)參數(shù)變化非常敏感⑵,缺乏足夠的魯棒性,即使是參數(shù)微小的變化,也容易導(dǎo)致降階模型精度降低。近年來(lái),深度學(xué)習(xí)技術(shù)強(qiáng)大的學(xué)習(xí)隱藏特征的能力,使其在圖像識(shí)別等領(lǐng)域得到廣泛應(yīng)用與發(fā)展$這也為如何進(jìn)行流場(chǎng)計(jì)算提供了新的思路$目前,深度學(xué)習(xí)在流體力學(xué)中的相關(guān)應(yīng)用仍不多見$2016年,美國(guó)Sandia國(guó)家實(shí)驗(yàn)室Ling等,通過(guò)將伽利略不變量嵌入深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),構(gòu)建了對(duì)雷諾平均(ReynoldsAveragedNavier-Stokes,RANS)湍流模型的深度學(xué)習(xí),對(duì)雷諾應(yīng)力的進(jìn)行了預(yù)測(cè),并以此為結(jié)果對(duì)管道流和速度場(chǎng)進(jìn)行了預(yù)測(cè)$Myanawala等人(2017)首次實(shí)現(xiàn)了深度卷積網(wǎng)絡(luò)通過(guò)二維柱體尾跡區(qū)流場(chǎng)變量對(duì)氣動(dòng)載荷的準(zhǔn)確預(yù)測(cè)$他們僅采用3組不同幾何外形柱體的全階模擬數(shù)據(jù)來(lái)訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)(ConvolutionalNeuralNetworks,CNN)[5],就成功預(yù)測(cè)了其他10組不同幾何外形柱體的流體載荷"6#$Lee等人(2017)采用生成對(duì)抗網(wǎng)絡(luò),來(lái)學(xué)習(xí)全階N!S方程(Navier-StokesEquations)的非定常數(shù)值解,通過(guò)對(duì)兩個(gè)雷諾數(shù)下二維圓柱繞流全階數(shù)值解的學(xué)習(xí),就能夠準(zhǔn)確預(yù)測(cè)出介于兩個(gè)訓(xùn)練雷諾數(shù)之間的二維圓柱尾流融合的非定常過(guò)程"7#$2018年,Lee通過(guò)雷諾數(shù)100?400的流場(chǎng)樣本集,成功預(yù)測(cè)了未參與訓(xùn)練的雷諾數(shù)為500與3000的流場(chǎng)"8#$上述例子充分說(shuō)明深度學(xué)習(xí)具有學(xué)習(xí)和預(yù)測(cè)復(fù)雜流動(dòng)現(xiàn)象的強(qiáng)大潛力$然而,現(xiàn)有的研究結(jié)果仍然存在一定的局限性,例如Myanawala"6#提出的卷積神經(jīng)網(wǎng)絡(luò)框架僅僅預(yù)測(cè)了圓柱繞流的氣動(dòng)力系數(shù)但并未直接預(yù)測(cè)非定常流場(chǎng),Lee"7-8」提出的生成對(duì)抗網(wǎng)絡(luò)框架必須將預(yù)測(cè)時(shí)刻的前幾個(gè)時(shí)刻的流場(chǎng)作為輸入信息,在事先沒有初始流場(chǎng)結(jié)果時(shí),很難開展相應(yīng)的流場(chǎng)預(yù)測(cè)工作。本文旨在實(shí)現(xiàn)僅需給出時(shí)間條件,即可基于深度學(xué)習(xí)預(yù)測(cè)對(duì)應(yīng)非定常流場(chǎng)。以非定常流場(chǎng)數(shù)值仿真結(jié)果作為訓(xùn)練樣本,將條件生成對(duì)抗網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)相結(jié)合,改進(jìn)條件約束方式。建立了回歸生成對(duì)抗網(wǎng)絡(luò),并比較了本文的約束方式與傳統(tǒng)方式的效果$1回歸生成對(duì)抗網(wǎng)絡(luò)為了能夠生成考慮時(shí)間條件約束的非定常流場(chǎng)預(yù)測(cè)結(jié)果,基于條件生成對(duì)抗網(wǎng)絡(luò)(ConditionalGenerativeAdversarialNets,CGAN)"D#,提出了改進(jìn)的回歸生成對(duì)抗網(wǎng)絡(luò)(RegressionGAN),并將常規(guī)的條件生成對(duì)抗網(wǎng)絡(luò)與改進(jìn)的回歸生成對(duì)抗網(wǎng)絡(luò)分別用于二維圓柱的非定常流場(chǎng)預(yù)測(cè),進(jìn)行了結(jié)果對(duì)比$1.1條件生成對(duì)抗網(wǎng)絡(luò)條件生成對(duì)抗網(wǎng)絡(luò)是一種考慮條件約束的生成對(duì)抗網(wǎng)絡(luò)模型$相比于傳統(tǒng)的"無(wú)控型"生成對(duì)抗網(wǎng)絡(luò),條件生成對(duì)抗網(wǎng)絡(luò)可以生成給定條件約束下的預(yù)測(cè)結(jié)果$條件生成對(duì)抗網(wǎng)絡(luò)與傳統(tǒng)生成對(duì)抗網(wǎng)絡(luò)"10」的區(qū)別是在生成器和判別器中均引入了條件y$將輸入噪聲z與條件y組合,作為生成器新的輸入,組合方式多種多樣,可選方式很多"11#;同樣的,將原本的輸入x和y作為判別器的新輸入$這樣我們可以通過(guò)改變y來(lái)指定輸出信息,其數(shù)學(xué)表達(dá)式為:minmaxV(D,G)=EG?0dataG)[lnD(x|y)#+GDEG~"ln(1—D(G(z|y)))# (1)其中,G(z|y)、D(G(z|y))分別為生成器、判別器輸出數(shù)據(jù),Pdaa表示訓(xùn)練樣本分布,6L表示噪聲分布,E代表期望值$1.2回歸生成對(duì)抗網(wǎng)絡(luò)訓(xùn)練流程!回歸生成對(duì)抗網(wǎng)絡(luò)對(duì)條件生成對(duì)抗網(wǎng)絡(luò)進(jìn)行了改進(jìn),增加回歸器對(duì)生成器的優(yōu)化方向進(jìn)行約束,其訓(xùn)練流程如圖1所示,主要分為三部分:生成器生成流場(chǎng)變量G(z|y)$為了學(xué)習(xí)流場(chǎng)變量x的分布P,我們定義噪聲z的先驗(yàn)分布PZ),與條件生成對(duì)抗網(wǎng)絡(luò)相同,生成器將z|y映射至G(z|y),即為預(yù)測(cè)得到的流場(chǎng)變量$判別器判別數(shù)據(jù)真假與自動(dòng)編碼$本文的判別器采用自動(dòng)編碼器E#的網(wǎng)絡(luò)結(jié)構(gòu),該方法在基于能量的生成對(duì)抗網(wǎng)絡(luò)"12#中首次提出,主要作用是判斷生成數(shù)據(jù)的真實(shí)性,以及自動(dòng)編碼真實(shí)數(shù)據(jù)與生成數(shù)據(jù)$以G(z|y)與x分別作為判別器的輸入,在訓(xùn)練過(guò)程中,D(G(z|y))越小,代表G(z|y)與真實(shí)數(shù)據(jù)x越接近,判別器自動(dòng)編碼數(shù)據(jù)的能力越強(qiáng);同理,D(x)越小,判別器自動(dòng)編碼數(shù)據(jù)的能力越強(qiáng)$圖1回歸生成對(duì)抗網(wǎng)絡(luò)訓(xùn)練流程圖Fig.1TrainingprocessofregressionGAN回歸生成對(duì)抗網(wǎng)絡(luò)在條件生成對(duì)抗網(wǎng)絡(luò)的基礎(chǔ)上增加回歸器,用于回歸時(shí)間標(biāo)簽R(G(z|y))$對(duì)于回歸器來(lái)說(shuō),只有G(z|y)足夠準(zhǔn)確,才能夠正確預(yù)測(cè)出對(duì)應(yīng)的時(shí)間R(G(z|y))$為了將回歸器
的效果反饋加入訓(xùn)練,以R(G(<Iy))與y之間的誤差作為損失函數(shù),作為生成器損失函數(shù)的一部分,用于約束生成器的優(yōu)化方向$訓(xùn)練過(guò)程中不斷重復(fù)上述三部分工作,最終可以得到有良好預(yù)測(cè)能力的生成器$測(cè)試過(guò)程僅需進(jìn)行第一部分,直接輸入對(duì)應(yīng)的時(shí)間標(biāo)簽y,即可得到需要預(yù)測(cè)時(shí)刻的流場(chǎng)$1.3樣本集采用CFD求解器對(duì)Re(1X10*、Ma(0.2&13'、圓柱直徑D=1m的圓柱繞流進(jìn)行了數(shù)值模擬。通過(guò)RANS方程求解,求解器為NASACFL3D&1*'$計(jì)算網(wǎng)格如圖2所示,網(wǎng)格尺寸為128X128(周向X法向),附面層第一層高度設(shè)置為5X10!*,》+(。.3,遠(yuǎn)場(chǎng)高度為50倍特征長(zhǎng)度(圓柱直徑)$圖2計(jì)算與訓(xùn)練網(wǎng)格Fig.2Sketchofcomputation/traininggrid圓柱繞流是以時(shí)間T為一周期的周期性流動(dòng),本文以T/40作為一個(gè)時(shí)間間隔,去除t(0、t(T時(shí)刻的流場(chǎng)數(shù)據(jù),以剩余的39個(gè)時(shí)刻的流場(chǎng)變量7F、6作為訓(xùn)練數(shù)據(jù)$標(biāo)簽y是該樣本在T中對(duì)應(yīng)的時(shí)間£$因?yàn)樯窠?jīng)網(wǎng)絡(luò)參數(shù)通過(guò)梯度下降方法[15]進(jìn)行優(yōu)化,為了令參數(shù)優(yōu)化更加準(zhǔn)確、加速梯度收斂,訓(xùn)練前對(duì)數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化處理$設(shè)共有5個(gè)訓(xùn)練樣本,以流場(chǎng)變量7為例:171&7F、6與7的標(biāo)準(zhǔn)化方法相同$即訓(xùn)練樣本集由38個(gè)尺寸為128X128X3(周向點(diǎn)數(shù)X法向點(diǎn)數(shù)以流場(chǎng)變量7為例:171&7X*7,F,6+y={'}(5)(5)(6)回歸生成對(duì)抗網(wǎng)絡(luò)的損失函數(shù)為:7Ld=D(x')—$D(G(<Iy))6lg(z)==D(G(zIy))+(1—=)L (7)[kl+1=$'J/k&)D(x)—D(G(<Iy))'L!="MSE(y,R(G(<Iy)))i-+"—R(G(<Iy))1 (8)其中:為一固定比例,取=0.001;初始$,=0,權(quán)重==0.97;)=0.5為平衡超參數(shù),其值越小表示生成樣本的多樣性越低,'為訓(xùn)練步數(shù)。$決定D(G<Iy))所占權(quán)重,防止D或G相較另一方能力太強(qiáng),出現(xiàn)過(guò)擬合或模型坍塌$1.5網(wǎng)絡(luò)結(jié)構(gòu)參數(shù)使用的回歸生成對(duì)抗網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)參數(shù)為:生成器以隱變量(隨機(jī)噪聲<(128X1)與真實(shí)標(biāo)簽(y(1)1)疊加作為輸入,即輸入數(shù)據(jù)尺寸為129X1$使用的生成器結(jié)構(gòu)為多層反向卷積神經(jīng)網(wǎng)絡(luò),其框架如圖3所示$訓(xùn)練過(guò)程中,生成器生成尺寸為128X128X3(周向點(diǎn)數(shù)X法向點(diǎn)數(shù)X流場(chǎng)變量個(gè)數(shù))的生成樣本G(<\y)$生成器模型結(jié)構(gòu)參數(shù)見表1$(a)生成器/解碼器 (b)編碼器圖3自動(dòng)編碼器網(wǎng)絡(luò)結(jié)構(gòu)Fig.3Designedautoencodernetworkarchitecture層類型核激活函數(shù)隱變量輸入0(128+1)--隱含層1卷積3X3X128ELU隱含層2卷積3X3X128ELU上采樣1-2X2-(隱含層1?上采樣1重復(fù)3次層類型核激活函數(shù)隱變量輸入0(128+1)--隱含層1卷積3X3X128ELU隱含層2卷積3X3X128ELU上采樣1-2X2-(隱含層1?上采樣1重復(fù)3次)隱含層9卷積3X3X128ELU隱含層10卷積3X3X128ELU隱含層11卷積3X3X3ELU表1生成器/解碼器網(wǎng)絡(luò)結(jié)構(gòu)與參數(shù)設(shè)置Table1Generator/decodernetworkusedinexperiments(2)(3)(4)表2編碼器網(wǎng)絡(luò)結(jié)構(gòu)與參數(shù)設(shè)置Table2Encodernetworkusedinexperiments層類型核激活函數(shù)輸入層輸入(128X128X3)--隱含層0卷積3X3X128ELU隱含層1卷積3X3X128ELU隱含層2卷積3X3X128ELUNN降采樣1-2X2-隱含層3卷積3X3X128ELU隱含層4卷積3X3X256ELUNN降采樣2-2X2-隱含層5卷積3X3X256ELU隱含層6卷積3X3X384ELUNN降采樣3-2X2-隱含層7卷積3X3X384ELU隱含層8卷積3X3X512ELUNN降采樣4-2X2-隱含層9卷積3X3X512ELU隱含層10卷積3X3X512ELU隱含層11全連接層128-使用的回歸器結(jié)構(gòu)為卷積神經(jīng)網(wǎng)絡(luò),如圖4所示$生成器生成的流場(chǎng)變量作為輸入,提取與映射輸入數(shù)據(jù)的特征回歸標(biāo)簽R!G<Iy))$回歸器模型結(jié)構(gòu)參數(shù)見表3$圖4本文中使用的回歸器網(wǎng)絡(luò)結(jié)構(gòu)Fig.4DesigEedregressornetworkarchitecture表!回歸器網(wǎng)絡(luò)結(jié)構(gòu)與參數(shù)設(shè)置Table3Regressornetworkusedinexperiments層類型核激活函數(shù)輸入層輸入(128X128X3)--隱含層1卷積3X3X20ReLU隱含層2池化2X2-隱含層3卷積3X3X40ReLU隱含層4池化2X2-隱含層5卷積3X3X60ReLU隱含層6池化2X2-隱含層7卷積3X3X80ReLU隱含層8池化2X2-隱含層9全連接層1024-隱含層10全連接層1tanh一般卷積神經(jīng)網(wǎng)絡(luò)主要由卷積層、激活函數(shù)、上采樣、降采樣、池化層和全連接層等組成$卷積層$卷積層是卷積神經(jīng)網(wǎng)絡(luò)的核心組成部分,每個(gè)卷積層由若干個(gè)卷積核組成,使用卷積核的目的是提取數(shù)據(jù)的不同特征$激活函數(shù)$神經(jīng)網(wǎng)絡(luò)本質(zhì)是線性函數(shù)的疊加,無(wú)法解決非線性問(wèn)題。激活函數(shù)給神經(jīng)元引入了非線性因素,使得神經(jīng)網(wǎng)絡(luò)可以逼近任意非線性函數(shù)$本文在自動(dòng)編碼器中的卷積層后都增加了指數(shù)線性單元(ExponentialLinearUnits,ELU)&1句激活函數(shù),在回歸器中使用了修正線性單元(RectifiedLinearUnt,ReLU)[17]和雙切正切函數(shù)[18]$上采樣。上采樣的目的是放大數(shù)據(jù)尺寸,-般采用內(nèi)插方法。插值方法有多種,本文采用最鄰近插值一一在待求點(diǎn)的四個(gè)相鄰點(diǎn)中,將距離待求點(diǎn)最近的點(diǎn)上的值直接賦予待求點(diǎn)$降采樣。降采樣的目的是縮小數(shù)據(jù)尺寸,獲取不同尺度信息$例如對(duì)于尺寸為HXW的數(shù)據(jù),對(duì)其進(jìn)行;倍降采樣,即得到(H/;)X(W/;)尺寸的數(shù)據(jù)$本文通過(guò)卷積層直接對(duì)數(shù)據(jù)進(jìn)行降采樣$池化層$池化層與降采樣的作用相似,主要用于特征降維,減少運(yùn)算數(shù)據(jù)量,在一定程度上防止過(guò)擬合$池化分為最大池化和平均池化。本文使用最大池化$全連接層$全連接層是由許多神經(jīng)元組成的,起到將學(xué)習(xí)到的“分布式特征表示”映射到樣本標(biāo)記空間的作用$這樣做的目的是高度提純數(shù)據(jù)特征,減少特征位置帶來(lái)的影響$2結(jié)果討論生成的訓(xùn)練樣本集總數(shù)為39個(gè),搭配對(duì)應(yīng)的周期性時(shí)間進(jìn)行訓(xùn)練$優(yōu)化器選擇Adam&19'最速下降法,—&(0.5,-2(0.999,學(xué)習(xí)率設(shè)置為0.0001,每批輸入2個(gè)樣本進(jìn)行訓(xùn)練,訓(xùn)練步數(shù)為1I0000步$訓(xùn)練完成后,將隱變量與未參與訓(xùn)練的39個(gè)標(biāo)簽(隨機(jī)選取如'(50/4、'(6/4等時(shí)刻)進(jìn)行疊加,輸入回歸生成對(duì)抗網(wǎng)絡(luò)、條件生成對(duì)抗網(wǎng)絡(luò)中的生成器進(jìn)行流場(chǎng)預(yù)測(cè),并挑選'(0、'(4/3、'(24/3、'(4時(shí)刻作為算例展示,如圖5?圖8所示$圖5?圖8,將回歸生成對(duì)抗網(wǎng)絡(luò)與條件生成對(duì)抗網(wǎng)絡(luò)與真實(shí)樣本進(jìn)行比較,可見回歸生成對(duì)抗網(wǎng)絡(luò)預(yù)測(cè)效果較為準(zhǔn)確,雖然在一些小尺度結(jié)構(gòu)上仍有差別,但已經(jīng)能夠捕捉三個(gè)流場(chǎng)變量7F6的絕大部分特征;'(0、'(4/3與'(4時(shí)刻比'(24/3時(shí)刻的預(yù)測(cè)效果更好,'(24/3時(shí)刻可以明顯觀察到等值線略微抖動(dòng),而不是像真實(shí)樣本中光滑連續(xù)$條件生成對(duì)抗網(wǎng)絡(luò)出現(xiàn)模型坍塌現(xiàn)象,不同時(shí)刻的流場(chǎng)預(yù)測(cè)結(jié)果幾乎完全一致,僅能夠捕捉到單一時(shí)刻的流場(chǎng)特征。以上兩項(xiàng)實(shí)驗(yàn)均表明,深度學(xué)習(xí)具有模擬復(fù)雜流動(dòng)的潛力$此時(shí)N-S方程已經(jīng)封閉,可通過(guò)7F6計(jì)算渦
量。渦量圖相較速度云圖與壓力云圖可以更加清晰地反映各個(gè)時(shí)刻不同的流動(dòng)狀態(tài)和旋渦的強(qiáng)度及方向,從渦量圖中可以直接觀察到渦在一個(gè)周期內(nèi)的變化情況。圖9展示了計(jì)算得到的渦量圖。與預(yù)測(cè)流場(chǎng)變量UFP類似,回歸生成對(duì)抗網(wǎng)絡(luò)成功地捕捉到流場(chǎng)特征,與真實(shí)樣本吻合良好。由于'(24/3時(shí)刻的預(yù)測(cè)效果相對(duì)較差,造成渦量雖能夠反映流動(dòng)特征,但渦的邊界抖動(dòng),出現(xiàn)不符合實(shí)際的流動(dòng)現(xiàn)象。(a)回歸生成對(duì)抗網(wǎng)絡(luò)預(yù)測(cè)結(jié)果(b)條件生成對(duì)抗網(wǎng)絡(luò)預(yù)測(cè)結(jié)果(c)真實(shí)樣本圖5非定常周期性流動(dòng)4=0流場(chǎng)變量預(yù)測(cè)結(jié)果對(duì)比(a)回歸生成對(duì)抗網(wǎng)絡(luò)預(yù)測(cè)結(jié)果Fig.5Comparisonbetweenthepredictedandgroundtruthflowfieldsat(a)回歸生成對(duì)抗網(wǎng)絡(luò)預(yù)測(cè)結(jié)果Fig.5Comparisonbetweenthepredictedandgroundtruthflowfieldsat4=0(b)條件生成對(duì)抗網(wǎng)絡(luò)預(yù)測(cè)結(jié)果(c)真實(shí)樣本圖6非定常周期性流動(dòng)4=)/3流場(chǎng)變量預(yù)測(cè)結(jié)果對(duì)比(a)回歸生成對(duì)抗網(wǎng)絡(luò)預(yù)測(cè)結(jié)果Fig.6Comparisonbetweenthepredictedandgroundtruthflowfieldsat4=(a)回歸生成對(duì)抗網(wǎng)絡(luò)預(yù)測(cè)結(jié)果Fig.6Comparisonbetweenthepredictedandgroundtruthflowfieldsat4=)/3(b)條件生成對(duì)抗網(wǎng)絡(luò)預(yù)測(cè)結(jié)果(c)真實(shí)樣本圖7非定常周期性流動(dòng)4=2)/3流場(chǎng)變量預(yù)測(cè)結(jié)果對(duì)比Fig.7Comparisonbetweenthepredictedandgroundtruthflowfieldsat4=2)/3(a)回歸生成對(duì)抗網(wǎng)絡(luò)預(yù)測(cè)結(jié)果(b)條件生成對(duì)抗網(wǎng)絡(luò)預(yù)測(cè)結(jié)果(c)真實(shí)樣本圖8非定常周期性流動(dòng)t=TFig.8Comparisonbetweenthepredictedandgroundtruthflowfieldsatt=Tduringtest(a)方(0時(shí)刻渦量云圖(b)t(T/3時(shí)刻渦量云圖(c)'(2T/3時(shí)刻渦量云圖(d)(d)'(T時(shí)刻渦量云圖圖9非定常周期性流動(dòng)渦量圖PredictedvorticityfromregressionGAN,conditionalGANandtruevalueFig.9邊界層信息對(duì)于計(jì)算氣動(dòng)力至關(guān)重要$本文收集了位于g(0、g(0.18D、g(0.36:處通過(guò)真實(shí)樣本與回歸生成對(duì)抗網(wǎng)絡(luò)預(yù)測(cè)樣本計(jì)算的邊界層速度型(圖10)$將真實(shí)樣本與回歸生成對(duì)抗網(wǎng)絡(luò)預(yù)測(cè)結(jié)果計(jì)算的速度型作差,得到相對(duì)誤差曲線,如圖11$從圖11中可以明顯觀察到,'(2T/3時(shí)刻的相對(duì)誤差較其余3個(gè)時(shí)刻的誤差更大,與前文的7、f、6預(yù)測(cè)效果相符$速度型預(yù)測(cè)的相對(duì)誤差維持在4%以內(nèi),大部分誤差不超過(guò)0.5%,反映出本文預(yù)測(cè)方法效果良好,可以正確捕捉邊界層特征$本文統(tǒng)計(jì)了CFD計(jì)算時(shí)長(zhǎng)、回歸生成對(duì)抗網(wǎng)絡(luò)訓(xùn)練與測(cè)試時(shí)長(zhǎng)如表4(CPU-h表示CPU單核計(jì)算1h,GPU?h表示GPU單核計(jì)算1h)$可以發(fā)現(xiàn),經(jīng)過(guò)GPU加速,訓(xùn)練完成后,只須運(yùn)行數(shù)秒即可生成所求流場(chǎng)變量,相比于CFD數(shù)值模擬,其計(jì)算時(shí)間至少減少一個(gè)量級(jí),且可以非常方便地預(yù)測(cè)任意時(shí)刻的流場(chǎng)變量,大大降低了計(jì)算時(shí)間與成本,縮短計(jì)算周期$
GroundTruth:x=0GroundTruth:x=0.1GroundTruth:x=0GroundTruth:x=0.18DGroundTruth:x=0.36DPredicted:x=0Predicted:x=0.18DPredicted:x=0.36Z)(c)t(2T/3時(shí)刻(5)t(T時(shí)刻(a)'=%時(shí)刻GroundTruth:x=0GroundTruth:x=0.18DGroundTruth:x=0.36DPredicted:x=0(a)'=%時(shí)刻GroundTruth:x=0GroundTruth:x=0.18DGroun
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 四川省駐重慶辦事處招聘真題2024
- 化學(xué)實(shí)驗(yàn)品質(zhì)提升
- 漢字演變之旅
- 寒露節(jié)氣與農(nóng)業(yè)循環(huán)
- 2025至2030年中國(guó)抑菌神強(qiáng)效漱口液市場(chǎng)分析及競(jìng)爭(zhēng)策略研究報(bào)告
- 2025━2030年精鑄不銹鋼管件行業(yè)深度研究報(bào)告
- 音樂舞蹈領(lǐng)域培訓(xùn)
- 2025-2035年全球及中國(guó)甲基二硫代氨基甲酸鈉行業(yè)市場(chǎng)發(fā)展現(xiàn)狀及發(fā)展前景研究報(bào)告
- 工業(yè)制造新挑戰(zhàn)與機(jī)遇
- 預(yù)防奧密克戎
- 教師系列高、中級(jí)職稱申報(bào)人員民意測(cè)評(píng)表
- 社會(huì)穩(wěn)定風(fēng)險(xiǎn)評(píng)估報(bào)告-穩(wěn)評(píng)報(bào)告
- 2024屆高考英語(yǔ)作文:讀后續(xù)寫課件
- 小學(xué)班隊(duì)工作原理與實(shí)踐 全套課件
- 形式語(yǔ)言與自動(dòng)機(jī)理論-蔣宗禮-第一章參考答案
- 注塑生產(chǎn)過(guò)程控制流程
- 教科版六年級(jí)科學(xué)下冊(cè) (廚房里的物質(zhì)與變化)教學(xué)課件
- 腸造口術(shù)-課件
- 建設(shè)工程概算預(yù)算結(jié)算管理規(guī)定
- 消費(fèi)者心理與行為分析PPT(第四版)完整全套教學(xué)課件
- 2021年安徽省公務(wù)員考試《申論》真題A卷
評(píng)論
0/150
提交評(píng)論