![數(shù)據(jù)同化框架下基于差分進(jìn)化的遙感圖像融合_第1頁(yè)](http://file4.renrendoc.com/view/4dda19c7f831dbea2a4ab29167b6067c/4dda19c7f831dbea2a4ab29167b6067c1.gif)
![數(shù)據(jù)同化框架下基于差分進(jìn)化的遙感圖像融合_第2頁(yè)](http://file4.renrendoc.com/view/4dda19c7f831dbea2a4ab29167b6067c/4dda19c7f831dbea2a4ab29167b6067c2.gif)
![數(shù)據(jù)同化框架下基于差分進(jìn)化的遙感圖像融合_第3頁(yè)](http://file4.renrendoc.com/view/4dda19c7f831dbea2a4ab29167b6067c/4dda19c7f831dbea2a4ab29167b6067c3.gif)
![數(shù)據(jù)同化框架下基于差分進(jìn)化的遙感圖像融合_第4頁(yè)](http://file4.renrendoc.com/view/4dda19c7f831dbea2a4ab29167b6067c/4dda19c7f831dbea2a4ab29167b6067c4.gif)
![數(shù)據(jù)同化框架下基于差分進(jìn)化的遙感圖像融合_第5頁(yè)](http://file4.renrendoc.com/view/4dda19c7f831dbea2a4ab29167b6067c/4dda19c7f831dbea2a4ab29167b6067c5.gif)
版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
本文格式為Word版,下載可任意編輯——數(shù)據(jù)同化框架下基于差分進(jìn)化的遙感圖像融合
alos
第362023年3月
ACTAAUTOMATICASINICA
March,2023
數(shù)據(jù)同化框架下基于差分進(jìn)化的遙感圖像融合
陳榮元1,2,3
林立宇3
王四春1,2
秦前清3
摘要針對(duì)現(xiàn)有融合方法的結(jié)果圖像不易根據(jù)后續(xù)處理的要求進(jìn)行自適應(yīng)調(diào)整,不同方法的優(yōu)點(diǎn)不易綜合的問題,借鑒氣象領(lǐng)域中的數(shù)據(jù)同化系統(tǒng)能綜合其模型算子和觀測(cè)算子兩者優(yōu)點(diǎn)的思想,提出一個(gè)基于差分進(jìn)化的遙感圖像融合框架.在該框架下,將基于對(duì)比度α`trous的Contourlet變換作為模型算子,獨(dú)立分量分析和α`trous小波變換作為觀測(cè)算子,用差分進(jìn)化(Dierentialevolution,DE)算法來(lái)優(yōu)化由圖像定量評(píng)價(jià)指標(biāo)組成的目標(biāo)函數(shù),從而獲取更適合的圖像.二組試驗(yàn)從視覺效果和定量指標(biāo)兩方面驗(yàn)證了該框架的有效性.關(guān)鍵詞DOI
遙感,圖像融合,數(shù)據(jù)同化,差分進(jìn)化算法10.3724/SP.J.1004.2023.00392
RemoteSensingImageFusionBasedonDierentialEvolutionAlgorithmunder
DataAssimilationFramework
CHENRong-Yuan1,2,3
LINLi-Yu3
WANGSi-Chun1,2
QINQian-Qing3
AbstractImagesobtainedviaexistingimagefusionmethodscouldnotbeadjustedadaptivelyaccordingtosuccessiveimageprocessingstepsanditwashardtointegrateadvantagesofdierentfusionalgorithms.Inordertosolvetheseproblems,aremotesensingimagefusionframeworkbasedondataassimilationanddierentialevolution(DE)algorithmwasproposedinviewoftheadvantageofdataassimilationsystemcombiningthemeritsofitsmodeloperatorandobservationoperator.Underthisframework,contrastα`trouswaveletcontourlettransformwasusedasthemodeloperator,andindependentcomponentanalysisandα`trouswavelettransformastheobserveroperator.TheobjectivefunctionwascomposedofweightsumofindicesandDEwasemployedtoobtainaproperimage.Twogroupsofexperimentshaveveriedthefeasibilityoftheframeworkintermsofbothvisualqualityandobjectiveevaluationcriteria.Keywords
Remotesensing,imagefusion,dataassimilation,dierentialevolutionalgorithm
尋常一個(gè)成像系統(tǒng)很難獲得空間分辯率和光譜分辯率都很高的圖像,因此利用全色圖像與多光譜圖像進(jìn)行信息加工以獲得同時(shí)具有兩種圖像特性的融合結(jié)果,從而有利于后續(xù)處理應(yīng)用,是遙感圖像預(yù)處理的重要內(nèi)容.融合后的圖像用于目視解譯,比源圖像有著更好的視覺效果,用于分類則有助于提高分類精度.
錄用日期2023-07-24
ManuscriptreceivedFebruary23,2023;acceptedJuly24,2023國(guó)家重點(diǎn)基礎(chǔ)研究發(fā)展計(jì)劃(973計(jì)劃)(2023CB701303),國(guó)家高技術(shù)研究發(fā)展計(jì)劃(863計(jì)劃)(2023AA12Z132),湖南省教育廳資助科研項(xiàng)目(08C485,09C567),長(zhǎng)沙市軟科學(xué)計(jì)劃(K0802190-41),應(yīng)用型本科院?!笆晃濞晣?guó)家課題(FIB070335-A8-17)資助
SupportedbyNationalBasicResearchProgramofChina(973Program)(2023CB701303),NationalHighTechnologyRe-searchandDevelopmentProgramofChina(863Program)(2023AA12Z132),ScienticResearchFundofHunanProvin-cialEducationDepartment(08C485,09C567),SoftScienceofChangshaCity(K0802190-41),andApplication-orientedCol-legesandUniversities“EleventhFive-Year〞NationalProgram(FIB070335-A8-17)
1.湖南商學(xué)院信息學(xué)院長(zhǎng)沙4102052.湖南商學(xué)院管理工程研究所長(zhǎng)沙4102053.武漢大學(xué)測(cè)繪遙感信息工程國(guó)家重點(diǎn)試驗(yàn)室武漢430079
1.CollegeofInformation,HunanUniversityofCommerce,Changsha4102052.ManagementEngineeringInstituteofHunanUniversityofCommerce,Changsha4102053.StateKeyLaboratoryofInformationEngineeringinSurveying,Map-pingandRemoteSensing,WuhanUniversity,Wuhan430079收稿日期2023-02-23
現(xiàn)有的遙感圖像融合方法可大致分為3類:基于色調(diào)空間變換的方法,如IHS變換、Lab變換、YUV變換等[1];基于統(tǒng)計(jì)的方法如主成份分析,Brovey變換、獨(dú)立分量分析等[23];以及基于多尺度分析融合的方法,如金字塔變換、小波變換、Contourlet變換等[45].這些方法往往是單獨(dú)工作,不同方法的優(yōu)點(diǎn)不易綜合;并且這些方法的融合規(guī)則均需事先給定,所獲結(jié)果圖像不易根據(jù)后續(xù)處理的需要進(jìn)行自適應(yīng)調(diào)整,融合圖像的應(yīng)用受到限制.本文借鑒氣象領(lǐng)域中的數(shù)據(jù)同化思想[68],即把新觀測(cè)數(shù)據(jù)和數(shù)值模擬數(shù)據(jù)通過(guò)某種方法有效地結(jié)合起來(lái),最終得到更加客觀的接近自然的分析結(jié)果,提出一個(gè)基于差分進(jìn)化的遙感圖像融合框架,來(lái)解決上述問題,最終通過(guò)二組試驗(yàn)證明白該框架的有效性.
1數(shù)據(jù)同化系統(tǒng)
數(shù)據(jù)同化是指在考慮數(shù)據(jù)時(shí)空分布以及觀測(cè)場(chǎng)和背景場(chǎng)誤差的基礎(chǔ)上,在數(shù)值模型的動(dòng)態(tài)運(yùn)行過(guò)程中融合新的觀測(cè)數(shù)據(jù)的方法.數(shù)據(jù)同化的本質(zhì)就是將觀測(cè)數(shù)據(jù)和數(shù)值模擬數(shù)據(jù)通過(guò)某種方法有效地結(jié)合起來(lái),最終得到更加客觀的、接近自然的分析結(jié)
alos
果[78].
數(shù)據(jù)同化系統(tǒng)一般由模型算子、觀測(cè)算子、目標(biāo)函數(shù)、優(yōu)化算法等組成,以優(yōu)化目標(biāo)函數(shù)為目標(biāo).目標(biāo)函數(shù)可以用式(1)(見本頁(yè)下方)等形式來(lái)表示.式(1)中,J(x(t0))是目標(biāo)函數(shù)(泛函);ti表示時(shí)刻;x(t0)是狀態(tài)矢量的初始值,它是被同化或被反蛻變量組成的列矩陣,下標(biāo)0表示同化周期開始時(shí)的狀態(tài);xb(t0)是背景場(chǎng);yoi是i時(shí)刻的觀測(cè)值,它可以是與x不同物理意義、不同維數(shù)的矢量.M是模型算子;Hi被稱為觀測(cè)算子,Ri是觀測(cè)誤差的協(xié)方差矩陣;B是背景場(chǎng)誤差的協(xié)方差矩陣.其一般運(yùn)行流程如圖1所示[9].據(jù)同化系統(tǒng)的預(yù)計(jì)數(shù)據(jù),其流程如下[10].
1)分別對(duì)多光譜圖像的三個(gè)波段(R、G、B)和全色圖像做基于對(duì)比度α`trous小波的Contourlet變換,從而得到相應(yīng)的不同分辯率、不同方向上的低頻及高頻分量系數(shù);
2)對(duì)于高頻的Contourlet分量系數(shù),由全色圖像的高頻分量全部替代R、G、B三個(gè)波段對(duì)應(yīng)的高頻分量;
3)對(duì)于低頻的Contourlet分量系數(shù),則采用多光譜圖像的低頻分量;
4)進(jìn)行基于對(duì)比度α`trous小波的逆Con-tourlet變換后得到預(yù)計(jì)圖像.
1.2觀測(cè)算子
在氣象領(lǐng)域中,數(shù)據(jù)同化的觀測(cè)算子是被用來(lái)獲取當(dāng)前的觀測(cè)值.由于獨(dú)立分量分析能很好地去除波段間的相關(guān)性,得到的結(jié)果波段間是相互獨(dú)立的,利用基于獨(dú)立分量分析的遙感圖像融合方法得到的結(jié)果包含了比基于PCA變換的融合結(jié)果圖像更多的信息量,但保光譜特性不太好[10].本文把基于獨(dú)立分量分析和α`trous小波變換的融合方法作為觀測(cè)算子,基本步驟如下[3,11]:
步驟1.對(duì)源圖像進(jìn)行確切的幾何配準(zhǔn);步驟2.進(jìn)行R、G、B三個(gè)波段的多光譜圖像的獨(dú)立分量分析,得到三個(gè)彼此間相互獨(dú)立的波段.這里用IC1,IC2,IC3來(lái)表示;
步驟3.將全色圖像進(jìn)行相應(yīng)的去除均值與標(biāo)準(zhǔn)差的歸一化處理,運(yùn)用α`trous小波變換,得到相應(yīng)的高頻分量,即α`trous小波面和近似的冗余分量,并用下式進(jìn)行表達(dá):
圖1
Fig.1
數(shù)據(jù)同化流程圖
Workowofdataassimilation
基本的同化過(guò)程如下[7]:l)以模式預(yù)報(bào)場(chǎng)作為初估場(chǎng);2)對(duì)更新后的場(chǎng)作初值化處理;3)模式向前預(yù)報(bào)若干步,并將新的預(yù)報(bào)場(chǎng)作為下一次更新的初估場(chǎng),然后再返回到l),如此反復(fù),形成了一個(gè)循環(huán)過(guò)程:插入觀測(cè)–更新預(yù)報(bào)場(chǎng)–初值化–模式預(yù)報(bào)–插入觀測(cè)–更新預(yù)報(bào)場(chǎng)–初值化–模式預(yù)報(bào).
1.1模型算子
在氣象領(lǐng)域中,數(shù)據(jù)同化的模型算子利用當(dāng)前時(shí)刻的驅(qū)動(dòng)數(shù)據(jù),做出下一個(gè)時(shí)刻的短期預(yù)報(bào).基于α`trous小波變換方法的融合圖像的邊緣細(xì)節(jié)信息較模糊,整體對(duì)比度較低;基于Contourlet變換方法的融合圖像雖然整體對(duì)比度較高,但有明顯的Gibbs塊狀效應(yīng),因而會(huì)產(chǎn)生一些虛影模糊;基于對(duì)比度α`trous的Contourlet變換的融合方法,能在一定程度上綜合兩者的優(yōu)點(diǎn),戰(zhàn)勝兩者的缺點(diǎn).本文選擇基于對(duì)比度α`trous的Contourlet變換的融合方法作為本文的模型算子,其所獲得的圖像作為數(shù)
PAN=
ni=1
Wpi+PANr
式中PAN代表源全色圖像,n一般為2
或3,表示進(jìn)行2至3層的α`trous小波分
`trous小解,Wpi代表全色圖像的第i層α
波面,PANr代表全色圖像的近似冗余分量;
步驟4.為了將高分辯率圖像的結(jié)構(gòu)信息疊加到低分辯率多光譜圖像中,采用加法的融合規(guī)則進(jìn)行融合,把全色圖像的α`trous小波面直接加到三個(gè)獨(dú)立分量上,即:
N
11τ1obτ1b
J(x(t0))=[x(t0)x(t0)]B[x(t0)x(t0)]+[Hi(M(xi))yoi]Ri[Hi(M(xi))yi]22i=0
(1)
alos
IC1=nIC2=nIC3=n
ni=1ni=1ni=1
Wpi+IC1Wpi+IC2Wpi+IC3
步驟5.進(jìn)行逆獨(dú)立分量分析變換,所得圖像作
Ui(t+1),若F(Ui(t+1))≤F(Xi(t))
Xi(t+1)=
Xi(t),其他
(4)
步驟7.選出當(dāng)前最好的個(gè)體,假使其目標(biāo)函數(shù)值比Xbest的好,就用它取代Xbest;
步驟8.判斷是否達(dá)到終止條件或進(jìn)化代數(shù)達(dá)到最大,若是則進(jìn)化終止,將此時(shí)的最正確個(gè)體作為解輸出;否則,進(jìn)化代數(shù)t=t+1,轉(zhuǎn)步驟3.
為預(yù)計(jì)數(shù)據(jù).
1.3優(yōu)化算法
在氣象領(lǐng)域中,利用優(yōu)化算法來(lái)優(yōu)化目標(biāo)函數(shù),從而求得目標(biāo)解.差分進(jìn)化(Dierentialevolution,DE)算法是由Price首先提出的一種基于種群并行隨機(jī)探尋的新型進(jìn)化算法,該算法從原始種群開始,通過(guò)變異、雜交、選擇幾種遺傳操作來(lái)衍生出新的種群,經(jīng)過(guò)逐步迭代,不斷進(jìn)化,可實(shí)現(xiàn)全局最優(yōu)解的探尋[12].由于標(biāo)準(zhǔn)DE的變異操作簡(jiǎn)單造成中間結(jié)果圖像的像素值越界,本文把改造后的DE用作數(shù)據(jù)同化系統(tǒng)的優(yōu)化算法.設(shè)在一個(gè)n維的目標(biāo)探尋空間中(n為每幅圖像像素的個(gè)數(shù)),有m個(gè)個(gè)體(每個(gè)個(gè)體代表一幅圖像)組成種群X={X1,X2,,Xm},具體流程描述如下[12]:
步驟1.生成m個(gè)維數(shù)為n的個(gè)體作為DE的初始種群,每個(gè)個(gè)體表示為:
Xi(t),i=1,2,,m
步驟2.對(duì)初始種群進(jìn)行評(píng)價(jià),即計(jì)算初始種群中每個(gè)個(gè)體的目標(biāo)函數(shù)值,確定具有最好目標(biāo)值的Xbest;
步驟3.對(duì)每個(gè)個(gè)體從集合{1,2,,m}中隨機(jī)選取一個(gè)不等于i的隨機(jī)數(shù)r,依照式(2)執(zhí)行變異操作,以獲得相對(duì)應(yīng)的變異個(gè)體;
Vi(t+1)=Xr(t)+λ(Xbest(t)Xr(t))(2)
步驟4.對(duì)每個(gè)個(gè)體和其對(duì)應(yīng)的變異個(gè)體依照式(3)執(zhí)行交織操作,以獲得試驗(yàn)個(gè)體
vi,j(t+1),若rand(j)≤CRu(t+1)=
或j=randn(i),
i,jj=1,2,,nxi,j
(t),其他
(3)
步驟5.計(jì)算試驗(yàn)每個(gè)個(gè)體的目標(biāo)函數(shù)值;
步驟6.在個(gè)體和其試驗(yàn)個(gè)體之間依照式(4)執(zhí)行選擇操作,以生成新一代的種群
以上算法中,i表示個(gè)體在種群中的序號(hào);t表示當(dāng)前進(jìn)化的代數(shù);m為種群規(guī)模;Vi(t+1)為第i個(gè)個(gè)體在t+1代時(shí)對(duì)應(yīng)的變異個(gè)體;當(dāng)0≤λ≤1且Xr(t)和Xbest(t)的值都在[0,255]范圍內(nèi)時(shí),利用式(2)所產(chǎn)生的Vi(t+1)的像素值也在[0,255]范圍內(nèi);rand(j)是第j個(gè)獨(dú)立的0到1之間均勻分布的隨機(jī)變量;randn(i)是在集合{1,2,,n}中隨機(jī)選取的隨機(jī)數(shù);CR為0到1之間的交織參數(shù);控制種群的分散度;F(Ui(t+1))為Ui(t+1)的目標(biāo)函數(shù)值;F(Xi(t+1))為Xi(t))的目標(biāo)函數(shù)值.
2數(shù)據(jù)同化框架下的圖像融合
圖像融合一般可看成是兩(多)幅圖像的綜合,結(jié)果圖像的像素值是所有源圖像的對(duì)應(yīng)像素值的某種特定的加權(quán)和,可看成是源圖像相互向?qū)Ψ娇繑n而成的結(jié)果,這正是文獻(xiàn)[6]所介紹的第3種數(shù)據(jù)同化方式.
2.1融合流程
本文把源圖像作為數(shù)據(jù)同化的驅(qū)動(dòng)數(shù)據(jù),利用基于對(duì)比度α`trous的Contourlet變換的融合方法(模型算子)產(chǎn)生的圖像作為預(yù)計(jì)數(shù)據(jù);利用獨(dú)立分量分析和α`trous小波變換的方法(觀測(cè)算子)產(chǎn)生的圖像作為觀測(cè)數(shù)據(jù);圖像的定量評(píng)價(jià)指標(biāo)作為目標(biāo)函數(shù);利用DE來(lái)優(yōu)化目標(biāo)函數(shù),目標(biāo)函數(shù)的解作為最終結(jié)果圖像.具體算法流程如圖2所示:
算法步驟如下:
步驟1.運(yùn)行模型算子,把利用基于對(duì)比度α`trous的Contourlet變換的融合方法產(chǎn)生的圖像作為預(yù)計(jì)數(shù)據(jù);
步驟2.運(yùn)行觀測(cè)算子,把利用基于獨(dú)立分量分析和α`trous小波變換的方法產(chǎn)生的圖像作為觀測(cè)數(shù)據(jù);
步驟3.構(gòu)造數(shù)據(jù)同化的目標(biāo)函數(shù),不同的后續(xù)處理對(duì)圖像的各項(xiàng)屬性所依靠的程度是不同的,因此可以用屬性的權(quán)重來(lái)反映該屬性對(duì)后續(xù)處理影響的程度,由多個(gè)評(píng)價(jià)指標(biāo)的加權(quán)和來(lái)組成目標(biāo)函數(shù),
alos
目標(biāo)函數(shù)可寫成:
f=a1index1+a2index2++anindexn(5)
式中,index1,index2,,indexn表示圖像的各個(gè)評(píng)價(jià)指標(biāo),指標(biāo)可以是標(biāo)準(zhǔn)方差、平均梯度、熵、空間頻率、均方根交織熵、結(jié)構(gòu)相像度、相關(guān)系數(shù)等;a1,a2,,an表示各個(gè)指標(biāo)的權(quán)重.當(dāng)用平均梯度為目標(biāo)函數(shù)時(shí),上式就變成了:
f=averageGradient
其中,averageGradient表示圖像的平均梯度,在這種狀況下,只有平均梯度的權(quán)重為1,其余指標(biāo)的權(quán)重都為0.本文分別單獨(dú)選取了融合圖像的平均梯度和空間頻率作為目標(biāo)函數(shù).
步驟4.初始化優(yōu)化算法,把步驟1和步驟2得到的每個(gè)圖像再?gòu)?fù)制4份,共10幅圖像一起作為DE的初始種群;確定終止規(guī)則(最大迭代30次或連續(xù)5次迭代中獲得的全局最優(yōu)個(gè)體的適應(yīng)度值都沒有進(jìn)步).
考慮到利用多種方法分別產(chǎn)生個(gè)體來(lái)增加初始種群多樣性的方案會(huì)帶來(lái)過(guò)大的計(jì)算開銷,本文采用復(fù)制方式來(lái)擴(kuò)大初始種群規(guī)模.
步驟5.運(yùn)行同化算法,即利用差分進(jìn)化算法來(lái)優(yōu)化目標(biāo)函數(shù),得到最終結(jié)果圖像.
圖2
算法流程
Fig.2
Workowofourproposedalgorithm
2.2算法繁雜度分析
假設(shè)每幅圖像有n個(gè)像素,如把加、減、乘、除、賦值都看成一個(gè)單位運(yùn)算,則算法優(yōu)化部分的時(shí)間繁雜度為:
每個(gè)變異操作需要4n個(gè)運(yùn)算,每個(gè)交織操作需
要3n個(gè)運(yùn)算,選擇操作需要n個(gè)運(yùn)算,計(jì)算標(biāo)準(zhǔn)方差、平均梯度、熵、和空間頻率的時(shí)間繁雜度都小于O(10n),本文方法的時(shí)間繁雜度為O(18mtn),其中m為種群中個(gè)體的數(shù)目,t為優(yōu)化最多迭代的次數(shù),本文中m和t分別為10和30,即本文方法的優(yōu)化部分時(shí)間繁雜度為O(5400n);而傳統(tǒng)的小波包的繁雜度O(nlog2n),典型的非下采樣Contourlet一次變換繁雜度為O(1536n)[13].本文方法總的時(shí)間繁雜度相對(duì)于傳統(tǒng)的融合方法沒有太大的增加.
空間繁雜度:設(shè)存儲(chǔ)每幅多光譜圖像(n個(gè)像素)需要一個(gè)單位的空間,優(yōu)化算法有10個(gè)初始個(gè)體;在優(yōu)化過(guò)程中,每個(gè)初始個(gè)體產(chǎn)生1個(gè)交織個(gè)體和1個(gè)變異個(gè)體,即每個(gè)個(gè)體共需要3個(gè)單位的空間;加上一個(gè)保存全局最優(yōu)解的空間,由此可知本文共需要31個(gè)單位空間,即空間繁雜度為常數(shù)31.
從上述的分析可知,本文方法的時(shí)空繁雜度只是在傳統(tǒng)融合方法的基礎(chǔ)上分別增加了線性和常數(shù)的繁雜度,正常狀況下是可以得到滿足的.
3試驗(yàn)及結(jié)果分析
為驗(yàn)證本文算法的有效性,試驗(yàn)通過(guò)兩組全色與多光譜圖像的融合進(jìn)行,圖像的大小均為256256,每組試驗(yàn)都分別采用基于對(duì)比度α`trous的Contourlet變換的融合方法、基于獨(dú)立分量分析和α`trous小波變換的融合方法、數(shù)據(jù)同化框架下的分別以平均梯度和空間頻率作為目標(biāo)函數(shù)的4種融合方法.
第1組試驗(yàn)采用SPOT全色圖像和TM多光譜圖像,分辯率分別為2.5m和10m,多光譜圖像經(jīng)過(guò)了最鄰近重采樣,重采樣后的分辯率為2.5m,源圖像及各種方法融合圖像如圖3所示,第2組試驗(yàn)采用IKONOS的全色圖像和多光譜圖像,分辯率分別為1m和4m,多光譜圖像經(jīng)過(guò)了最鄰近重采樣,重采樣后的分辯率為1m,源圖像及各種方法融合圖像如圖4所示,從視覺上可看出4種方法融合所得圖像其空間分辯率都有一定的提高,地物邊界等信息更加明了,更有利于判讀.
本文采用標(biāo)準(zhǔn)方差、平均梯度、熵、和空間頻率、均方根交織熵等定量指標(biāo)來(lái)評(píng)價(jià)融合圖像的質(zhì)量.其中,標(biāo)準(zhǔn)差是由圖像灰度值相對(duì)于均值的分散度測(cè)定,其值越大則圖像的灰度階調(diào)變化范圍越大,圖像的反差越大,圖像的信息量也越大,分辯率越高.平均梯度能夠反映出圖像中微小細(xì)節(jié)反差和紋理特征,一般說(shuō)來(lái),其值越大,圖像就越顯得明了.熵反映了信息量,熵越大,圖像所含的信息越豐富.空間頻率反映了一幅圖像空間的總體活躍程度.均方根交織熵表示源圖像與融合圖像間的綜合差異,其值越小,表示融合圖像與源圖像差異越小[1415].兩組融
alos
合圖像的定量指標(biāo)值分別如表1和表2所示(見下頁(yè)).
表1和表2中的方法1~4分別表示基于對(duì)比度α`trous的Contourlet變換的融合方法、基于獨(dú)立分量分析和α`trous小波變換的融合方法、數(shù)據(jù)同化框架下分別以平均梯度和空間頻率作目標(biāo)函數(shù)的方法.
(a)源全色圖像(b)源多光譜圖像(a)Panchromaticimage
(b)Multispectralimage
(c)基于對(duì)比度α`trous的
(d)基于獨(dú)立分量分析和Contourlet變換的融合
α`trous小波變換的融合
算法結(jié)果
算法結(jié)果
(c)Fusedimageofusing(d)Fusedimageofusingcontrastα`trouswaveletindependentcomponentcontourlettransform
analysisandα`trouswavelet
transform
(e)數(shù)據(jù)同化框架下平均梯度作(f)數(shù)據(jù)同化框架下空間頻率作為目標(biāo)函數(shù)的融合算法結(jié)果
為目標(biāo)函數(shù)的融合算法結(jié)果
(e)Averagegradientas(f)Spatialfrequencyasobjectivefunctionunder
objectivefunctionunder
dataassimilationframeworkdataassimilationframework
圖3第1組試驗(yàn)圖像的融合Fig.3
Therstgroupofimages
(a)源全色圖像(b)源多光譜圖像(a)Panchromaticimage
(b)Multispectralimage
(c)基于對(duì)比度α`trous的
(d)基于獨(dú)立分量分析和α`trousContourlet變換的融合算法結(jié)果小波變換的融合算法結(jié)果(c)Fusedimageofusing(d)Fusedimageofusingcontrastα`trouswaveletindependentcomponentcontourlettransform
analysisandα`trouswavelet
transform
(e)數(shù)據(jù)同化框架下平均梯度作(f)數(shù)據(jù)同化框架下空間頻率作為目標(biāo)函數(shù)的融合算法結(jié)果
為目標(biāo)函數(shù)的融合算法結(jié)果
(e)Averagegradientas(f)Spatialfrequencyasobjectivefunctionunder
objectivefunctionunder
dataassimilationframeworkdataassimilationframework
圖4第2組試驗(yàn)圖像的融合Fig.4
Thesecondgroupofimages
從兩個(gè)表中可看出,當(dāng)以平均梯度為目標(biāo)函數(shù)
時(shí),所得到的對(duì)應(yīng)圖像的平均梯度較基于對(duì)比度α`trous的Contourlet變換和基于獨(dú)立分量分析和α`trous小波變換兩種方法的結(jié)果有了較大的提高.這說(shuō)明通過(guò)構(gòu)造適合的目標(biāo)函數(shù),可以獲得特定屬性更優(yōu)的融合結(jié)果,而這很有利于后續(xù)處理的特定需要.以空間頻率作為目標(biāo)函數(shù)方法也有類似的結(jié)論,這里就不再贅述.本文與模型算子及觀測(cè)算子在
alos
均方根交織熵這個(gè)指標(biāo)上的表現(xiàn)相差甚微,這說(shuō)明本文算法在優(yōu)化目標(biāo)函數(shù)的過(guò)程中沒有明顯地引入虛假信息.
表1
第1組圖像融合試驗(yàn)的客觀性能指標(biāo)
Table1
Performancesofdierentfusionschemesforthe
rstgroupofimages
融合方法波段標(biāo)準(zhǔn)方差平均梯度熵空間頻率均方根交織熵
R
64.781938.17497.679783.00660.52331
G59.973238.75517.702383.05900.7035B
55.442628.71407.355566.2832
0.2858
R
67.040323.96417.543850.25550.71282
G58.979623.44427.539150.20000.4312B
65.598519.87807.465443.8575
0.3252
R
69.084644.22607.665196.91050.54353
G65.506644.97277.718496.62350.6181B
54.903832.87157.363475.7777
0.3279
R
69.084044.22567.664996.91080.54374
G65.506344.97257.718596.62400.6182B
54.903532.87127.363475.7765
0.3278
表2
第2組圖像融合試驗(yàn)的客觀性能指標(biāo)Table2
Performancesofdierentfusionschemesforthe
secondgroupofimages
融合方法波段標(biāo)準(zhǔn)方差平均梯度熵空間頻率均方根交織熵
R
58.530418.00467.683127.06770.16921
G57.893717.92687.666627.14020.1112B
58.988217.96337.505027.5300
0.1772
R
56.481017.39817.653226.62500.15232
G55.792717.31297.640626.67240.0890B
56.958517.37557.515427.0343
0.1563
R
62.211120.89567.699831.24610.19213
G61.700720.85767.680131.38680.1565B
62.689820.78597.451331.7920
0.2268
R
62.176120.85717.696831.25690.19094
G61.671420.81997.679031.39990.1539B
62.698020.75847.454531.8117
0.2254
當(dāng)式(5)中的a1,a2,,an取不同的組合,會(huì)
有不同的結(jié)果,總之是那些大權(quán)重所對(duì)應(yīng)的屬性指標(biāo)會(huì)得到較大的提高,而小權(quán)重對(duì)應(yīng)的屬性指標(biāo)會(huì)得到較小的提高,有時(shí)小權(quán)重所對(duì)應(yīng)的指標(biāo)還會(huì)有所下降.各個(gè)屬性指標(biāo)的權(quán)重大小不僅要考慮各屬性指標(biāo)對(duì)后續(xù)處理影響的程度,還要考慮到各個(gè)屬性指標(biāo)值的大小,也就是各個(gè)屬性指標(biāo)值要進(jìn)行歸一化處理,不同的歸一化處理方法對(duì)最終結(jié)果也會(huì)有一定的影響.
4結(jié)論與展望
本文的方法在一定程度上解決了現(xiàn)有融合模型的建立不夠客觀,參數(shù)選取隨意性大,不易根據(jù)后續(xù)處理目的對(duì)融合規(guī)則進(jìn)行自適應(yīng)調(diào)整的缺點(diǎn),也解決了不同融合方法的優(yōu)點(diǎn)不易綜合的問題,能夠更簡(jiǎn)單地獲取適合的結(jié)果圖像.
選取適合的融合方法作為數(shù)據(jù)同化系統(tǒng)的模型算子和觀測(cè)算子是一個(gè)難點(diǎn)和重點(diǎn),適合的模型算子和預(yù)計(jì)算子有利于獲取好的預(yù)計(jì)數(shù)據(jù)和觀測(cè)數(shù)據(jù),而好的預(yù)計(jì)數(shù)據(jù)和觀測(cè)數(shù)據(jù)有助于最終適合數(shù)據(jù)的獲取[1617].如何在機(jī)理上和試驗(yàn)上分析各度量指標(biāo)的相互關(guān)系,綜合考慮多個(gè)屬性對(duì)圖像后續(xù)處理的協(xié)同影響,選取適合的指標(biāo)權(quán)重來(lái)構(gòu)造適合的目標(biāo)函數(shù),選擇適合的優(yōu)化方法以充分利用所選模型算子和觀測(cè)算子的各自優(yōu)點(diǎn),以及滿足特定的后續(xù)應(yīng)用需要,是下一步研究的重點(diǎn).
References
1Gonzalez-AudicanaM,SaletaJL,CatalanRG,GarciaR.Fusionofmultispectralandpanchromaticimagesusingim-provedIHSandPCAmergersbasedonwaveletdecomposi-tion.IEEETransactionsonGeoscienceandRemoteSensing,2023,42(6):12911299
2WuJ,LiuJ,TianJW,YinBK.Wavelet-basedremotesensingimagefusionwithPCAandfeatureproduct.In:Proceedingsofthe2023InternationalConferenceonMecha-tronicsandAutomation.Luoyang,China:IEEE,2023.20532057
3ChenMi,XuanJian-Hui,LiDe-Ren,QinQian-Qing,JiaYong-Hong.Imagefusionalgorithmbasedonindependentcomponentanalysis.Opto-ElectronicEngineering,2023,34(6):8287
(陳蜜,伭劍輝,李德仁,秦前清,賈永紅.獨(dú)立分量分析的圖像融合算法.光電工程,2023,34(6):8287)
4MiaoQi-Guang,WangBao-Shu.Multi-sensorimagefusionbasedonimprovedLaplacianpyramidtransform.ActaOp-ticaSinica,2023,27(9):16051610
(苗啟廣,王寶樹.基于改進(jìn)的拉普拉斯金字塔變換的圖像融合方法.光學(xué)學(xué)報(bào),2023,27(9):16051610)
5TangL,ZhaoZG.Multiresolutionimagefusionbasedonthewavelet-basedcontourlettransform.In:Proceedingsofthe10thInternationalConferenceonInformationFusion.Quebec,Canada:IEEE,2023.184189
6WangYue-Shan.Dataassimilation—itscause,itsmeaningandmainprocedures.MarineForecasts,1999,16(1):1120(王躍山.數(shù)據(jù)同化—它的緣起、含義和主要方法.海洋預(yù)報(bào),1999,16(1):1120)
alos
7BachH,MauserW.Methodsandexamplesforremotesensingdataassimilationinlandsurfaceprocessmodel-ing.IEEETransactionsonGeoscienceandRemoteSensing,2023,41(7):162916378HuangChun-Lin,LiXin.Areviewoflanddataassimilationsystem.RemoteSensingTechnologyandApplication,2023,19(5):424430
(黃春林,李新.陸面數(shù)據(jù)同化系統(tǒng)的研究綜述.遙感技術(shù)與應(yīng)用,2023,19(5):424430)9LiX,ToshioK,http://.77putersandGeosciences,2023,30(3):23924810ChenMi.ResearchonMethodsandApplicationsofImage
DataFusionBasedonIndependentComponentAnalysis[Ph.D.dissertation],WuhanUniversity,China,2023
(陳蜜.基于獨(dú)立分量分析的影像信息融合方法與應(yīng)用研究[博士學(xué)位論文],武漢大學(xué),中國(guó),2023)11MitianoudisN,StathakiT.Optimalcontrastforcolorim-agefusionusingICAbases.In:Proceedingsofthe11thInternationalConferenceonInformationFusion.Cologne,Germany:IEEE,2023.1712LiuBo,WangLing,JinYi-Hui.Advancesindierentialevo-lution.ControlandDecision,2023,22(7):721729
(劉波,王凌,金以慧.差分進(jìn)化算法研究進(jìn)展.控制與決策,2023,22(7):721729)13daCunhaAL,ZhouJP,DoMN.Thenonsubsam-pledcontourlettransform:theory,design,andapplications.IEEETransactionsonImageProcessing,2023,15(10):3089310114LiuGui-Xi,ChenWen-Jin,YangWan-Hai.Studyonthein-uenceoffusionparametersontheperformanceofcontrastpyramiddecomposition-basedimagefusionscheme.JournalofCircuitsandSystems,2023,11(1):3945
(劉貴喜,陳文錦,楊萬(wàn)海.融合參數(shù)比較較度塔形分解圖像融合方法性能的影響研究.電路與系統(tǒng)學(xué)報(bào),2023,11(1):3945)15DeAA,MoschittaA,RussoF,CarboneP.Imagequality
assessment:anoverviewandsomemetrologicalconsidera-tions.In:Proceedingsofthe2023IEEEInternationalWork-shoponAdvancedMethodsforUncertaintyEstimationinMeasurement.Trento,Italy:IEEE,2023.475216ChenRY,LiS,YangR,Qin
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 2025年戰(zhàn)略聯(lián)盟投資框架協(xié)議
- 2025年勞動(dòng)合同主體變更規(guī)定
- 2025年手術(shù)室消毒流程優(yōu)化策劃協(xié)議
- 2025年投資計(jì)劃供需合同
- 2025年產(chǎn)品試用合同協(xié)議范例
- 2025年光伏屋頂租賃策劃合同范本
- 2025年農(nóng)產(chǎn)品長(zhǎng)期采購(gòu)協(xié)議書
- 2025年海洋工程電纜租賃合同格式
- 2025年合伙策劃電子產(chǎn)品銷售店鋪合作協(xié)議模板
- 2025年信息技術(shù)培訓(xùn)班經(jīng)營(yíng)權(quán)轉(zhuǎn)讓合同
- 【語(yǔ)文】第23課《“蛟龍”探海》課件 2024-2025學(xué)年統(tǒng)編版語(yǔ)文七年級(jí)下冊(cè)
- 《中國(guó)人民站起來(lái)了》課件+2024-2025學(xué)年統(tǒng)編版高中語(yǔ)文選擇性必修上冊(cè)
- 鐵路工程概預(yù)算-工程經(jīng)濟(jì)管理培訓(xùn)-課件
- 面部激素依賴性皮炎的管理課件
- 智慧環(huán)衛(wèi)項(xiàng)目建設(shè)方案
- 人民醫(yī)院醫(yī)共體財(cái)務(wù)管理部工作手冊(cè)
- 高三日語(yǔ)一輪復(fù)習(xí)之自謙語(yǔ)句型課件
- YYT 0325-2022 一次性使用無(wú)菌導(dǎo)尿管
- 馬克思主義基本原理教案:第一章+教案
- 重走長(zhǎng)征路卡通思維導(dǎo)圖
- 醫(yī)院招聘醫(yī)護(hù)人員報(bào)名登記表
評(píng)論
0/150
提交評(píng)論