2025多源信息融合推理應用_第1頁
2025多源信息融合推理應用_第2頁
2025多源信息融合推理應用_第3頁
2025多源信息融合推理應用_第4頁
2025多源信息融合推理應用_第5頁
已閱讀5頁,還剩393頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領

文檔簡介

目錄TOC\o"1-2"\h\u7170 6264611.1 6314081.1.1 7314841.1.2 8153571.2 1085141.2.1 10283641.2.2 12275401.2.3 17278321.2.4 24193951.3 2527756 29249652.1 2929902.2CF-CRE 3012222.2.1 3014070 3331603 33170262.2.2 34324312.3 37269532.3.1 3847492.3.2 38184872.3.3 4032732.3.4 42247262.3.5 57189622.4 5717055 58202003.1 58188033.2 59143563.3CCDF 61235743.3.1 61164603.3.2 658103.4 7129413.4.1 71249443.4.2 75117213.4.3 77197993.4.4 80213273.5 8931791 91223094.1 91296184.2 92192484.3CCIF 94238014.4 107163224.5 12327689 124207735.1 124272105.2EHTC 125293085.2.1 12569625.2.2 133267825.3 134182795.4 14115573 142128956.1 142283396.2BDTC 142183236.2.1 1439552 144238586.2.2 152255176.3 15885806.3.1 15884746.3.2 161123406.3.3 161281046.3.4 16430488 165196956.3.5 16636496.4 16831031 17013497.1 170115807.2CTC 171307587.2.1 1716505 17341747.2.2 175147217.3 179313427.3.1 17939797.3.2 180246377.3.3 182140747.3.4 184116407.4 1906734多特征融合SAR 192249738.1 19298548.2USOD 193316938.2.1 193294188.2.2CFAR 195159118.2.3 203188558.3 20788818.3.1 20870118.3.2 2086568.3.3 2098198.4 2138440 214250989.1 21490569.2USCD 21558029.3 22220759.3.1 223159449.3.2 225304549.3.3 22628819.3.4 237254839.4 23927287 2403057010.1 2401382310.2CPCD 2401082110.2.1基于輻射/ 2432452910.2.2基于CNN 2442477110.2.3基于CPCD 2451206210.3 2462832710.3.1 246554910.3.2 2483261810.3.3 2501400410.3.4 2591651410.4 26011398 2621711911.1 2621960311.2KAOSR 2633006411.2.1 2632569511.2.2 2672679511.2.3 2683262111.3 2751930411.3.1 276131711.3.2 2782139811.3.3 2841414011.4 2896543 290721912.1 2902536912.2MHDTN 2913248012.2.1 29284912.2.2 2961308412.3 2992434212.3.1 299436212.3.2 3032500912.3.3 3032550812.3.4 3071939912.4 31011354觀測樣本嚴重缺失條件下的SAR 3112223713.1 3112791913.2ConFeDent 3121483713.2.1 3162938013.2.2 3211639013.3 3271193513.3.1 3282647413.3.2 3302258413.3.3 3313108613.3.4 3351109613.4 33917320 3412573014.1 3411043514.2 3423149414.2.1多源圖像DML 3431148314.2.2 3471956714.3 35142714.4 36819585 3693098915.1 369977715.2 3701449615.2.1光學圖像輔助SAR 3702385615.2.2 371808915.2.3 3731562015.2.4 3806142 3822508 384585815.3 3851845015.3.1 3862748215.3.2 3912365415.3.3 3931491615.4 398第1證據(jù)理論(EvidenceTheory)又稱證據(jù)推理(EvidentialReasoning,ER)、信任函數(shù)理論(BeliefFunctionsTheory),由Dempster首次提作AMathematicalTheoryofEvidenceTheory中進行推廣,標志著證據(jù)推ShaferTheory,DST)。證據(jù)推理作為一種表示和融合不確定信息的優(yōu)(BasicBeliefAssignment,BBA)是從2fi到[0,1]的一個映射函···,mn,滿足m(?)=0,?A/=?∈2fi(ProportionaConflictRedistributionRules,PCR)是由Dezert和圖1-1現(xiàn)有的遷移學習算法根據(jù)標簽設定情況可以分為3圖1-2(KernelMeanMatching,KMM)(ReproducingKernelHilbertSpace,RKHS)匹配源域與目標域樣本的性估計過程(Kullback-LeiblerImportanceEstimationProcedure,了多源TrAdaBoost(Multi-SourceTrAdaBoost,MsTrAdaBoost)算法,(MaximumMeanDiscrepancy,MMD)是遷移學習領域廣泛使用的一(CentralMomentDiscrepancy,CMD)等。同時還有一些方法優(yōu)化了現(xiàn)表1-1(PrincipalComponentAnalysis,PCA)法、核主成分分析(Kernelized-(TransferComponentAnalysis,TCA),使用MMD度量邊緣分布差間。TCA避免了半正定規(guī)劃(Semi-DefiniteProgramming,SDP)問等提出了聯(lián)合分布域自適應(JointDistributionAdaptation,JDA),旨同時提出了一種無監(jiān)督方法——自學習聚類(Self-TaughtClustering,(StructuralCorrespondenceLearning,SCL)方法,通過選擇核心特征(StackedDenoisingAutoencoder,SDA),其中去噪自編碼器是基礎自噪自編碼器(MarginalizedStackedLinearDenoisingAutoencoder,間對齊(SubspaceAlignment,SA)方法,該方法利用PCA生成子空(SubspaceDistributionAlignmentbetweenTwoSubspaces,SDA-TS)方空間對齊方法——測地線流式核(GeodesicFlowKernel,GFK)方法。GFK與測地線流式子空間(GeodesicFlowSub-spaces,GFS)關系密RelationAlignment,CORAL)方法,構建源域數(shù)據(jù)轉換矩陣,對齊二出了譜特征對齊(SpectralFeatureAlignment,SFA)方法,用于解決情圖1-3適應機(DomainAdaptationMachine,DAM)。DAM基于多個分別預(ConsensusRegularizationFramework,CRF)用于目標域無標注樣本的(Ma-trixTri-FactorizationbasedClassificationFramework,MTrick),提出了一種單模型知識遷移(Single-ModelKnowledgeTransfer,(Multi-ModelKnowledgeTransfer,MMKL)圖1-4(DeepAdaptationNetwork,DAN),作為非對抗遷移學習方法的經(jīng)典圖1-5差學習,提出了殘差遷移網(wǎng)絡(ResidualTransferNetwork,RTN)。同時Long等提出了聯(lián)合自適應網(wǎng)絡(JointAdaptationNetwork,JAN)以(ContrastiveAdaptationNetwork,CAN),考慮了類內(nèi)差異與類間差RepresentationAdaptationNetwork,MRAN),將原始圖像映射至不同受生成對抗網(wǎng)絡的啟發(fā),Gannin等提出了域對抗神經(jīng)網(wǎng)絡(DomainAd-versarialNeuralNetwork,DANN)用于域自適應,其結構如圖1-6所(GradientReversalLayer,GRL)和一個域判別器,通過梯度反向層使件域對抗網(wǎng)絡(ConditionalDomainAdver-sarialNetwork,CDAN),利圖1-6關源域樣本的影響。選擇性對抗網(wǎng)絡(SelectiveAdversarialNetwork,部對抗域自適應(PartialAdversarialDomainAdaptation,PADA)采用重要性加權對抗網(wǎng)絡(ImportanceWeightedAdversarialNetwork,方法,深度殘差矯正網(wǎng)絡(DeepResidualCorrectionNetwork,DRCN)慮,提出了平衡對抗對齊(BalancedAdversarialAlignment,BAA)策類為未知類。Saito等提出了開集反向傳播(OpenSetBack-圖1-7多源域對抗網(wǎng)絡(Multi-SourceDomainAdversarialNetwork,MDAN)有判別性。多源域自適應矩匹配(MomentMatchingforMulti-SourceDomainAdap-tation,M3SDA)使用矩匹配動態(tài)對齊源域和目標(DeepCocktailNetwork,DCTN)通過計算域相關性給出每個源域和差異。基于注意力的多源域自適應(Attention-basedMulti-SourceDomainAdaptation,ABMSDA)方法利用注意力機制增強與目(ProgressiveMulti-SourceDomainAdaptationNetwork,PMSDAN)將見光傳感器、紅外傳感器和合成孔徑雷達(SyntheticApertureRadar,表1-2巨大的潛力。由于卷積神經(jīng)網(wǎng)絡(ConvolutionalNeuralNetwork,(ScaleInvariantFeatureTransform,SIFT)算子,可有效使用多個光譜表1-3可見光成像與SAR在可見光圖像和圖像的融合識別中,基于模型的方法(如基于壓縮感知的方法、基于深度學習的方法)得到了廣泛的關注。h等提出了一個綜合框架,可實現(xiàn)多源遙感圖像的時空譜融合。u等提出了一種聯(lián)合轉換和非負稀疏表示的光學及圖像融合方法。no等利用光學圖像來降低圖像中的斑點噪聲并用于地物分類。等提出了一種基于(uuonue)的融合方法,并取得了較好的視覺效果。ohnd等使用條件生成對抗網(wǎng)絡,通過融合圖像和光學圖像來去除后者中的云層遮擋。poouh等提出了一種半自動的建筑物三維重建方法,通過分別從圖像和光學圖像中推斷出有關建筑物的高度與形狀信息,估計出建筑物的三維結構。gn用高分辨的光學圖像和圖像中的特征來估計平頂建筑的高度。uo等通過從極化圖像中提取出13種特征,并與光學圖像中3個通道的顏色特征拼接起來,共同完成地物分類任務。u等利用深度卷積網(wǎng)絡將光學圖像和圖像轉換到同一特征空間來完成變化檢測。o等提出了一種用于辨別圖像和光學圖像對的雙路網(wǎng)絡,該網(wǎng)絡可自動完成對異源圖像之間信息的比對。u等提出了一種雙路網(wǎng)絡,分別從配對的異源圖像中提取特征并將其拼接在一起用于后續(xù)的任務。等設計了一種基于均勻非線性擴散的s特征提取方法,能夠從光學圖像和圖像中發(fā)掘更多可能被正確匹配的特征點。un等采用域自適應的方法,通過將源域數(shù)據(jù)和目標域數(shù)據(jù)映射到一個共同的特征空間來完成融合(知識遷移),并在艦船識別任務中比較了不同的網(wǎng)絡架構、不同類型的遙感圖像數(shù)據(jù)及不同相似度的任務之間知識遷移的效果。第2(ClassifierFusionwithContextualReliabilityEvalua-tion,CF-CRE)方CF-CRE本節(jié)將針對不同分類器輸出結果高度沖突導致融合結果可靠度較低的問題,提出一種精細的可靠度評估方法以降低各分類器之間的沖突程度,主要研究在不同屬性的數(shù)據(jù)集上訓練的多個分類器的融合問題。假設待分類的目標的類別包含在辨識框架,,,中。考慮在個不同的屬性空間S,S,,S上訓練的個分類器,,,,每個分類器n(n1,2,··,)基于Sn概率質量函數(shù),可表示為n(1),n(2),··,n()。n()的值表示目標屬于類別的概率。按照慣例,將待分類目標的真實類別(未知)由()表示,由分類器n輸出的預測類別由表示??紤]分類器的分類質量能夠提高分類性能,而分類器的分類質量可以通過對每個分類器的輸出進行細化的上下文可靠度評估獲得。然后,在分類器融合得到最終分類決策之前,對分類器的輸出進行相應的修類器Cn分類,被分類為ωj(j=1,2,···,c)但屬于ωi(i=1,2,···,c),即。因此,如果可以準確地估計可靠度矩陣R,則可以利用首先在屬性空間Sn中找到目標y的K···,Pk(c)]表示,其中表示將x預測為類別ωi在k近鄰(k-NearestNeighbor,KNN)在沒有其他知識的情況下,通常假設上式中的先驗概率的概率μn(i)式中,A和B滿足|A|=1,|B|=1,A∩B=?且κ(i,j)∈(0,1]。如果會保留在(部分)不精確的焦元(不確定的類別)所有相關類別的似然函數(shù)(),并且認為目標屬于最大似然值的類別,如。類器。例如,SPECTFHeart數(shù)據(jù)集有44個屬性,這些屬性可以分為4個本實驗評估了9種相關的融合方法,包括平均融合(AverageFusion,AF)方法、加權平均融合(WeightedAverageFusion,WAF)方法、局部加權平均融合(LocalWeightedAverageFusion,LWAF)方法、多數(shù)投票(MajorityVoting,MV)方法、加權多數(shù)投票(WeightedMajorityVoting,WMV)(LocalWeightedMajorityVoting,LWMV)方法、DS方法、加權DS(WeightedDS,WDS)方法和局部加權DS(LocalWeightedDS,▼表2-1UCI數(shù)據(jù)集的基??▼表2-29果的總和等于1。表示使用可靠度因子αn對基本置信值分配m基分類器可以根據(jù)實際情況選擇。本節(jié)實驗選擇證據(jù)神經(jīng)網(wǎng)絡lulok,)和樸素貝葉斯分類器作為基分類器。在第一個測試中僅用作為基分類器,在第二個測試中僅用樸素貝葉斯分類器作為基分類器。結合證據(jù)理論的產(chǎn)生的分類結果包括單個焦元和全部未知焦元,即。置信質量()到框架內(nèi)的其他單個焦元上。因此,分類器的輸出可以轉換為概率值,然后進行可靠度評估。本節(jié)使用不同的屬性子集分別訓練基分類器,并融合不同分類器的分類結果對目標進行分類。目標的預測類別為獲得最大支持度的類別。對于使用概率框架(如樸素貝葉斯分類器或平均融合規(guī)則)的方法,支持程度由分配給每個類別的概率值表示。對于使用基本置信值函數(shù)框架的分類方法(如采用融合方法的分類器或采用本節(jié)所提方法的貝葉斯分類器),支持程度用似然函數(shù)()表示。以使用訓練數(shù)據(jù)優(yōu)化參數(shù)γ∈[5,20]和λ∈[0,1],并采用與最高精度相對應的優(yōu)化值。表2-3和表2-4列出了K∈[5,20]時不同融合方法的平均在表23和表24中,n表示分類器的數(shù)量,每個分類器對應一個屬性子集。η和η值以加粗字體顯示。▼表2-3不同融合方法基于ENN▼表2-4▲圖2-1不同融合方法基于ENN▲圖2-1不同融合方法基于ENN分類器的分類結果(續(xù)▲圖2-1不同融合方法基于ENN分類器的分類結果(續(xù)▲圖2-1不同融合方法基于ENN分類器的分類結果(續(xù)▲圖2-2▲圖2-2不同融合方法基于貝葉斯分類器的分類結果(續(xù)▲圖2-2不同融合方法基于貝葉斯分類器的分類結果(續(xù)▲圖2-2不同融合方法基于貝葉斯分類器的分類結果(續(xù)γ∈[5,20]能夠實現(xiàn)良好的分類性能,所以我們建議將γ=10作為默認第3binationofClassifierswithDifferentFramesofDiscernmentbasedonBelief式中,ei是概率框架E中的一個元素;Hij,Hi,···,Him是概率框架H中了類別“敵方”,那么在雷達圖像傳感器概率框架Ω={ω?航母,ω?貨?冪集全映射方法利用f(ei→Hi)來表達證據(jù)映射中元素ei與概率空間中CCDFΘ,···,ΘN下由N個分類器C,C,···,CN基于不同屬性空間S,S,···,SN分類的目標樣本y,單一辨識框架證據(jù)融合識別方法將不再適據(jù)mΘn(n=1,2,···,N)轉換到同一目標辨識框架Ψ在異構證據(jù)轉換中,將上的置信值轉換給集合中的元素的過程表示為()ψ,ψ,,ψk()。通過異構證據(jù)轉換,可以將辨識框架中的元素轉換到辨識框架Ψ中,實現(xiàn)辨識框架的統(tǒng)一。然而,目標樣本在辨識框架Ψ上不同類別(ψ和k)中的置信值分配是不地分配給類別ψ和ψk。顯然這是不合理的,因為在實際情況中,屬于類別的樣本更有可能在指定的辨識框架上屬于置信值更大的類別。因為()0.9,()0.1,指定的目標辨識框架為Ψψ,ψ,ψ已知辨識框架中類別上的置信值只與類別ψ和ψ相關,ψ部來自類別。轉換后目標樣本在辨識框架Ψ上的分類結果為(ψ,ψ)0.9,()0.1。結果顯示這一目標屬于類別ψ或ψ的可能性很大(置信值為0.9)。然而,這一結果仍不能準確地確定目標是ψ或ψ中的某一類,盡管在辨識框架中兩個類別的置信值相差懸殊。這就是在進行異構證據(jù)轉換時僅考慮將置信值轉換到復合類存在的問題。=0.3,mΨ(ψ)=0.3,mΨ(ψ)=0.4ψ為了更好地表示信息之間的不確定關系,在構建證據(jù)轉換模型時,辨識框架中元素上的置信值不僅分配給單類,還分配給預期相關元素的集合,其中轉換給復合類的置信值反映了異構證據(jù)轉換中的不確定信息。這些不確定信息可以在以后的融合決策中利用信源之間的互補信息進行彌補,避免了識別任務一開始就錯誤分類的情況。當集合中涉及的元素過多時,如果允許將上的置信值分配給中所有的子集,那么轉換過程中涉及的參數(shù)就會增加,訓練過程中需要更多的訓練數(shù)據(jù)。為了降低計算復雜度并放寬對先驗知識的要求,將()的重新分配限制為集合和集合中的單類。在證據(jù)等價轉換矩陣中,當且僅當類別與類別ψ相關,即ψ?時,矩陣元素(1,2,,p;1,2,,q)才不為零;在其他情況下,各矩陣元素都為零。其中,q1列的元素值的大小表示異構證據(jù)轉換模型對不精確類的容忍度。例如,如果已知辨識框架中類別i與辨識框架Ψ上的類別ψ和k相關,那么元素、和不為零,其余行ΘN中的某一個框架相等)θi的樣本在辨識框架Ψ中屬于類別ψj,ψj,···,ψk,那么認為元素θi在辨識框架Ψ中對應類別ψj,ψj,···,ψk,并將θi上的置信值分配給ψj,折扣到全局未知Ψ符號∈表示元素θi與AΨ中的單類相關聯(lián)。換句話說,對于A中的每個合。用t矩陣表示訓練樣本x的類別真值,其中t=[tk,tk,···,tk],當且非零元素γi(i∈{1,2},j∈{1,2,3})表示θi上的置信值分配到ψj的比在確定了證據(jù)等價轉換矩陣的結構后,利用訓練集樣本,根據(jù)式=0.55,mΨ(ψ)=0.07。利用式(3-16)進行類別決策,得到目標樣本屬于類別ψ▲圖3-1CCDFSAR(Horizontaltransmit/Horizontalreceive,HH)(Verticaltransmit/Verticalreceive,VV)(Horizontaltransmit/Verticalreceive,HV)(Verticaltransmit/Horizontalreceive,VH)。其中,HH、VV為單極化本實驗中的圖像來自上海交通大學高級傳感技術中心開發(fā)的開放式圖像管理和處理平臺pn中的pnhp數(shù)據(jù)集。pnhp數(shù)據(jù)集包含11346幅圖像,覆蓋5個典型場景,包括上海港(中國)、深圳港(中國)、天津港(中國)、橫濱港(日本)和新加坡港(新加坡),收集了41幅由nn1衛(wèi)星拍攝的圖像。該數(shù)據(jù)集提供了兩種模式的圖像:地距(oundnged,)模式和單視復數(shù)(ngeookopx,)模式。由于C模式下的圖像數(shù)量更多,故本次實驗選取模式下的go、dgng、hng、ng、nk及ug6個類別的艦船數(shù)據(jù)進行實驗,如圖32~圖37所示?!鴪D3-2類別為Cargo的SAR▲圖3-3類別為Dredging的SAR▲圖3-4類別為Fishing的SAR▲圖3-5類別為Passenger的SAR▲圖3-6類別為Tanker的SAR▲圖3-7類別為Tug的SAR圖3-8SLCUCI表3-1UCI數(shù)據(jù)集的基??單值映射法(ngeppngho,M)只考慮概率在不同框架間的單類上傳遞的情形,而沒有考慮不確定信息,即未考慮復合類和全局未知類的情況。使用將概率從辨識框架,,,p轉換到辨識框架,ψ,,ψq上。如果元素(,2,,p)在另一個辨識框架中與類別,,,ψk相關,那么在中元素上的概率將僅分配給,,,ψk中的單類,而不允許將概率分配給辨識框架中任一個由多個類組成的復合類。在中,辨識框架之間的證據(jù)等價轉換矩陣也通過與本章所提的方法類似的方式最小化誤差標準(融合結果與訓練集真實標簽之間的誤差)來計算。樣本統(tǒng)計法(pecho,)中多辨識框架之間的證據(jù)轉換是通過單類元素之間的置信值重新分配進行的,因此該方法不考慮轉換過程中的不確定性,也無法反映多辨識框架證據(jù)之間的不確定關系。在中,證據(jù)等價轉換矩陣是通過統(tǒng)計每個類別對應的樣本個數(shù)來確定的。考慮用將證據(jù)從辨識框架,,,p轉換到辨識框架,ψ,,ψq中。如果辨識框架,,,p上的元素(,2,,p)只與辨識框架中的元素,,,k相關聯(lián),那么在中,元素上的置信值被分配到類別g上的比例為g|g(|ψ··k),g,1,,,其中g是屬于類別ψg的樣本個數(shù)。直接轉換法(DirectTransformationMethod,DTM)直接將一個辨識框θi(i=1,2,···,p),在新的辨識框架Ψ中對應的元素為ψj,ψj,···,ψk。在DTM中,元素θi上的所有置信值都將分配給集合圖3-9CNN均為3×3,激活函數(shù)為ReLU。神經(jīng)網(wǎng)絡之所以能解決非線性問題,本圖3-10CNN和Tug6類艦船數(shù)據(jù)。SAR表3-2CCDF表3-3OpenSARShip艦船圖像數(shù)據(jù)與仿真輻射源數(shù)據(jù)上的UCI在不同的基分類器下利用多組數(shù)據(jù)進行仿真分析,驗證方法的魯棒性和分類能力,其中基礎分類器的選擇主要依賴各個分類器在實際應用中的分類表現(xiàn)。為了驗證方法的分類能力,本實驗選擇了種常用分類器作為基礎分類器,分別是支持向量機分類器、決策樹分類器和樸素貝葉斯分類器??紤]工作在個辨識框架,,,下的個分類器分類結果的決策層融合決策。在這一融合過程中,每個辨識框架nn,n,··,np}都是基于原始類別集合,,,c組合而成的。例如,原始類別集合為,,,,廣義的辨識框架為nn,n,n,其中n,,n且n。也可以有n,,n,且n。特別要注意的是,類別n和n中屬于類別的樣本可以不同。也就是θn和θn▼表3-4情形1▼表3-5情形1▼表3-6情形1▼表3-7情形2▼表3-8情形2▼表3-9情形2第4(CombinationofClassifierswithIncompleteFramesofDiscernment,為方將測試集中的待識別目標劃分為以下4已知的已知類別(KnownKnownClasses,KKC):具有明確標注已知的未知類別(KnownUnknownClasses,KUC):標記為負類未知的已知類別(UnknownKnownClasses,UKC):沒有可用的未知的未知類別(UnknownUnknownClasses,UUC):在訓練過對抗性學習采用了生成式模型和判別式模型,其中生成式模型學習生成虛假樣本,判別式模型判斷輸入樣本是來自生成式模型生成的虛假樣本還是來自數(shù)據(jù)集中的真實樣本。一些研究者采取對抗性學習來解決不完備數(shù)據(jù)集問題。提出了生成式pnx常類別提供顯式的概率估計,使分類器能夠根據(jù)已知類別和生成的未知類別的相關知識來定位決策余量。提出了一種新的數(shù)據(jù)集增強技術,該技術采用編碼器解碼器生成對抗網(wǎng)絡架構來生成接近已知類別但不屬于任何已知類別的合成不完備數(shù)據(jù)集示例。(HierarchicalDirichletProcess,HDP)進行了少許修改,使其能夠解決CCIF本節(jié)提出的方法利用不同特征空間訓練出來的分類器存在的互補類異常目標??紤]有n個不完備辨識框架分類器,,··,n,目標根據(jù)其融合結果進行分類。不完備辨識框架分類器由n個不同的特征空間S,S,··,Sn組成的標注樣本集,,··,(其中,,,···,y},g為訓練集中的樣本個數(shù))假設X={x,x,···,x}(h為測試集中的樣本個數(shù))為測試集,其中有一些異常目標被包含在X中。利用初始訓練數(shù)據(jù)集Y={y,y,···,y}訓ωs}。值得注意的是,對于每個類別ωl(l=1,2,···,s),在Y中具有圖4-1式中,是一個超參數(shù)且為正數(shù),它涉及訓練集中閾值的計算,當?shù)闹递^小時,將得到一個較小的閾值,反之,則能得到一個較大的閾值;l表示類別所包含的訓練樣本的個數(shù);是類別的訓練樣本;是關于類別的個近鄰;2數(shù)據(jù)分類中不同類別具有不同離散度的問題。由于不同類別擁有的訓練樣本個數(shù)是不同的,利用系數(shù)1K可以對距離值進行歸一化處理。出[μ(ω),μ(ω),···,μ(ωs),μ(ωa)]T【例4-1】假設測試集為X={x,x,···,x},訓練集Y={y,y,···,y}的圖4-2不完備辨識框架分類器融合示意如圖43所示。圖中的貨輪、軍艦和游輪分別對應上述所說的類別、和器,另一個分類器為圖像分類器。紅、綠、藍色塊分別代表貨輪、軍艦和郵輪。在圖43()中,光學圖像分類器能夠識別除游輪外的另兩個類別,圖像分類器能夠識別除軍艦外的另兩個類別。由于這兩個分類器存在一定的互補性,在圖43(b)中,經(jīng)過分類器結果的融合,兩個分類器都能夠識別所有待識別目標的類別。圖43(b)證明了本章所提的方法能夠檢測識別出目標的所有類別,下面舉例說明分類問題。圖4-3【例4-2】假設有3個目標x、x、x對于目標x對于目標x對于目標x對于目標x對于目標x 式中,q表示公共類別的訓練樣本的數(shù)目;表示訓練樣本通過分類器得到的證據(jù);表示帶有真實標簽()的訓練樣本的真值,當類別u()時,除了δu1,其余值都等于0;2示規(guī)則運算符。計算目標函數(shù)的最小值是一個非線性問題。在軟件中,使用non函數(shù)解決此問題。式中,AΩ,|A|表示A的勢。目標將被劃分到最大BetP(·)值相對應▲圖4-4源數(shù)據(jù)和OpenSARShip數(shù)據(jù)集配合使用,作為兩個不同分類器的輸入Cargo、Tanker、Passenger、Tug、Dredging及Fishing6個類別的數(shù)據(jù)進▲圖4-5類別為Cargo的SAR▲圖4-6類別為Tanker的SAR▲圖4-7類別為Passenger的SAR▲圖4-8類別為Tug的SAR▲圖4-9類別為Dredging的SAR▲圖4-10類別為Fishing的SARUCI表4-1UCI數(shù)據(jù)集的基??變分自編碼是由nga和ng于2013年提出的生成式模型。該模型結合了靜態(tài)推理和深度模型,目的是通過一系列操作重構出最初的圖像。變分自編碼示意如圖411所示。圖中,是能夠觀測的數(shù)據(jù)。生成模型p(x)是指zx的過程。該過程從自編碼器的角度來說,作用相當于解碼器。識別模型q()是指x→器中的編碼器。圖4-11圖4-12本章所提方法需要先根據(jù)目標到訓練集的距離挑選出一部分顯著分類器。不同的不完備辨識框架分類器具有互補性,將它們利用加權規(guī)則進行融合。為了驗證本章所提方法的有效性,將其與其他幾種融合方法進行對比。下面將詳細介紹這幾種融合方法。在硬閾值法(dhhodngho,)中,每個類別的閾值計算方式和方法的閾值計算方式相同,當目標x到訓練數(shù)據(jù)集的最短距離大于給定的相應閾值時,x將被考慮為異常目標。如果小于,x會被劃分到類別中。在單類支持向量機(One-ClassSupportVectorMachine,OCSVM)方法投票(MajorityVote,MV)法主要用于融合HTM和OCSVM方法的實驗在表42中,每個分類器的分類準確率是由定義的。其中,表示被準確劃分到已知類別中和異常類別中的目標數(shù)目;表示待識別目標的總數(shù)目。表43展示了pnh數(shù)據(jù)集的異常檢測結果和仿真雷達輻射源數(shù)據(jù)的異常檢測結果。表44~表4展示了每個分類器中待識別目標的分類結果。被劃分到已知類別中的樣本的準確率表示為(i為分類器的索引),異常類別的準確率表示為。根據(jù)方法進行融合后分類結果的準確率表示為。它們分別被定義為。其中,是由分類器正確劃分到已知類別中的目標數(shù)目;是目標被正確劃分到異常類別中的個數(shù);是根據(jù)加權融合后的結果目標被正確劃分到已知類別中和異常類別中的數(shù)目。分類結果由10次隨機實驗和近鄰個數(shù)(取值范圍為▼表4-2UCI數(shù)據(jù)集在2▼表4-3OpenSARShip數(shù)據(jù)集和仿真雷達輻射源數(shù)據(jù)在2個不完備辨識框▼表4-4UCI數(shù)據(jù)集在3個不完備辨識框架分類器下采用CCIF方法的分類▼表4-5UCI數(shù)據(jù)集在4個不完備辨識框架分類器下采用CCIF方法的分類▼表4-6UCI數(shù)據(jù)集在5個不完備辨識框架分類器下采用CCIF方法的分類在異常類別識別步驟中,由單個不完備辨識框架分類器檢測出來的異常目標的具體類別可以通過加權融合進行準確的識別。在異常目標中包含3個類別,其中一個類別沒有出現(xiàn)在任何不完備辨識框架分類器的訓練集中。因此,如果待識別目標被所有分類器劃分為異常類別,那么在融合后其仍然會被劃分為異常類別。如果一個目標被一些分類器劃分為異常類別,但是在某個分類器中以極大的概率值被劃分為一個具體的類別,那么根據(jù)融合后的結果,它可能被劃分為具體的類別。由表42和表4可知,目標融合后的分類準確率要高于單個不完備辨識框架分類器的分類準確率。除此之外,加權融合結果的分類準確率還高于用和M方法的分類結果進行融合的法。實驗結果驗證了基于證據(jù)理論的加權融合方法可以充分利用不同分類器之間的互補信息,并且利用分類器的最優(yōu)權重能夠提高分類準確率。由表44~表46可以看出,加權融合后的分類準確率要高于單個不完備辨識框架分類器中已知類別的分類準確率。這說明被單個分類器視為異常類別的目標經(jīng)過加權融合后能夠被正確地劃分到已知的具體類別中??傮w來說,本章所提方法能夠獲得最高的分類準確率,實驗結果也驗證了該方法的有效性。相比傳統(tǒng)的融合方法,方法不僅能夠提高分類準確率,還能夠識別出沒有包含在訓練集的辨識框架中的類別。方法打破了傳統(tǒng)融合方法要求訓練集中必須包含測試集中的測準確率,可以在漸進式異常目標檢測方法的顯著異常目標挑選過程中好的分類性能。從圖4-14中能夠發(fā)現(xiàn),不同的UCI數(shù)據(jù)集在λ∈[1,1.5]▲圖4-136個UCI數(shù)據(jù)集和隨機森林分類器條件下K值的變化對分類準▲圖4-14在4個UCI數(shù)據(jù)集和2個分類器條件下λ類器融合方法,即方法。漸進式異常目標檢測方法通過將無監(jiān)督優(yōu)化誤差準則能夠獲得最優(yōu)分類器權重。本章利用13組數(shù)據(jù)集和3個基本分類器(隨機森林分類器、決策樹分類器和支持向量機分類器測試了方法的有效性。實驗結果表明,方法能夠很好地識別特定類別的異常目標,并能夠有效地提高分類準確率。第5(Evidence-basedHeterogeneousTransferClassification,EHTC)方法。EHTC···,y}。這里需要注意的是,僅知道x和y是樣本的屬性值,它們分別值(對應值)是已知的,即Y={y,y,···,y},所以可以根據(jù)這種已知OrganizingMap,SOM)網(wǎng)絡、k均值等。當聚類簇數(shù)目較少時,SOM圖5-1SOM當對應樣本x,x,··,x被網(wǎng)絡劃分為若干聚類簇后,只需要將與每個聚類中心進行比較,即可找到屬性最相似的聚類中心。由于同一聚類簇內(nèi)的樣本通常具有相似的特征,因此該聚類簇內(nèi)的樣本都作為的近鄰樣本。接下來根據(jù)樣本對的映射關系,在源域對應相同位置上的樣本都被當作的潛在映射值。借助從樣本對中挖掘的映射信圖5-2和屬性值都不同,映射范圍Y(c=1,2,···,S)的離散程度也都不中,離散度最小的映射范圍對應的標準差,即δ=min{δ,δ,···,δ;是一個大于0的參數(shù),通過可以比較容易地調(diào)節(jié)閾值。參數(shù)以后,閾值也就確定了。根據(jù)該閾值,可以進一步預測目標在源域的單個多個映射值。如果標準差δ比閾值小,則表明中樣本的離散度較小,樣本的值通常比較接近。在這種情況下,為簡便起見,選取最有代表性的值來表示內(nèi)的所有映射樣本,即樣本均值。由此目標樣本x域的映射值可表示為,即。由于在源域通過大量訓練樣本學習了一個分類器C,因此預測的映射值可以在源域中被分類,那么就得到了x的被錯誤地表示,從而出現(xiàn)誤分類。因為不同的映射值可能會得到不一樣的分類結果,所以應該采取一種比較合理的做法:給x在映射范圍測多個映射值,每個映射值都可以通過分類器得到一個分類結果,然后綜合多個分類結果做出最終的類別決策。這種多值映射的方法可以有效表征遷移的不確定性,提高特征轉換的容錯率。如果映射范圍內(nèi)的每個樣本都直接作為x在源域的映射值,那么會給后續(xù)的分類任務帶來較重的計算負擔。同時,每個樣本都會對應一個分類結果,這會大幅增加后續(xù)多分類結果融合決策的時間,從而進一步提高算法的復雜度。為了解決這一問題,可以采用一種映射范圍再劃分的策略,即對于樣本離散度較大、標準差δ大于閾值的映射范圍,對其進行再聚類,將再次劃分為多個小的子聚類簇。是對應樣本內(nèi)的一個集合,是源域對應樣本的一個子集,所以其中包含的元素個數(shù)一般要比中包含的元素個數(shù)少得多。因此,在再聚類過程中,采用較為簡單且便于應用的均值算法對映射范圍進行再次劃分。最終可以得到個的子聚類簇,用表射值表示,那么它可以直接被源域性能良好的分類器(如隨機森林類器、支持向量機分類器、貝葉斯分類器等)分類,映射值的分類結···,pi(θg)],i=1,2,···,cK。概率向量中的元素pi(θj)代表映射據(jù)m,m,···,m。因為本章所提EHTC方法中待融合的證據(jù)個數(shù)K不一NDVI和SPOT如圖5-3(a)所示,待分類NDVI圖像大小為280×256像素,它是1999年圖5-3NDVI隨機挑選6塊對應區(qū)域,這些對應區(qū)域共包含p8367個圖像和圖像的對應像素對,這些對應像素對反映了同一塊區(qū)域的不同特性。6塊對應區(qū)域在圖53()中標出。在某些實際應用中,對應像素對很容易在圖像中獲取,并被當作先驗知識,從而建立源圖像和目標圖像的聯(lián)系。訓練數(shù)據(jù)是標注像素,在源圖像中手動標出。在目標圖像中沒有標注像素,因此就沒有訓練知識。對于每個類別,在大小為156100像素的源圖像中進行標注。在每個類別中選擇200個像素作為訓練樣本,因此總共可以得到3200600個標注像素,如圖54所示。圖中的黃色框區(qū)域為訓練樣本,大小為1020像素。該黃色框區(qū)域是手動選出來的,分別對應3個典型地物類別。因為目標圖像中的像素沒有類別標簽,所以在實驗中這些像素都屬于測試數(shù)據(jù)(目標待分類數(shù)據(jù))。根據(jù)之前提到的參數(shù)調(diào)節(jié)方法,網(wǎng)絡輸出層神經(jīng)元數(shù)目設定為Snn5×6,即在目標域對應樣本聚類數(shù)目為30個。圖5-4源圖像中心標注像素(黃色框區(qū)域UCI表5-1UCI數(shù)據(jù)集的基??在基于單值映射的異質數(shù)據(jù)遷移分類(SingleValueMapping-basedHet-erogeneousTransferClassification,SVMHTC)方法中,給每個目標樣模糊c行分類,從而獲得目標類別。模糊c均值聚類(Fuzzyc-Means,F(xiàn)CM)在利用對應樣本分類(ClassificationUsingCorrespondingSamples,為了進一步驗證多分類結果加權融合方法的有效性,將利用主要映射值分類(onngorppngu,)方法作為對比方法。在方法中,當映射范圍離散度較低時,x預測一個映射值,該映射值的分類結果就作為目標待分類樣本的預測結果。而在多值映射的情況下,源域中每個子聚類簇的均值都是一個可能的映射值。每個映射值都對應一個權重。該權重通過該映射值對應子聚類簇的樣本數(shù)目來計算,它反映了映射值的可靠度。在方法中,選擇權重最大(對應子聚類簇中所含樣本數(shù)目最多)的映射值作為x在源域的唯一預測值,該預測值又稱主要映射值。該主要映射值在源域直接被分類,分類結果被用來預測目標樣本類別??傮w準確率(OverallAccuracy,OA)和Kappa(ppaon,)在這里被作為評價分類性能的指標。通過n來計算,其中n是被正確分類的樣本個數(shù),是目標域所有待分類樣本的總個數(shù)。是從混淆矩陣中得到的,它可以全面地衡量分類性能的好壞。NDVI和SPOT→源域時適▲圖5-5NDVI▼表5-2NDVI圖像和SPOT圖像統(tǒng)計結果(目標域→源域▼表5-3NDVI圖像和SPOT圖像統(tǒng)計結果(源域→目標域的是植被。而在圖像中,黑色區(qū)域和深灰色區(qū)域分別對應植被與水體。相比源域圖像,目標域圖像中植被()和水體()這兩個類別的屬性值較為接近,很難在目標域直接將兩者較好地區(qū)分開,因此對圖像進行聚類的準確率很低。對于對應像素對,雖然有很多像素能被正確地分類從而作為標注樣本,但由于圖像中分類器的訓練誤差,依然有部分樣本被誤分類。因此,在圖像中會有部分帶噪聲的(被錯誤標注的)訓練樣本,它們會影響目標域分類器的訓練,進而影響最終的分類結果。這就是方法準確率不高的原因。例如,從圖55(b)中可以看到,與真值圖相比,很多植被像素被錯誤地分到了水體類別中。方法將權重最大的映射值作為目標樣本在源域的唯一預測值。盡管權重越大,映射值越可靠,但僅預測單一映射值會存在誤差,無法反映由于圖像特征空間和圖像特征空間的異構性導致的遷移不確定性。有時候,這個單一預測值不會那么精確,而其他映射值往往能提供有用的信息,但這些映射值在方法中被忽略了。統(tǒng)計結果也表明方法的分類性能比方法差一些。在方法中,實驗在源域也只預測單一映射值,這同樣無法有效刻畫特征空間的異構性帶來的遷移不確定性。另外,源域的一些映射范圍離散度很高,標準差δ大于閾值,所以直接用映射范圍內(nèi)所有樣本的均值作為映射值會有很大的預測誤差,從而提高遷移不確定性。UCI表5-4UCI第6方法,即雙向遷移分類(Bi-DirectionalTransferClassification,BDTC)BDTCx,x,,x表示,少量標注樣本(如每個類別中只有10個標注樣本)用表示,其中、n值得注意的是,標注樣本個數(shù)n遠遠少于待分類樣本個數(shù)m,即nm。手動提取的加速穩(wěn)健特征(SpeededUpRobustFeatures,SURF)和深度卷積刺激特征-6(DeepConvolutionalActivationFeatures-6,DeCAF6)對于由式(61)優(yōu)化得到的全局特征轉換矩陣,通過該矩陣在異構慮為中每個類別內(nèi)的所有樣本學習一個類內(nèi)特征轉換矩陣,1,2,圖6-1通過優(yōu)化式(62)中的目標函數(shù),可以得到每個類別的類內(nèi)特征轉換矩陣,1,2,,示,從而建立目標域和源域之間知識遷移的橋梁。下面介紹如何通過這種方法在目標域對待分類樣本進行分類。況下,目標域的待分類樣本很可能被誤分類。同時,源域有豐富的訓注樣本,目標域的待分類樣本將被遷移到源域,直接獲得目標在源域的遷移(D→D)。此外,盡管利用類內(nèi)特征轉換矩陣能將大部分源域將目標域未標注樣本X={x,x,···,x}遷移到源域進行分類,目標域樣算出可能的映射值的權重λi(i=1,2,···,K)之后,就可以通過加權平均得到在源域的預測遷移值(估計遷移值)。較為有效的分類器C,從而得到了在目標域特征空間的分類結果,圖6-2而,由于特征的異構性,通過類內(nèi)特征轉換矩陣W(i=1,2,···,c)本章提出了基于聚類分析的局部權重優(yōu)化方法以確保目標獲得最優(yōu)融合效果。通過對目標域標注樣本進行聚類,可以提前優(yōu)化得到每個聚類簇對應的融合權重,這多組權重可作為局部先驗知識,待分類樣本可以從中選擇合適的權重。首先,用較好地保持輸入數(shù)據(jù)的拓撲結構。通過本劃分成S個聚類簇。在這里,聚類數(shù)目S的取值不應過大,因為目標域標注樣本數(shù)目有限。在實際應用中,S的取值與數(shù)據(jù)集的類別數(shù)和目標域的標注樣本數(shù)n有關。聚類的目的是將屬性非常相似的樣本劃分到同一個聚類簇中。同一個聚類簇中的樣本有著相似的屬性值(特征),所以對于聚類簇,可以通過聚類簇中的樣本優(yōu)化融合權重(,)。通過本章提出的方法,聚類簇中的每個樣本分別在目標域和源域得到一個分類結果,兩個分類結果由式(69)被權重(,)折扣之后,再通過規(guī)則得到融合后的結果。因為中的樣本都是標注樣本,其分類的真實結果已知,期望的融合結果應該和樣本的真實結果保持一致,所以優(yōu)化的目標是使樣本的分類結果與其對應真值的距離之和盡可能小。對聚類簇,目標函數(shù)可表示為 (α,β),···,(αS,βS)}。在提前算出S樣本選擇一組合適的權重。對于目標x,計算它與S個聚類中心的距離,找到與其距離最近的聚類簇。通常該聚類簇中樣本的屬性與x相似。同樣的分類算法在相似的樣本上會有相似的表現(xiàn)。因此,本章提出的方法在聚類簇中的樣本上得到的結果應該和在目標樣本x結果相似。也就是說,通過得到的權重(,)可以作為融合目標的分類結果和時的權重。通過式(69)對兩個證據(jù)進行折扣處理,折扣后的分類結果可表示為和。由于在方法中,證據(jù)個數(shù)n2,因此兩個分類結果可直接通過式(610)所示的規(guī)則進行融合,如式▲圖6-3Office+Caltech-256圖6-4Office+Caltech-256HandwrittendigitsHandwrittendigits數(shù)據(jù)集是從UCI機器學習數(shù)據(jù)集中獲取的手寫圖像數(shù)據(jù)NUS-WIDE&ImageNetg數(shù)據(jù)集是目前最常用的文本-圖像分類數(shù)據(jù)集之一。數(shù)據(jù)集是新加坡國立大學研究團隊從kr社交網(wǎng)站上采集的,包含269648幅圖像及其對應的文本描述信息,其中有81個物體類別。選擇圖像的文本描述信息作為文本數(shù)據(jù)。g數(shù)據(jù)集包含320萬幅物體圖像。利用h等對g數(shù)據(jù)集進行數(shù)據(jù)預處理后的結果,得到文本數(shù)據(jù)的64維神經(jīng)網(wǎng)絡(NeuralNetwork,NN)特征和ImageNet圖像的4096維深度特征圖6-5NUS-WIDE&ImageNet法進行對比分析。首先,把隨機森林(RandomForest,RF)和樸素貝葉斯(NaiveBayes,NB)作為基準方法。利用目標域已知的少量標注(onngtdo,)和基于待分類樣本遷移的源域分類(onnouedon,)。為了證明局部權重優(yōu)化方法的優(yōu)越性,本實驗還考慮了一般的權重求解方法,即利用全部目標域標注樣本來優(yōu)化得到用于所有待分類樣本的整體權重(oblgh,)。該方法在融合權重的計算上與方法不同,所以用C表示該方法。另外,本實驗還將方法與半監(jiān)督異構特征增強(Semi-supervisedHeterogeneousFeatureAugmentation,SHFA)方法進Office+Caltech-256數(shù)據(jù)集和Handwrittendigits數(shù)據(jù)集中的每幅圖像都由▼表6-1Office+Caltech-256數(shù)據(jù)集在RF分類器下的分類結果(%,D:▼表6-2Office+Caltech-256數(shù)據(jù)集在NB分類器下的分類結果(%,D:▼表6-3Office+Caltech-256數(shù)據(jù)集在RF分類器下的分類結果(%,D:▼表6-4Office+Caltech-256數(shù)據(jù)集在NB分類器下的分類結果(%,D:對于Handwrittendigits數(shù)據(jù)集,源域的每個類別有100個訓練樣本(共1000個)。在目標域隨機選取20個樣本作為每個類別的標注樣本(200個)。同樣,交換目標域和源域以進一步測試各分類方法的性能。參數(shù)設置為,S20。表65和表6分別給出了在分類器和分類器下的分類結果,分類結果最優(yōu)者以加粗字體顯示。在-g數(shù)據(jù)集上進行文本-圖像分類實驗,實驗目標是通過文本數(shù)據(jù)提供的標簽信息提高g數(shù)據(jù)集中的圖像分類準確率。因此,將g數(shù)據(jù)集的6作為目標域,E數(shù)據(jù)集的特征作為源域。在這里,同樣統(tǒng)計各分類方法運行10次以后分類準確率的均值和標準差。數(shù)據(jù)集中每個類別有100個樣本,每類隨機選擇50個樣本作為源域訓練樣本(共400個)。對于每個類別有103個樣本的g數(shù)據(jù)集,每類隨機挑選10個樣本作為目標域標注樣本(共80個)。在本實驗中,值取10,S值取16驗的目標是對圖像進行分類,所以不需要交換目標域和源域。文本-圖像分類結果如表67和表6所示。▼表6-5Handwrittendigits數(shù)據(jù)集在RF▲注:F、Z、M▼表6-6Handwrittendigits數(shù)據(jù)集在NB▲注:F、Z、M▼表6-7NUS-WIDE&ImageNet數(shù)據(jù)集在RF▼表6-8NUS-WIDE&ImageNet數(shù)據(jù)集在NB本章所提方法包含兩個重要參數(shù):近鄰個數(shù)和聚類數(shù)目S。通過h256數(shù)據(jù)集進一步分析參數(shù)調(diào)整對分類結果的影響。為了直觀地展示參數(shù)變化與分類結果之間的關系,圖66和圖6分別給出了分類準確率隨值和S值的變化情況,其中基礎分類器為分類器。從圖66中可以看到,總體上分類結果對的取值變化不太敏感。當在8,12異構性,較小的值會導致較大的遷移誤差,因此分類準確率相對較低。但值也不能取得過大,因為一些相距較遠的近鄰與目標樣本差異較大,其對應的源域映射值可靠度很低,這會對遷移值的預測產(chǎn)生不好的影響。對于聚類數(shù)目S,如前所述,其取值與數(shù)據(jù)集的類別數(shù)和目標域的標注樣本數(shù)有關,因此S的取值在12類別數(shù)和2倍類別數(shù)之間??傮w來看,在該取值范圍內(nèi),S值的變化對分類結果影響不大。當聚類數(shù)較少時,同一聚類簇內(nèi)樣本差異較大,所以分類結果較差。當S取值在1倍類別數(shù)和2倍類別數(shù)之間時,基本能得到較好的分類結果,這也是合理的,因為在該取值范圍內(nèi)相同聚類簇內(nèi)的樣本彼此相似,能更好地優(yōu)化局部融合權重。對于h256數(shù)據(jù)集,當8,S14時,分▲圖6-6分類準確率隨K▲圖6-7分類準確率隨S第7(CombinationofTransferableClassi-fication,CTC)方法。利用每個源CTC(ProbabilityDensityFunction,PDF)。雖然知道源域和目標域之間的高斯混合模型(GaussianMixtureModel,GMM)對PDF進行估計,然小。該值越小,源域包含的有用信息越多;該值越大,源域包含的有用信息越少。在采用經(jīng)典的域自適應技術進行匹配后,新特征表示下的源域和目標域之間的dn值變小,但是可能會出現(xiàn)匹配前源域和目標域的dn值比源域和目標域的dn值大,而在新特征表示下卻相反的情況。新特征表示下的源域數(shù)據(jù)將直接影響分類結果,此時只使用匹配之前的dn值來估計信源的可靠度是不合理的。因此,應利用匹配之前和匹配之后dn的幾何均值來計算可靠度的大小,可以得到由于和的取值范圍都是[02][02]。如果第i個源域由式(7-4)常高的錯誤率,如果能把一些難以區(qū)分的樣本分給復合類(最大期望效能(MaximumExpectedUtility,MEU)理論被廣泛應用于(單類或復合類);(x)表示將樣本x識別為時獲得的收益值。當識別結果正確,即時,收益值(x)1;當識別結果錯誤,即?時,收益值(x)0;當識別結果不精確,即?,|式中,表示對目標的決策結果;和b別,即分類器輸出概率值最大的兩個類別;表示將目標樣本的第個近鄰識別為時獲得的收益值;表示將目標樣本的第個近鄰識別為∪b時獲得的收益值;dk表示第個目標樣本和第個近鄰之間概率輸出的歐氏距離;用來對近鄰的收益值進行加權,距離越近,則權重越小,該近鄰對決策的影響越小,距離越遠,則權重越大,該近鄰對決策的影響越大,加權處理可以降低分類結果對值的敏感性。最后通過比較兩種決策情形下個近鄰的加權收益值判斷目標屬于單類還是復合類。Office-31作為源域和目標域,可以得到3×2=6種不同的跨領域分類識別任務:Office+Caltech-10數(shù)據(jù)集,新組成的數(shù)據(jù)集中A、C、D、W4個領域分別包含958幅、1123幅、157幅和295幅圖像??梢缘玫?×3=12種不同的PIE為PIE1(PIEC05,人臉朝左)、PIE2(PIEC07,人臉朝上)、PIE3(PIEC09,人臉朝下)、PIE4(PIEC27,人臉朝前)、PIE5(PIEC29,人臉朝右)分別包含3332幅、1629幅、1632幅、3329VLSC數(shù)據(jù)集由來自2007(簡稱)、b(簡稱)、09(簡稱)和h256(簡稱)4個不同數(shù)據(jù)集中的樣本組成,包含4個領域中5種共同類別(鳥、貓、椅子、狗、人)的10729圖像。這4個數(shù)據(jù)集分別包含3376幅、2656幅、3282幅、1415可以得到4×312種不同的跨領域分類識別任務:→,→,→,…,→,→,→。GFKCORALTCAJDA遷移聯(lián)合匹配(TransferJointMatching,TJM)方法在學習新特征表示平衡分布自適應(BalancedDistributionAdaptation,BDA)方法在匹配加權平衡分布自適應(WeightedBalancedDistributionAdaptation,MVWMVAFWAFDS

m=m⊕m⊕··kTCA/JDA/TJM/BDA/WBDA+CMSDD[1]TCA/JDA/TJM/BDA/WBDA+AFC/WAFC/DSC[2]為10;正則化參數(shù)確定為1。最優(yōu)在實驗中發(fā)現(xiàn)當5時,域自適應技術能取得較好的效果,所以將值設定為5。在實驗中,將控制效能值大小的系數(shù)設定為0.6。實驗結果如表71~表711所示,表中的平均效能值(均值方差)下方添加了下畫線,最大分類準確率和最大平均效能值以加粗字體顯示。輔助下得到的分類結果進行折扣處理,將不同類別的置信值折扣到完全未知類上。該處理能很好地對不確定性進行表示,所以方法能獲得最高的識別準確率。從表71~表711中可以發(fā)現(xiàn),在某些極端情形下,基于方法的多源遷移融合識別準確率相比單個源域的識別準確率并沒有提高,這是因為某些一致性較低的源域數(shù)據(jù)對目標域中樣本的分類識別輔助效果不好,給融合帶來了負面影響。雖然通過折扣操作能降低一致性較低的源域數(shù)據(jù)在融合中的重要程度,從而降低其對融合的負面影響,但是折扣并不能完全消除該影響,所以在某些極端情況下會出現(xiàn)融合效果不佳的情況。不過從整體上看,相對于其他相關的分類方法和單源域遷移識別,基于方法的多源遷移融合識別基本能取得最高的識別準確率。本實驗驗證了本章所提方法的有效性。在海洋目標識別或雷達目標識別中,多個時間段的數(shù)據(jù)分別輔助當前時間段目標的識別,根據(jù)分布的差異程度估計權重,再利用方法綜合多個時間段數(shù)據(jù)中的知識,可以提高海洋目標識別或雷達目標識別的準確率。從表71~表711中可以發(fā)現(xiàn),本章所提用傳統(tǒng)的硬決策方法高,這是因為源域中的有用信息是有限的,在現(xiàn)有的信息下無法被準確識別的目標將被劃分為模糊的復合類。而復合類的效能值大于錯誤的識別結果。雖然某些可以被正確識別的目標在信任分類方法下會被識別為復合類,但是由于復合類的效能值大于0.5,所以綜合起來,那些在硬決策方法下會被錯誤識別和被正確識別的目標在謹慎決策方法下被劃分為復合類,在實際中風險最小,平均效能值最大??梢姡菊滤岱椒苡行У亟档妥R別錯誤率,在實踐中能發(fā)揮重要的作用。從表71~表711中還可以看出,平均效能值在不同的值下方差很小,表明本章所提方法對值不敏感,這主要是因為在計算待識別目標多個近鄰的綜合效能值時考慮了距離,距離越遠,在計算綜合效能值時的重要性越低,距離越近,在計算綜合效能值時值的重要性越高。實驗結果表明,本章所提方法非常魯棒,值的選取對分類識別性能的影響很小,具有很好的應用價值。▼表7-1Office+Caltech-10數(shù)據(jù)集在做聯(lián)合分布自適應后基于不同分▼表7-2Office+Caltech-10數(shù)據(jù)集在做遷移成分分析后基于不同分類▼表7-3Office+Caltech-10數(shù)據(jù)集在做遷移聯(lián)合匹配后基于不同分類▼表7-4Office+Caltech-10數(shù)據(jù)集在做平衡分布自適應后基于不同分▼表7-5Office+Caltech-10數(shù)據(jù)集在做加權平衡分布自適應后基于不▼表7-6PIE數(shù)據(jù)集在做聯(lián)合分布自適應后基于不同分類方法的分類結▼表7-7PIE數(shù)據(jù)集在做遷移成分分析后基于不同分類方法的分類結▼表7-8PIE數(shù)據(jù)集在做遷移聯(lián)合匹配后基于不同分類方法的分類結▼表7-9PIE數(shù)據(jù)集在平衡分布自適應后基于不同分類方法的分類結▼表7-10Office-31數(shù)據(jù)集在做遷移成分分析后基于不同分類方法的分▼表7-11VLSC數(shù)據(jù)集在做遷移成分分析后基于不同分類方法的分類結CMSDD全稱為CombineMultipleSourceDomainData,譯為綜合多源AFC全稱為AverageFusionwithCautiousMaking,譯為謹慎決策的平均融合方法;WAFC全稱為WeightedAverageFusionwithCautiousRulerwithCautiousMaking,譯為謹慎決策的DS規(guī)則。WDSC全稱為WeightedDempster'sRulerwithCautiousMaking,譯為第8多特征融合SAR的全監(jiān)督目標檢測方法(如FasterR-CNN[1]、YOLO-V3)需要大量準虛警率(ConstantFalseAlarmRate,CFAR)的檢測方法的應用最廣(UnsupervisedSARShipObjectDetection,USOD)方法。首先根據(jù)USODCFAR檢測器對圖像進行檢測,得到用來訓練FasterR-CNN的標簽。以FasterR-CNN檢測器代替學生(Student)網(wǎng)絡,并通過Teacher網(wǎng)絡所提供的軟標簽進行指導訓練。FasterR-CNN檢測器可以濾除CFAR檢測和FasterR-CNN檢測器之間的信息交互,如圖8-1所示。圖8-1CFAR檢測器和FasterR-CNN▼表8-1不同分布的擬合與樣??▲圖8-2CFAR然估計(MaximumLikelihoodEstimation,MLE)方法估計這兩個參令對于估計參數(shù)的偏導函數(shù)等于0經(jīng)求解方程組(8-5),可以得到估計參數(shù)和的關系式CFAR檢測器的工作原理和訓練區(qū)可形變圖8-3SAR圖像像素點與CFAR性提取主要依靠FasterR-CNN來完成,這一點將在下一節(jié)介紹。圖8-4圖8-5為獲取可用于訓練FasterR-CNN的邊界框,需要改進CFAR,完成從二圖8-6CFAR通過檢測器獲得像素點置信度和邊界框置信度。經(jīng)過這些后處理,可以實現(xiàn)圖像艦船目標檢測從統(tǒng)計檢測到結構檢測的簡單轉換,實現(xiàn)目標檢測從像素級到目標級的跨越。但僅通過像素連通域檢測目標整體結構顯然是不夠的。雖然目標整體結構在檢測器中被檢出,但從圖像結構特性(如形狀)來看,邊界框所包含的內(nèi)容存在很大的差異。深度卷積神經(jīng)網(wǎng)絡在訓練過程中通過卷積下采樣可以獲得比較高級的結構特征。為此,本節(jié)利用通過統(tǒng)計特性得到的邊界框訓練r目標檢測模型,并利用深度卷積神經(jīng)網(wǎng)絡在提取圖像結構上的優(yōu)勢,向檢測結果提供優(yōu)化反饋,以降低檢測結果的虛警率,同時經(jīng)過循環(huán)迭代訓練,獲得魯棒性較好、虛警率較低、實時性較好的深度網(wǎng)絡檢測模型。的泛化性能。本節(jié)用CFAR檢測器替代Teacher網(wǎng)絡,以FasterR-CNN檢訓練FasterR-CNN檢測器,通過進一步擴大雜波與目標之間的置信度差FasterR-CNNRPN在FasterR-CNN結構中,區(qū)域生成網(wǎng)絡(RegionProposalNetwork,RPN)的作用是為第二階段的訓練提供候選區(qū)域。FasterR-CNNRPN訓圖8-7FasterR-CNNRPN在知識蒸餾訓練過程中,邊界框回歸部分與后文的式(815)相同,采用平滑過程中采用軟標簽進行指導。候選邊界框普通標簽、軟標簽及損失權重如圖88所示。在軟標簽中,正樣本標簽由匹配對應的邊界框代替,負樣本標簽由0代替(因為為高虛警率,為了降低虛警率,將背景處目標置信度設置為0)在原始特征金字塔網(wǎng)絡(ueydok,)中,置信度的部分損失值由二分類交叉熵損失函數(shù)得到。在訓練過程中,軟標式中,、分別表示候選邊界框普通標簽和對置信度的預測值;表示每個標簽對應的損失權重。邊界框回歸損失通過平滑函數(shù)計算,即▲圖8-8RPNFasterR-CNNFasterR-CNN檢測頭邏輯值輸出與RPN不同,推薦區(qū)域經(jīng)過感興趣區(qū)域練。FasterR-CNN分類標簽如圖8-9所示。在損失函數(shù)上,用KL散度代圖8-9FasterR-CNN圖8-10為FasterR-CNN檢測頭訓練,但圖中僅展示了分類部分的訓練結▲圖8-10FasterR-CNN網(wǎng)絡總損失L為RPN損失與FasterR-CNN為了評估FasterR-CNN的分類性能,使用部分SAR圖像艦船檢測數(shù)據(jù)集首先,對數(shù)據(jù)集進行簡要介紹。其次,在“哨兵一號數(shù)據(jù)集上對本章所提方法進行測試,并與其他無監(jiān)督檢測方法進行比較,以驗證本章所提方法在艦船目標檢測上的優(yōu)越性。本節(jié)實驗所使用的數(shù)據(jù)集為“哨兵一號割成大小為416416像素的圖像進行計算。圖81展示了河道、近岸、島嶼、遠洋4種場景下的圖像數(shù)據(jù)。圖8-11部分SAR本章所提USOD方法以FasterR-CNN質因數(shù)(FigureofMerit,F(xiàn)OM)指標。綜上所述,本次實驗采用目標并比(IntersectionofUnion,IOU)大于0.5時,表示檢測正確;N表示知識蒸餾模型,以CFAR檢測器代替Teacher網(wǎng)絡,以FasterR-CNN檢測通過FasterR-CNN訓練得到的檢測模型,在一定程度上可以獲取圖像結進行對比。一組在得到FasterR-CNN檢測器的檢測結果之后,對CFAR檢測器進行第二次迭代時,用FasterR-CNN檢測框代替單元的保護區(qū)迭代,在對FasterR-CNN檢測器進行訓練時,每次迭代的監(jiān)督信息都基過程中使用與未使用FasterR-CNN檢測框作為自適應檢測單元。▼表8-2不同模塊下的檢測器性能▼表8-3不同模塊下的檢測器性能▼表8-4不同模塊下的檢測器性能提供的軟標簽訓練FasterR-CNN檢測器可以擴大目標物與虛警雜波之間結論。兩組實驗證明,利用FasterR-CNN檢測框代替CFAR檢測單元,▼表8-5各檢測方法的檢測性能比較▼表8-6各檢測方法的檢測性能比較▼表8-7各檢測方法的檢測性能比較級到目標級的融合計算,得到邊界框軟標簽,以FasterR-CNN檢測器為[1]FasterR-CNN的英文全稱為FasterRegionbasedConvolutionalNeural第9圖像無監(jiān)督變化檢測(UnsupervisedChangeDetection,USCD)方法。USCD圖9-1基于圖像翻譯的USCD圖像-【例91】給定dn數(shù)據(jù)集,如圖92所示。其中圖像和光學圖像捕獲了撒丁島(意大利)的湖泊變化情況。現(xiàn)在有以下信息:R圖像是由nd5衛(wèi)星拍攝的,于1995年9月獲??;光學圖像是1996年7月由谷歌地球(oogeh)軟件拍攝的。兩者分別如圖92()和圖92(b)所示。兩幅圖像的尺寸都是327239像素。圖92()述了通過實地調(diào)查獲得的地面真實圖像。圖像圖像翻譯可以分為兩個步驟。圖9-2Sardinia本x和y,xX,y∈Y,i=1,2,···,390。圖9-3提取顯著變化/集合取中顯著未變化的像素對。這里采用經(jīng)典的k均值方法來執(zhí)行二元分這樣做可以對稱地提取集合中顯著變化的像素對,但需要從遠離0的集群中選擇。由于異質遙感圖像的變化范圍往往很大,孤立的變化/未變化的像素點一般不會出現(xiàn)。在這種情況下,在獲得顯著變化的像素點位置后,可以根據(jù)鄰居信息進一步過濾,以獲得非孤立的顯著變化/未變化的像素點。本節(jié)采取二次濾波的方法。本分類器Γ(·)。這里,假設訓練集T={t,t,···,t}由SAR圖像X和光息:顯著變化和未變化的訓練樣本t,i=1,···,n。t是由同一位置的像▲圖9-4選擇參數(shù)的指導原則為:在實際應用中,選定的顯著變化的樣本數(shù)量n和選定的顯著未變化的樣本數(shù)量n對變化檢測的結果都很重要。一般來說,如果n和n的值太小,所選的像素對不足以學習一個有效的分類器,而這個分類器是用來處理其他像素對的。如果n和n的值太大,會帶來一些噪聲,這對分類器的學習和檢測結果是有害的。在實際應用中,n和n的值應該接近,以避免不平衡現(xiàn)象?;谏鲜鲈瓌t,根據(jù)明顯變化的聚類與明顯未變化的聚類中的樣本數(shù)量來選擇n和n的值,稱為和。這兩個聚類分別由均值方法產(chǎn)生。對于給定的異質數(shù)據(jù),變化的區(qū)域通常小于未變化的區(qū)域。因此,建議在大多數(shù)情況下將n0.2和n0.1作為默認值。例如,對應于聚類中心圖像的像素變化范圍是0~255,但在圖像轉換過程中會產(chǎn)生噪聲,中的大多數(shù)元素不會集中在兩端。因此,參數(shù)的值不能太小,否則可能GloucesterSardinia像來源為谷歌地圖。兩幅圖像的大小相同,都是300×300像素。圖9-▲圖9-5Gloucester▲圖9-6▲圖9-7Sardinia▲圖9-8USCD方法與后分類比較(PostclassificationComparison,PCC)方法、迭代重加權-多變

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論