圖像融合算法研究畢業(yè)論文教材_第1頁
圖像融合算法研究畢業(yè)論文教材_第2頁
圖像融合算法研究畢業(yè)論文教材_第3頁
圖像融合算法研究畢業(yè)論文教材_第4頁
圖像融合算法研究畢業(yè)論文教材_第5頁
已閱讀5頁,還剩37頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

第*章具體章節(jié)標(biāo)題本科學(xué)生畢業(yè)論文論文題目:圖像融合算法研究學(xué)院:電子工程學(xué)院年級:2010級專業(yè):電子信息工程姓名:學(xué)號:指導(dǎo)教師:杜寶祥2014年5月10日PAGEPAGEII摘要對多元圖像信息進(jìn)行的一系列提取和合成,統(tǒng)稱為圖像融合。通過對多元圖像信息的提取與合成,從而獲得對同一目標(biāo)的更為準(zhǔn)確、更為全面、更為可靠的圖像描述。研究者可以得到包含多種情況下,不同條件下、不同環(huán)境下、不同模式下、不同觀察角度下,對同一目標(biāo)的綜合特征描述的圖像。圖像融合通??煞譃橄袼丶壢诤?、特征級融合以及決策級融合三個層次。本文首先介紹了圖像融合的大概、國內(nèi)外研究現(xiàn)狀、面臨的問題以及本文的主要工作。接著重點論述了圖像融合的三個層次以及像素級圖像融合的幾種常用方法,并通過matlab仿真,比較加權(quán)平均法、主成分分析(PCA)法、IHS融合法以及小波變換法的融合效果。關(guān)鍵詞圖像融合;主成分分析(PCA);IHS;小波變換AbstractToaseriesofmultipleimageinformationextractionandsynthesis,collectivelyknownasimagefusion.Basedonmultipleimageinformationextractionandsynthesis,therebygainingthesametargetismoreaccurate,morecomprehensive,morereliableimagedescription.Theresearcherscangetcontainsavarietyofsituations,differentconditions,differentenvironment,differentmode,differentobservationangles,thecomprehensivedescriptionoftheimageonthesametarget.Imagefusionisusuallydividedintopixellevelfusion,featurelevelfusionanddecisionlevelfusionthreelevels.Thispaperfirstintroducesthepurposeofimagefusion,domesticandforeignresearchpresentsituation,problemsandthemainworkofthisarticle.Thenmainlydiscussesthethreelevelsofimagefusion,andseveralcommonlyusedmethodsofimagefusionatpixellevel,andthroughmatlabsimulation,comparingtheweightedaveragemethod,principalcomponentanalysis(PCA)method,IHSfusionmethodandwavelettransformfusioneffect.KeywordsImagefusion;principlecomponentsanalysis(PCA);Intensity-Hude-Saturation(IHS);wavelettransform目錄摘要 IAbstract II第一章前言 11.1概述 11.2國際研究現(xiàn)狀 11.3國內(nèi)研究現(xiàn)狀 11.4圖像融合技術(shù)發(fā)展歷程 21.5本文的主要內(nèi)容 3第二章圖像融合理論 52.1圖像融合的三個層次 52.2圖像融合規(guī)則 8第三章像素級圖像融合的常用方法 103.1加權(quán)平均法 103.2主成分分析法(PCA法) 103.3基于IHS變換的圖像融合方法 123.4基于小波變換的圖像融合方法 13第四章MATLAB仿真 144.1MATLAB仿真結(jié)果 144.2圖像融合的客觀評價參數(shù) 154.2.1信息熵 164.2.2均方根誤差 164.2.3信噪比 164.2.4平均梯度 164.3四種方法的客觀評價 17結(jié)論 18參考文獻(xiàn) 19附錄一 21附錄二 25附錄三 32致謝 36圖像融合算法研究PAGE4第一章前言1.1概述圖像融合是指將多源信道所采集到的關(guān)于同一目標(biāo)的圖像數(shù)據(jù)經(jīng)過圖像處理和計算機(jī)技術(shù)等,最大限度的提取各自信道中的有利信息,最后綜合成高質(zhì)量的圖像,以提高圖像信息的利用率、改善計算機(jī)解譯精度和可靠性、提升原始圖像的空間分辨率和光譜分辨率,利于監(jiān)測[]。本文重點論述了圖像融合的三個層次以及像素級圖像融合的幾種常用方法,并通過matlab仿真,比較加權(quán)平均法、主成分分析(PCA)法、IHS融合法以及小波變換法的融合效果。1.2國際研究現(xiàn)狀近二十年,圖像融合技術(shù)在航天、軍事、遙感、醫(yī)學(xué)等各個領(lǐng)域都取得了很大的應(yīng)用,發(fā)揮的作用也越來越大,能夠融合的圖像種類也越來越多。美國,作為世界上的超級大國,在圖像融合領(lǐng)域也是起步最早,發(fā)展最快的國家[]。在二十世紀(jì)七十年代初期,由美國國防部出資,麻省理工大學(xué)協(xié)助開發(fā)的聲納信號處理系統(tǒng)中,融合技術(shù)得到了最早的應(yīng)用[]。后來的八十年代以來,美國軍部一直對信息融合技術(shù)、圖像融合技術(shù)給予高度的重視,自美國國防部在海灣戰(zhàn)爭中體會到該技術(shù)的巨大應(yīng)用潛力,以后逐年加大投資力度,建立了關(guān)于數(shù)據(jù)融合的軍用系統(tǒng)[]。在國際圖像融合領(lǐng)域上,除了美國,英、法等發(fā)達(dá)國家前期也有了較大的投入,在算法融合、實際應(yīng)用融合系統(tǒng)上也處于領(lǐng)先的地位。1.3國內(nèi)研究現(xiàn)狀多傳感器圖像信息融合技術(shù)是正在蓬勃興起的一門學(xué)科,應(yīng)用的前景十分廣泛。目前,圖像融合的研究重點在于:在盡可能的提高融合后圖像的空間分辨率的同時,保持原始圖像的特征,從而使其后續(xù)分析理解的有效性能夠得到保證[]。此外,序列圖像和視頻信息的融合問題,也是一個非常有意義的研究課題。在融合技術(shù)中,關(guān)于像素級融合方法的文獻(xiàn)較多,而介紹特征級和決策級融合方法的文獻(xiàn)相對較少,這也是融合技術(shù)的又一個重要研究領(lǐng)域。而在許多實際應(yīng)用中,要實時的進(jìn)行并完成像素級的融合處理工作是.相當(dāng)困難的,于是,進(jìn)行決策級和特征級圖像信息融合的實時處理就成了主要的選擇。目前,目標(biāo)自動識別和圖像理解是特征級和決策級圖像信息融合技術(shù)中的難點問題。在我國,圖像融合理論近幾年成為研究熱點,西工大、國防科技大、北理工、西電、華科等高校在圖像融合理論和應(yīng)用系統(tǒng)的研究方面也都做了很多工作,但與國際先進(jìn)水平相比,仍然有很大的差距。1.4圖像融合技術(shù)發(fā)展歷程傳統(tǒng)的圖像融合方法,都是基于彩色空間變換融合法實現(xiàn)的,譬如本文將介紹的IHS變換法、主成分析法等[]。傳統(tǒng)圖像融合方法都沒有對源圖像進(jìn)行分解變換,屬于比較簡單的圖像融合方法。直到八十年代中期,科學(xué)家們提出了金字塔法,即基于基于金字塔分解圖像融合方法,包括拉普拉斯金字塔、梯度金字塔、對比度金字塔等。也從此開始講這一技術(shù)應(yīng)用到一般的圖像處理中??墒?,由于層與層之間存在分解量的相關(guān)性,導(dǎo)致了融合的效果并不十分理想[]。直到九十年代,隨著小波變換理論的廣泛應(yīng)用,小波變換也成為圖像融合技術(shù)方面新的工具。這也促進(jìn)了圖像融合技術(shù)的研究呈現(xiàn)上升的趨勢。目前,在小波變換域中進(jìn)行圖像融合的方法有基于極大值,局部能量,局部方差等融合算子。這些特點使得圖像融合在遙感、醫(yī)學(xué)、計算機(jī)視覺、氣象預(yù)報、軍事目標(biāo)檢測與識別等方面的應(yīng)用潛力得到了認(rèn)可。多源圖像融合作為多源信息融合的一個具體的研究領(lǐng)域,具有信息融合特點的同時,也具有一些自己的特點[]。如多源圖像融合輸入數(shù)據(jù)是圖像,因而對圖像配準(zhǔn)等預(yù)處理有更嚴(yán)格的要求。而且考慮到圖像融合的目的以及圖像融合的優(yōu)勢,對于圖像融合算法實現(xiàn)必須滿足兩個要求。一方面,圖像融合算法應(yīng)使得融合后圖像包含原圖像中所具有的重要信息;另外一方面,圖像融合算法不應(yīng)引入任何誤導(dǎo)人類視覺感知或圖像處理的錯誤信息。然而,由一維度小波變換張成的二維度可分離小波只具有有限的方向,無法做到最優(yōu)表示含有線或面的奇異高維函數(shù)。這種“尷尬”直到2002年DoM.N和VerrtliM提出的Contourlet變換才逐漸被打破。Contourlet變換是一種二維圖像的稀疏表示方法,它不單具備小波變換多分變率時頻分析特征,還擁有優(yōu)越的各向異性特征,當(dāng)用它來表示一條光滑的曲線時,需要用到的系數(shù)比小波變換更少就可以抓住圖像的幾何結(jié)構(gòu)。2006年,ArthurL.Cunha等科學(xué)家在Contourlet變換的基礎(chǔ)上,提出了NSCT變換,與之前的Contourlet變換相比,NSCT變換具有多尺度、良好的頻域、空域方向特性、局部特性以及平移不變特性[]。在NSCT的基礎(chǔ)上,基于多分辨率的圖像融合技術(shù)得到了更為廣泛的應(yīng)用與發(fā)展。圖像融合涉及信息融合、圖像處理等多個領(lǐng)域,是一個較年輕的研究方向。經(jīng)過近二十多年的發(fā)展,眾多研究者的不懈努力,圖像融合在算法研究方面取得了一些成果,在軍事、醫(yī)學(xué)、遙感以及機(jī)器人等領(lǐng)域內(nèi)也得到了廣泛的應(yīng)用;但隨著研究的深入,仍面臨許多問題,需要進(jìn)一步深入研究解決。這些問題包括:1.與目前各種圖像融合算法快速發(fā)展的情況不相適應(yīng),缺乏系統(tǒng)的、完善的并被廣泛認(rèn)可的評價手段衡量各種融合算法的優(yōu)劣。實際應(yīng)用中,由于理想的融合圖像并不存在,很難對融合結(jié)果進(jìn)行客觀的定量評價。性能評價問題一直是圖像融合領(lǐng)域的難點,但一直未受太多的關(guān)注。性能評價對融合算法的選擇、改進(jìn)、算法參數(shù)的優(yōu)化均具有非常重要的作用,有待于進(jìn)一步的深入探討和完善[]。2.多尺度融合方案中的融合規(guī)則是除多尺度分解方法以外另一個重要環(huán)節(jié),本論文并未在這一點上展開,而是延用了已有成熟的融合規(guī)則。目前融合規(guī)則的研究進(jìn)展緩慢;盡管有學(xué)者已經(jīng)提出了更加復(fù)雜的基于區(qū)域的融合規(guī)則,但是受到區(qū)域分割技術(shù)的限制,基于區(qū)域的融合規(guī)則還很難應(yīng)用于實際。在多尺度融合方案下,發(fā)展智能高效的融合規(guī)則是今后一個值得研究的方向。1.5本文的主要內(nèi)容本文圍繞圖像融合展開研究,首先介紹了國內(nèi)外研究現(xiàn)狀、圖像融合發(fā)展歷程倆個方面的基本情況。重點研究了幾種像素級別圖像融合的常用方法,其中包括加權(quán)平均法、主成分分析法(PCA法)、IHS變換法以及小波變換法。本文對上述四種圖像融合算法進(jìn)行理論分析,在matlab下對四種算法進(jìn)行仿真實驗分別得出四種不同方法下的融合圖像,對比四種方法的融合圖像、標(biāo)準(zhǔn)參數(shù)進(jìn)行衡量。PAGE17圖像融合理論圖像融合是多傳感器信息融合中可視信息的融合。它是對多個傳感器采集到的關(guān)于同一場景或目標(biāo)的圖像進(jìn)行適當(dāng)?shù)娜诤咸幚恚@得一幅融合后圖像,使之更適合視覺感知或計算機(jī)處理。它是一門綜合了傳感器、信號處理、圖像處理和人工智能等的新興技術(shù)。一般多源圖像融合的處理流程主要有:圖像預(yù)處理、圖像配準(zhǔn)、圖像融合、特征提升取以及識別與決策。依據(jù)融合在處理流程中所處的階段,按信息抽象的程度,多源圖像融合一般可分為三個層次:像素級融合、特征級融合和決策級融合[]。本章主要內(nèi)容:本章節(jié)先介紹了圖像融合的三個層次,然后簡單介紹了圖像融合的規(guī)則。重點論述了圖像融合的三個層次以及像素級圖像融合的幾種常用方法,從理論角度出發(fā),討論加權(quán)平均法、主成分分析(PCA)法、IHS融合法以及小波變換法各自的特點。2.1圖像融合的三個層次圖像融合是指將多源信道所采集到的關(guān)于同一目標(biāo)的圖像數(shù)據(jù)經(jīng)過圖像處理和計算機(jī)技術(shù)等,最大限度的提取各自信道中的有利信息,最后綜合成高質(zhì)量的圖像,以提高圖像信息的利用率、改善計算機(jī)解譯精度和可靠性、提升原始圖像的空間分辨率和光譜分辨率,利于監(jiān)測。根據(jù)圖像融合所處的不同階段,圖像通??稍谌齻€層次上進(jìn)行融合:像素級融合、特征級融合、決策級融合。然而,多源圖像信息融合的復(fù)雜形式也出現(xiàn)在不同的信息層次上。像素級融合:基于像素級的圖像融合。是指針對多源圖像對于同一目標(biāo)場景、同一目標(biāo)事物進(jìn)行的同一灰度級的綜合處理。圖像融合后所生成的新圖像將包含原圖像中,所有像素點所包含的信息。像素級融合過程如圖2-1所示。圖2-1像素級圖像融合圖2-1像素級圖像融合正如圖2-1所示,通常在進(jìn)行像素級融合之前,要對源圖像預(yù)處理并且展開圖像匹配。這么做的主要目的是為了提高源圖像融合的精度以及融合的可靠性。因為每一幅源圖像均可能來自不同的時間背景及空間背景,各幅源圖像均包含了各種不同的,目標(biāo)圖像所需要的多方面信息。通過像素級別的圖像融合,豐富了圖像的信息,在細(xì)節(jié)方面提供的信息要優(yōu)于特征級圖像融合和決策級圖像融合[]。像素級圖像融合能得到更豐富的可靠的圖像,有利于進(jìn)一步的分析、處理、理解,更方便的提供最優(yōu)決策和性能辨別。特征級圖像融合:利用原始圖像中提供的特征信息進(jìn)行綜合分析處理。特征級融合圖像具體流程如圖2-2所示。如圖2-2所示,特征級圖像融合從源圖像提取局部特征進(jìn)行融合綜合分析處理后獲得復(fù)合特征。特征級圖像融合為圖像紋理、邊緣、焦點、相似區(qū)域等。要在倆幅源圖像中找到目標(biāo)的差異,對目標(biāo)進(jìn)行特征提取,然后對目標(biāo)進(jìn)行對比分析,最后進(jìn)行識別和決策。圖2-2特征級圖像融合圖2-2特征級圖像融合決策級圖像融合:對每個圖像源分別進(jìn)行預(yù)處理、特征提取、識別與判斷,如圖2-3所示。圖2-3決策級圖像融合圖2-3決策級圖像融合如圖2-3所示,決策級圖像融合首先對目標(biāo)作出初級的判斷與結(jié)論,然后對各階段的決策進(jìn)行相關(guān)處理,最后進(jìn)行聯(lián)合判斷。決策級圖像融合是針對具體的決策目標(biāo),充分有效的利用各自不同的圖像源的初級決策[]。在預(yù)處理階段對圖像源的配準(zhǔn)要求不高,可以不用考慮。決策級圖像融合主要包括表決法、貝葉斯推理、推廣的證據(jù)處理理論、模糊集法等。根據(jù)已有的數(shù)據(jù)證明,像素級圖像融合在預(yù)處理、信息量、信息缺失分類性等多方面性能最優(yōu)。而另外倆種圖像融合方法融合性能一般。像素級圖像融合也是最基礎(chǔ)的圖像融合方法。故此,本文的研究重點為像素級圖像融合。2.2圖像融合規(guī)則圖像的融合規(guī)則是指圖像融合概念的核心,融合規(guī)則的結(jié)果將會直接影響融合圖像的效果。外國科學(xué)家Burt先生曾提出了過基于像素選取的融合規(guī),是指將原圖像分解成不同分辨率圖像,以此為基礎(chǔ)選取最大絕對值的像素系數(shù)作為融合后的像素值系數(shù)。在不同分辨率圖像中都有涉及,通常具有最大值的像素系數(shù)也包含更多的圖像信息。另外倆名科學(xué)家Petrovic和Xydeas卻提出了根據(jù)分解層內(nèi)各圖像源及分解層間的具備相關(guān)性的像素進(jìn)行選取融合的規(guī)則。蒲恬先生在應(yīng)用小波變換進(jìn)行圖像融合時,通過觀察人類視覺系統(tǒng)對局部布局對比度敏感度的特性,選擇采用基于對比度不同的像素選取融合的融合規(guī)則[]?;谙袼丶墑e的圖像融合選取僅是以最小單位,單個像素點作為融合對象的,這種融合方法并未考慮到圖像相鄰像素點間的相關(guān)特性,故此,融合效果并不是十分理想。考慮圖像相鄰像素單位之間的相關(guān)特性,Burt先生以及Kolczynski先生曾提出過基于區(qū)域特性來選擇的加權(quán)平均融合規(guī)則,將像素系數(shù)進(jìn)行融合并選取與其所在的局部區(qū)域相互聯(lián)系。在科學(xué)家Lietal提出的圖像融合規(guī)則中,選取窗口區(qū)域中較大的像素值系數(shù)作為融合后像素值系數(shù)的同時,還應(yīng)該考慮窗口區(qū)域像素系數(shù)的相關(guān)特性。對此,Chibani和Houacine在融合規(guī)則中通過計算源圖像對應(yīng)窗口區(qū)域里的像素絕對值,相比之下較大個數(shù)的進(jìn)行融合,決定融合像素點的選取。基于窗口區(qū)域的融合規(guī)則又因為需要考慮相鄰像素的相關(guān)特性,故此減少了融合像素點的錯誤選取。融合效果明顯有了較大的提高??茖W(xué)家ZZhang和科學(xué)家Blum也曾提出過基于區(qū)域的融合規(guī)則,即將源圖像中的每個像素點都看作區(qū)域或邊緣的一部分,并利用區(qū)域與邊界的源圖像信息來指導(dǎo)融合選取。采用這類圖像融合規(guī)則所得到的融合圖像融合的效果比較好,然而,此規(guī)相對其他圖像融合的規(guī)則要更為復(fù)雜。對于稍微復(fù)雜的圖像,此規(guī)則明顯不易于實現(xiàn)。第三章像素級圖像融合的常用方法3.1加權(quán)平均法加權(quán)平均法是指:利用以往若干個按照發(fā)生時間順序排列的同一目標(biāo)的觀測值并以時間順序數(shù)為權(quán)數(shù),計算出觀測值的加權(quán)平均值,以這一數(shù)值作為最終結(jié)果進(jìn)行圖像融合的方法。加權(quán)平均法的計算公式如3-1式所示: (3-1)其中: m表示圖像中像素的行號1,2,3Mn表示圖像中像素的列號1,2,3N表示加權(quán)系數(shù) 在像素級圖像融合方向,加權(quán)平均方法是將源圖像對應(yīng)的像素級灰度值做加權(quán)平均,從而獲得新的圖像,它是最為直接的一種圖像融合方法。其中,平均方法就是加權(quán)平均的特別之處[]。使用平均方法進(jìn)行像素級圖像融合,雖然提高了融合圖像的信噪比,然而卻減弱圖像的對比程度,尤其針對一些僅出現(xiàn)在其中一幅源圖像上的實用信息載體信號。3.2主成分分析法(PCA法)從多元數(shù)據(jù)統(tǒng)計分析中,主成分分析(英文全稱:Principalcomponentsanalysis,PCA)是一種分析并且能夠簡化數(shù)據(jù)集合的技術(shù)。主成分分析法(PCA法)經(jīng)常用來減少數(shù)據(jù)集的維數(shù),同時保持源數(shù)據(jù)中對方差的貢獻(xiàn)大的特征部分。這是通過保留低階主成分,且忽略高階成分來實現(xiàn)的[]。這樣低階成分往往能夠保留住數(shù)據(jù)的最重要方面。但是,這也不是一定的,要視具體應(yīng)用而定。由于主成分分析依賴所給數(shù)據(jù),所以數(shù)據(jù)的準(zhǔn)確性對分析結(jié)果影響很大。主成分分析法也就是PCA法最早是由科學(xué)家卡爾·皮爾遜先生在1901年發(fā)明的,起初這種方法被用于分析數(shù)據(jù)并建立數(shù)理原始模型。其方法主要是通過對協(xié)方差矩陣進(jìn)行特征分解,以得出數(shù)據(jù)的主要成分(特征向量)與它們的權(quán)(特征值)。主成分分析法是最簡單的以特征量來分析多元統(tǒng)計分布的方法。其結(jié)果可以理解為對原始數(shù)據(jù)中的方差進(jìn)行合理解釋:在哪一方面對方差影響最為嚴(yán)重。也就是說,主成分分析法提供了一種可以降低數(shù)據(jù)維度的高效方法;如果分析者在原始數(shù)據(jù)中除掉最小的特征值中對應(yīng)的成分,那么所得到的低維度數(shù)據(jù)無疑是最優(yōu)化,這樣降低維度也是失去訊息最少的一種方法。主成分分析法在分析復(fù)雜數(shù)據(jù)之處顯得尤為有用,比如我們整篇探討的圖像融合技術(shù)領(lǐng)域。主成分分析法是一種以特征量來分析多元數(shù)據(jù)統(tǒng)計分布的方法。一般情況下,這類運算可以被看作是揭露數(shù)據(jù)的內(nèi)部結(jié)構(gòu),從而更完整的解釋數(shù)據(jù)變量的一種方法。如果一個多元數(shù)據(jù)集能夠在一個高維數(shù)據(jù)空間坐標(biāo)系中被顯現(xiàn)出來,那么主成分分析法就可以提供一幅相對低維度的圖像,這幅圖像可以看做是訊息最多的像素點上原圖像的一個‘投影’。如此,利用少量的主成分來使數(shù)據(jù)的維度降低。主成分分析法跟因子分析有關(guān),已經(jīng)有了多個混合這兩二者分析的統(tǒng)計包。而真實要素分析則是假定底層結(jié)構(gòu)的,導(dǎo)出微小差異矩陣的特征向量。在圖像融合技術(shù)領(lǐng)域中,主成分分析法(PCA法)首先需要三個或三個以上的波段數(shù)據(jù)來計算得出圖像之間的相關(guān)系數(shù)矩陣,再由計算得出的相關(guān)系數(shù)矩陣來計算得出特征值與特征向量,之后再計算出各主分量圖像,再將高空間分辨率圖像數(shù)據(jù)進(jìn)行對比度拉伸,使其與第一主分量圖像的數(shù)據(jù)具備相同的平均值與方差。最后,再用經(jīng)過拉伸的高空間分辨率圖像來替代第一主分量,使它與其他的主分量經(jīng)PCA法逆變換導(dǎo)出融合圖像。主成分分析法圖像融合的優(yōu)點是適用于多光譜圖像的任何波段,其不足之處則是在PCA融合算法中只用高分辨率圖像來替換低分辨率圖像的第一主要成分,國語簡單,故此,會損失低分辨率圖像第一主成分中的某些反映光譜特性的信息,使得融合圖像的光譜畸變嚴(yán)重[]。按著統(tǒng)計的思路,不去考慮圖像各個波段的特點是PCA融合算法最為致命的缺點。主成分變換的變換公式如3-2式所示: (3-2)其中: X:待變換圖像的數(shù)據(jù)矩陣Y:變換后圖像的數(shù)據(jù)矩陣T:變換矩陣主成分分析法的主要步驟:配準(zhǔn)各幅參加融合的源圖像計算源圖像的特征值及特征向量按大小對特征值進(jìn)行排序,相應(yīng)的特征向量頁跟著一同變動,記錄最終的結(jié)果為:分量主量按式3-3計算 (3-3)將全色圖像和第一主分量圖像進(jìn)行直方圖匹配,然后將第一分量用全色圖像替換。做逆主分量變換,得到融合圖像。PCA變換融合法的主要優(yōu)點是:融合后的圖像光譜特性保持良好,這一優(yōu)點在多波段時尤為突出。缺點是:計算量大,實時性差。3.3基于IHS變換的圖像融合方法 基于IHS變換法進(jìn)行圖像融合的一般步驟,如下:假設(shè)TM為原始的多光譜源圖像,PAN為高空間分辨率圖像。將TM的三個波段賦值RGB后進(jìn)行RGB—IHS變換,可以得到分量以及兩個中間量V1、V2如式3-4所示: (3-4)其中V1、V2可看作是笛卡兒坐標(biāo)系下的橫軸與縱軸,z軸表示的則是亮度I,那么色度H和飽和度S分別可以被表示為式3-5與3-6H=arctan(v2/v1) (3-5) (3-6)用PAN替代I分量得到新的I分量I_new,即I_new=PAN,然后進(jìn)行HIS-RGB變換。得到融合后的多光譜圖像這樣獲得的圖像既有較高的空間分辨率,又有與原圖像相同的色度和飽和度。高分辨率全色影像與多光譜影像融合時,先把多光譜影像利用IHS變換從RGB系統(tǒng)變換至IHS空間,同時將單波段的高分辨率圖像經(jīng)過灰度拉伸,使其灰度的均值和方差和IHS空間中亮度分量圖像一致;然后將拉伸后的高分辨率圖像作為新的亮度分量代入到IHS,經(jīng)過反變換還原到原始空間[]。這樣獲得的圖像既有高的空間分辨率,又有與原圖像相同的色度和飽和度。傳統(tǒng)的基于IHS變換的圖像融合方法可以很大程度的提高圖像融合在空間上的分辨率,但是,傳統(tǒng)的方法也存在著光譜畸變現(xiàn)象。IHS變換可以做到增強(qiáng)圖像的地物紋理特性,提高圖像空間細(xì)節(jié)的變現(xiàn)能量。然而由于在變換過程中,分量I被高分辨率的全色圖像所取代了,故此,IHS變換的結(jié)果將會產(chǎn)生比較大的光譜失真,圖像融合后精度不高。也正是因為上訴的原因,在實際的生產(chǎn)應(yīng)用的范圍中,傳統(tǒng)的基于IHS變換圖像融合方法所應(yīng)用的范圍其實很受限制,實際的應(yīng)用主要使用的是一些改進(jìn)過的IHS變換融合方法。3.4基于小波變換的圖像融合方法在圖像融合技術(shù)領(lǐng)域,基于小波變換的圖像融合方法早已經(jīng)成為圖像融合研究的一個大熱點,這類算法是利用眼睛對局部對比度的變化敏感,再以一定的融合規(guī)則為基礎(chǔ),從多幅源圖像里選擇出最明顯的特征,譬如邊緣、線段等。并將這些特征保留在最終的融合結(jié)果中,在一幅圖像的小波變換中,絕對值較大的小波系數(shù)對應(yīng)于邊緣這些較為顯著的特征,所以大部分基于小波變換的圖像融合算法主要研究如何選擇合成圖像中的小波系數(shù),也就是三個方向上的高頻系數(shù)從而達(dá)到保留圖像邊緣的目的[]。雖然小波系數(shù)(高頻系數(shù))的選擇對于保留圖像的邊緣等特征具有非常主要的作用,但尺度系數(shù)(低頻系數(shù))決定了圖像的輪廓,故此,正確的尺度系數(shù)對基于小波融合圖像的視覺效果具有十分重要的作用。第四章MATLAB仿真本章主要內(nèi)容:通過對加權(quán)平均法、主成分析(PCA)法、IHS變換法、小波變換法四種主要像素級圖像融合方法的理論和算法進(jìn)行分析研究,再利用matlab編寫上述算法的實現(xiàn)程序,從而具體的分析對比四種算法的各自優(yōu)缺點。matlab實現(xiàn)的四種算法詳見本文的附錄部分。4.1MATLAB仿真結(jié)果在此次仿真實驗中,以我校正門的照片作為源圖像如圖a,為了對比四種算法的融合效果,我們將源圖像的左側(cè)與右側(cè)分別做模糊處理,如圖4-1所示。(b)右側(cè)聚焦(a)源圖像圖 (b)右側(cè)聚焦(a)源圖像圖(c)左側(cè)聚焦(c)左側(cè)聚焦圖4-1聚焦圖像生成圖在實驗過程中,我們將右側(cè)聚焦的圖像與左側(cè)聚焦的圖像作為源圖像信息輸入,分別使用加權(quán)平均法、主成分分析法(PCA法)、IHS變換法以及小波變換法,運用matlab進(jìn)行仿真,得到上訴四種方法的融合結(jié)果。如圖4-2所示。(a)加權(quán)平均法融合之后的效果(b)PCA法融合之后的效果(c)IHS變換融合之后的結(jié)果(d)小波變換融合之后的結(jié)果圖4-2四種方法融合之后的結(jié)果從以上幾組圖片中可以看出,小波變換的融合效果是最好的??梢灾庇^的看出,基于小波變換的融合方法得出的結(jié)果,左邊與右邊都很清晰,而其他三種融合方法所得出的結(jié)果都有不同程度上的模糊。主成分分析法(PCA法)與IHS變換法的融合結(jié)果基本上相差不大,并且從直觀感覺上來看,PCA法與基于IHS變換法得到的效果都要比加權(quán)平均法得到的效果好。4.2圖像融合的客觀評價參數(shù)目前對圖像融合質(zhì)量的客觀評價有四個常用的指數(shù)。分別是信息熵、均方根誤差、信噪比、平均梯度[]。4.2.1信息熵源圖像在融合前后的信息量會發(fā)生變化,所以,計算出信息熵可以客觀的衡量圖像融合的效果好壞。根據(jù)香農(nóng)信息理論,一副2的n次冪級表示的圖像的信息熵可以用公式4-1來表示: (4-1)其中,r表示圖像的總灰度級數(shù)為灰度值為k時,像素數(shù)與總像素數(shù)之比。信息熵值越大,表明所包含的的信息量越多,圖像融合的效果越好。4.2.2均方根誤差根據(jù)圖像融合理論,我們將融合圖像與標(biāo)準(zhǔn)參考圖像之間的均方根誤差RMSE定義為公式4-2: (4-2)其中,M、N分別表示圖像的行數(shù)與列數(shù)。均方根數(shù)值越小,表明融合效果越好。4.2.3信噪比反應(yīng)畫質(zhì)上畫面是否干凈無噪點的參數(shù)。峰值信噪比PSNR定義為公式4-3: (4-3 )PSNR值越高,說明融合效果越好。4.2.4平均梯度平均梯度grad反映了圖像細(xì)節(jié)的反差,能夠作為圖像清晰度檢測的標(biāo)準(zhǔn)。公式4-4: (4-4)式中,f(x,y)表示融合圖像。梯度值越大,證明融合圖像越清晰。4.3四種方法的客觀評價由上文可知,我們通過對比信息熵、均方根誤差、信噪比、平均梯度四項參數(shù)便可對四種算法的融合效果進(jìn)行評價。利用matlab分別計算以上四種算法的參數(shù),對比得出結(jié)果如表4-1所示。表4-1四種方法的客觀評價表融合方法信息熵均方根誤差信噪比平均梯度加權(quán)平均4.153181.28979.90311.4943PCA4.159580.484710.11501.3919IHS變換4.159280.479010.11721.3853小波變換4.178980.210010.16802.0526根據(jù)圖像融合理論可知,信息熵越大、平均梯度越大、信噪比越高、均方根誤差越小的結(jié)果,其融合效果越好。所以,由此可以得出結(jié)論,基于小波變換的圖像融合方法效果最好,而加權(quán)平均法效果最差、主成分分析法(PCA法)與基于IHS變換的圖像融合方法效果基本相同,與之前通過直觀效果得出的結(jié)論基本保持一致。圖像融合算法研究17結(jié)論本文重點論述了圖像融合的三個層次以及像素級圖像融合的幾種常用方法,并通過matlab仿真,比較加權(quán)平均法、主成分分析(PCA)法、IHS融合法以及小波變換法的融合效果。直觀的從四種算法的圖像融合結(jié)果來看,小波變換的融合效果是最好的??梢灾庇^的看出,基于小波變換的融合方法得出的結(jié)果,左邊與右邊都很清晰,而其他三種融合方法所得出的結(jié)果都有不同程度上的模糊。主成分分析法(PCA法)與IHS變換法的融合結(jié)果基本上相差不大,并且從直觀感覺上來看,PCA法與基于IHS變換法得到的效果都要比加權(quán)平均法得到的效果好。從客觀的角度出發(fā),結(jié)合圖像融合理論,我們知道信息熵越大、平均梯度越大、信噪比越高、均方根誤差越小的結(jié)果,表明其融合效果越好。對比四種算法的以上四個參數(shù)得出結(jié)論,基于小波變換的圖像融合方法效果最好,而加權(quán)平均法效果最差、主成分分析法(PCA法)與基于IHS變換的圖像融合方法效果基本相同,與之前通過直觀效果得出的結(jié)論基本保持一致。參考文獻(xiàn)[1]

H.Leung,

Yifeng

Li,

et

al.

Improved

Multiple

Target

Tracking

Using

Dempster-Shafer

Identification.

SPIE,1997,3068(8):1257-1265.

[2]

敬忠良,

肖剛,

李振華.圖像融合——理論與應(yīng)用[M].

北京:高等教育出版社,

2007:3-9.

[3]

王文武.像素級圖像融合技術(shù)研究[D].

華中科技大學(xué),2005:9-10.

[4]

H.Y.Sun.

The

Property

of

a

Algorithm

for

Hierarchical

Fusion

of

Multisensor

Date.Chinese

Journal

Electronics.

2005,4(4):45-52.

[5]

劉衛(wèi)光,李躍,張修社.圖像信息融合與識別[M].

北京:電子工業(yè)出版社,2008:1-105.

[6]

Laferte

J.M.,Heitz

F,

et

al.

Hierarchical

statistical

Model

for

the

Fusion

of

Multisensor

Image

Date.

Cambrige

MA,

USA:Proc.

Int.

Conf.

Computer

Vision,

June

1995:908-913.

[7]

Hoballan

I,

Varshney

P.K.

Distributed

Bayesian

Signal

Dectection.

IEEE

Trans.

OnInformation

Theory,2004,35(5):995-1000.

[8]

J.F.

Wilson.

A

Fuzzy

Logic

Multisensor

Association

Association

Algorthm.

SPIE,

1997,

3068(8):76-87.

[9]趙曉雷

.像素級圖像融合技術(shù)研究[D].

西安科技大學(xué),2010:1-5,

38-42.

[10]

Kovacevic

J,

Vetterli

M.Perfect

reconstruction

filter

banks

with

rational

sampling

factors.IEEE

Trans.

on

Signal

processing,2009,41(6):2047-2066.

[11]

Vetterli

M,

Herley

C.

Wavelets

and

filter

banks:

Theory

and

design.

IEEE

Trans.

On

Signal

Processing,2002,40(11):2207-2232.

[12]

Mallat

S

G.

A

Theory

for

multiresolution

signal

decomposition:

the

wavelet

Representation.

IEEE

Trans.

on

PAMI,

2007,11(7):674-693.

[13]Ranchin

T.,

Wald

L.

Efficient

data

fusion

using

wavelet

transform:The

case

of

SPOT

satellite

images.

Proc.

of

SIPE,

Vol

2034,2008,S:171-178.

[14]

鄭南寧.計算機(jī)視覺與模式識別[M].

北京:國防工業(yè)出版社,

1998:121-122.[15]

Li

H.,

Manjunath

B.S,

et

al.

Multisensor

image

fusion

using

the

wavelet

transform.

Graphical

Models

and

Image

Processing,

Vol

57,

No

3,2010,

S:235-245[16]強(qiáng)贊霞.遙感圖像的融合及應(yīng)用[D].華中科技大學(xué)博士學(xué)位論文.2005.[17]劉貴喜.多傳感器圖像融合方法研究[D].西安電子科技大學(xué)碩士學(xué)位論文.2001.[18]劉勇.基于遺傳算法的紅外圖像分割研宄[D].中南大學(xué)碩士學(xué)位論文.2009.[19]王明.乳腺X線計算機(jī)輔助診斷關(guān)鍵技術(shù)研究[D].上海交通大學(xué)碩士學(xué)位論文.2009.[20]畢迎春,王相海.小波基和圖像分解層數(shù)對不同類型圖像EZW算法的性能的影響[J].計算機(jī)科學(xué).2006,33(6):232-246.PAGE36附錄一Matlab實現(xiàn)加權(quán)平均法的程序:clearg_R=0;g_G=0;g_B=0;h_R=0;h_G=0;h_B=0;fenzi_R=0;fenzi_G=0;fenzi_B=0;fenmu_up_R=0;fenmu_up_G=0;fenmu_up_B=0;fenmu_low_R=0;fenmu_low_G=0;fenmu_low_B=0;tableR=[];tableG=[];tableB=[];up=imread('C:\Users\Administrator\Desktop\圖像融合\論文資料\image\src.BMP');%讀圖像low=imread('C:\Users\Administrator\Desktop\圖像融合\論文資料\image\Fuzzy.BMP');figure(1)imshow(up);%讀RGB數(shù)值[M,N,color]=size(up);title('加權(quán)-RGB表示的高分辨率圖像');figure(2)imshow(low);title('加權(quán)-RGB表示的低分辨率圖像');r=double(up(:,:,1));g=double(up(:,:,2));b=double(up(:,:,3));r_low=double(low(:,:,1));g_low=double(low(:,:,2));b_low=double(low(:,:,3));RGB(:,:,1)=0.5*r+0.5*r_low;RGB(:,:,2)=0.5*g+0.5*g_low;RGB(:,:,3)=0.5*b+0.5*b_low;R=RGB(:,:,1);G=RGB(:,:,2);B=RGB(:,:,3);RGB=uint8(round(RGB));figure(3)imshow(RGB)title('加權(quán)-RGB轉(zhuǎn)化后的圖像');%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%下面是計算平均梯度G%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%forii=1:M-1forjj=1:N-1g_R=g_R+sqrt((((r(ii+1,jj)-r(ii,jj))^2+(r(ii,jj+1)-r(ii,jj))^2))/2);g_G=g_G+sqrt((((g(ii+1,jj)-g(ii,jj))^2+(g(ii,jj+1)-g(ii,jj))^2))/2);g_B=g_B+sqrt((((b(ii+1,jj)-b(ii,jj))^2+(b(ii,jj+1)-b(ii,jj))^2))/2);endendfprintf('\n\nhighR的清晰度為:%.4f\nhighG的清晰度為:%.4f\nhighG的清晰度為:%.4f',...g_R/(M-1)/(N-1),g_G/(M-1)/(N-1),g_B/(M-1)/(N-1));g_R=0;g_G=0;g_B=0;forii=1:M-1forjj=1:N-1g_R=g_R+sqrt((((r_low(ii+1,jj)-r_low(ii,jj))^2+(r_low(ii,jj+1)-r_low(ii,jj))^2))/2);g_G=g_G+sqrt((((g_low(ii+1,jj)-g_low(ii,jj))^2+(g_low(ii,jj+1)-g_low(ii,jj))^2))/2);g_B=g_B+sqrt((((b_low(ii+1,jj)-b_low(ii,jj))^2+(b_low(ii,jj+1)-b_low(ii,jj))^2))/2);endendfprintf('\n\nlowR的清晰度為:%.4f\nlowG的清晰度為:%.4f\nlowG的清晰度為:%.4f',...g_R/(M-1)/(N-1),g_G/(M-1)/(N-1),g_B/(M-1)/(N-1));g_R=0;g_G=0;g_B=0;forii=1:M-1forjj=1:N-1g_R=g_R+sqrt((((R(ii+1,jj)-R(ii,jj))^2+(R(ii,jj+1)-R(ii,jj))^2))/2);g_G=g_G+sqrt((((G(ii+1,jj)-G(ii,jj))^2+(G(ii,jj+1)-G(ii,jj))^2))/2);g_B=g_B+sqrt((((B(ii+1,jj)-B(ii,jj))^2+(B(ii,jj+1)-B(ii,jj))^2))/2);endendfprintf('\n\nresultR的清晰度為:%.4f\nresultG的清晰度為:%.4f\nresultG的清晰度為:%.4f',...g_R/(M-1)/(N-1),g_G/(M-1)/(N-1),g_B/(M-1)/(N-1));附錄二Matlab實現(xiàn)的主成分分析法(PCA法)的程序:%functionPca=PCA(TM);clearg_R=0;%r清晰度描述g_G=0;%g清晰度描述g_B=0;%b清晰度描述h_R=0;%熵的描述h_G=0;h_B=0;fenzi_R=0;fenzi_G=0;fenzi_B=0;fenmu_up_R=0;fenmu_up_G=0;fenmu_up_B=0;fenmu_low_R=0;fenmu_low_G=0;fenmu_low_B=0;init_up_R=[];init_up_G=[];init_up_B=[];init_low_R=[];init_low_G=[];init_low_B=[];up=imread('C:\Users\Administrator\Desktop\圖像融合\論文資料\image\src.BMP');%讀圖像low=imread('C:\Users\Administrator\Desktop\圖像融合\論文資料\image\Fuzzy.BMP');figure(1)imshow(up);%讀RGB數(shù)值title('PCA-RGB表示的高分辨率圖像');figure(2)imshow(low);title('PCA-RGB表示的低分辨率圖像');[up_R]=double(up(:,:,1));[up_G]=double(up(:,:,2));[up_B]=double(up(:,:,3));[low_R]=double(low(:,:,1));[low_G]=double(low(:,:,2));[low_B]=double(low(:,:,3));[M,N,color]=size(up);up_Mx=0;low_Mx=0;fori=1:Mforj=1:Nup_S=[up_R(i,j),up_G(i,j),up_B(i,j)]';%生成由R,G,B組成的三維列向量up_Mx=up_Mx+up_S;low_S=[low_R(i,j),low_G(i,j),low_B(i,j)]';low_Mx=low_Mx+low_S;endendup_Mx=up_Mx/(M*N);%計算三維列向量的平均值low_Mx=low_Mx/(M*N);up_Cx=0;low_Cx=0;fori=1:Mforj=1:Nup_S=[up_R(i,j),up_G(i,j),up_B(i,j)]';up_Cx=up_Cx+up_S*up_S';low_S=[low_R(i,j),low_G(i,j),low_B(i,j)]';low_Cx=low_Cx+low_S*low_S';endendup_Cx=up_Cx/(M*N)-up_Mx*up_Mx';%計算協(xié)方差矩陳low_Cx=low_Cx/(M*N)-low_Mx*low_Mx';[up_A,up_latent]=eigs(up_Cx);%協(xié)方差矩陳的特征向量組成的矩陳PCA變換的系數(shù)矩陳,特征值[low_A,low_latent]=eigs(low_Cx);fori=1:Mforj=1:Nup_X=[up_R(i,j),up_G(i,j),up_G(i,j)]';%生成由R,G,B組成的三維列up_Y=up_A'*up_X;%每個象素點進(jìn)行PCA變換正變換up_Y=up_Y';up_R(i,j)=up_Y(1);%高分辨率圖片的第1主分量up_G(i,j)=up_Y(2);%高分辨率圖片的第2主分量up_B(i,j)=up_Y(3);%高分辨率圖片的第3主分量low_X=[low_R(i,j),low_G(i,j),low_G(i,j)]';low_Y=low_A'*low_X;low_Y=low_Y';low_R(i,j)=low_Y(1);%低分辨率圖片的第1主分量low_G(i,j)=low_Y(2);%低分辨率圖片的第2主分量low_B(i,j)=low_Y(3);%低分辨率圖片的第3主分量endendfori=1:Mforj=1:Nup_Y=[up_R(i,j),up_G(i,j),up_B(i,j)]';%生成由R,G,B組成的三維列向量up_X=up_A*up_Y;%每個象素點進(jìn)行PCA變換反變換up_X=up_X';up_r(i,j)=up_X(1);up_g(i,j)=up_X(2);up_b(i,j)=up_X(3);low_Y=[up_R(i,j),low_G(i,j),low_B(i,j)]';low_X=low_A*low_Y;low_X=low_X';low_r(i,j)=low_X(1);low_g(i,j)=low_X(2);low_b(i,j)=low_X(3);endend%RGB(:,:,1)=up_r;%RGB(:,:,2)=up_g;%RGB(:,:,3)=up_b;RGB(:,:,1)=low_r;RGB(:,:,2)=low_g;RGB(:,:,3)=low_b;figure(3)imshow(uint8(RGB));title('PCA-RGB表示的轉(zhuǎn)化圖像');%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%下面是計算相關(guān)系數(shù)%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%init_up_R=ones(M,N)*mean(up_R(:));init_up_G=ones(M,N)*mean(up_G(:));init_up_B=ones(M,N)*mean(up_B(:));init_low_R=ones(M,N)*mean(low_R(:));init_low_G=ones(M,N)*mean(low_G(:));init_low_B=ones(M,N)*mean(low_B(:));fori=1:Mforj=1:Nfenzi_R=fenzi_R+(up_R(i,j)-init_up_R(i,j))*(low_R(i,j)-init_low_R(i,j));fenmu_up_R=fenmu_up_R+(up_R(i,j)-init_up_R(i,j))^2;fenmu_low_R=fenmu_low_R+(low_R(i,j)-init_low_R(i,j))^2;fenzi_G=fenzi_G+(up_R(i,j)-init_up_G(i,j))*(low_R(i,j)-init_low_G(i,j));fenmu_up_G=fenmu_up_G+(up_R(i,j)-init_up_G(i,j))^2;fenmu_low_G=fenmu_low_G+(low_R(i,j)-init_low_G(i,j))^2;fenzi_B=fenzi_B+(up_R(i,j)-init_up_B(i,j))*(low_R(i,j)-init_low_B(i,j));fenmu_up_B=fenmu_up_B+(up_R(i,j)-init_up_B(i,j))^2;fenmu_low_B=fenmu_low_B+(low_R(i,j)-init_low_B(i,j))^2;endendrou_R=fenzi_R/(sqrt(fenmu_up_R*fenmu_low_R));rou_G=fenzi_G/(sqrt(fenmu_up_G*fenmu_low_G));rou_B=fenzi_B/(sqrt(fenmu_up_B*fenmu_low_B));fprintf('\n\nR的相關(guān)系數(shù)為:%.4f\nG的相關(guān)系數(shù)為:%.4f\nB的相關(guān)系數(shù)為:%.4f',rou_R,rou_G,rou_B);%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%下面是計算清晰度G%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%forii=1:M-1forjj=1:N-1g_R=g_R+sqrt((((low_r(ii+1,jj)-low_r(ii,jj))^2+(low_r(ii,jj+1)-low_r(ii,jj))^2))/2);g_G=g_G+sqrt((((low_g(ii+1,jj)-low_g(ii,jj))^2+(low_g(ii,jj+1)-low_g(ii,jj))^2))/2);g_B=g_B+sqrt((((low_b(ii+1,jj)-low_b(ii,jj))^2+(low_b(ii,jj+1)-low_b(ii,jj))^2))/2);endendfprintf('\n\nR的清晰度為:%.4f\nG的清晰度為:%.4f\nB的清晰度為:%.4f',...g_R/(M-1)/(N-1),g_G/(M-1)/(N-1),g_B/(M-1)/(N-1));附錄三Matlab實現(xiàn)的基于IHS變換的程序:clearg_R=0;%r清晰度描述g_G=0;%g清晰度描述g_B=0;%b清晰度描述h_R=0;%熵的描述h_G=0;h_B=0;u1=zeros(3,1);u2=zeros(3,1);v11=zeros(3,1);%高分辨率RGB值v12=zeros(3,1);%低分辨率RGB值A(chǔ)A=zeros(3,3);BB=zeros(3,3);%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%AA=[1/sqrt(3),1/sqrt(3),1/sqrt(3);1/sqrt(6),1/sqrt(6

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論