版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
目錄2051引言3202321圖像匹配技術(shù)的開展和研究意義7266771.1圖像匹配技術(shù)的開展和研究意義763541.2圖像匹配技術(shù)的研究現(xiàn)狀7322541.3研究問題及內(nèi)容9237122灰度匹配算法研究11319262.1基于圖像灰度的匹配方法11300043灰度匹配算法數(shù)據(jù)實(shí)驗(yàn)分析1370243.1灰度匹配數(shù)據(jù)實(shí)驗(yàn)分析13275903.2基于鄰域灰度編碼的圖像匹配算法的分析與實(shí)現(xiàn)1369303.3特征的匹配過程 15122773.4特征比擬結(jié)果處理18158453.5算法綜合分析20203533.6試驗(yàn)與結(jié)果分析20176224特征匹配算法2343604.1基于邊緣特征點(diǎn)的圖像匹配算法23265804.2特征點(diǎn)提取23126644.2.1穩(wěn)定特征點(diǎn)確實(shí)定24107214.2.2特征點(diǎn)方向確定24169854.2.3特征點(diǎn)描述符確實(shí)定25119774.3圖像匹配25222994.3.1NN算法25101594.3.2BBF搜索算法26250924.4實(shí)驗(yàn)結(jié)果27216994.5實(shí)驗(yàn)仿真29259805塊模板匹配法341222結(jié)論424315致謝435985參考文獻(xiàn) 453050附錄1源程序清單47摘要數(shù)字圖像匹配是指將從同一場景拍攝的具有重疊區(qū)域的圖像通過特征匹配方法,找出圖像之間的對(duì)應(yīng)關(guān)系。目前,圖像匹配技術(shù)廣泛應(yīng)用于醫(yī)學(xué)、生物、信息處理和其它領(lǐng)域,它已成為圖像處理應(yīng)用中不可或缺的技術(shù)。本文主要主要介紹了灰度相關(guān)的匹配方法和特征匹配,灰度相關(guān)的圖像匹配算法是圖像匹配算法中比擬經(jīng)典的一種,很多匹配技術(shù)都以它為根底進(jìn)行延伸和擴(kuò)展。它是從待拼接圖像的灰度值出發(fā),對(duì)待匹配圖像中一塊區(qū)域與參考圖像中的相同尺寸的區(qū)域使用最小二乘法或者其它數(shù)學(xué)方法計(jì)算其灰度值的差異,對(duì)此差異比擬后來判斷待拼接圖像重疊區(qū)域的相似程度?;谔卣鼽c(diǎn)的圖像匹配方法對(duì)圖像的顯著特征進(jìn)行提取,大大壓縮了圖像的信息量,使得計(jì)算量小,速度較快,而且它對(duì)圖像灰度變化具有很好的魯棒性?;诨叶认嚓P(guān)的匹配方法的優(yōu)點(diǎn)是原理簡單,直觀性好,計(jì)算量較??;缺點(diǎn)是只適用于具有水平或者垂直位移方向上的兩幅圖像的匹配,根據(jù)所選擇的模板的不同,基于灰度相關(guān)的匹配方法可以分為:線模板匹配法、比值模板匹配法和塊模板匹配法。本文分別對(duì)3種匹配方法的算法原理和具體實(shí)現(xiàn)進(jìn)行深入研究。關(guān)鍵詞:灰度相關(guān);線模板匹配法;比值模板匹配;塊模板匹配;特征匹配AbstractDigitalimageregistrationisthesamesceneshotfromtheoverlappingregionoftheimagebyafeaturematchingmethodtofindthecorrespondingrelationshipbetweentheimages.Currently,imageregistrationtechniquesarewidelyusedinmedicine,biology,informationprocessingandotherarea.Ithasbecomeanintegralpartofimageprocessingapplicationsoftechnology.Thispapermainlyintroducesthegraycorrelationmatchingandfeaturematching,graycorrelationimagematchingalgorithm.Itisaclassicalalgorithminimagematching.Manymatchingtechnologybasedonit’sextensionandexpansion.Matchingthesamesizeforaregionandinthereferenceimageregionsintheimageusedtheleastsquaremethodtocalculatethegrayvalue.Thisdifferencewasjudgedsimilaritytooverlappingregionsofimagestitching.Featurematchingmethodofcharacteristicimageswereextracted.Redu-cingtheamountofimageinformation,sothatitcangetasmallamountofcalculation,fast.Ithasverygoodrobustnessforthechangeofimageintensity.Theadvantagesofmatchingmethodbasedongraycorrelationprincipleitssimpleness.Disadvantageisonlyapplicabletothedirectionofahorizontalorverticaldisplacementoft-hematchingoftwoimages.Accordingtothedifferentchoiceoftemplates,matchingmet-hodbasedongraycorrelationcanbedividedinto:Linetemplatematching,templatema-tchingmethodandtheblockratiotemplatematchingmethod.Inthispaper,eachofthe3in-depthstudiesandtheprincipleofthealgorithmofmatchingmethodisimplemented.Keywords:Intensity-related;Linetemplatematchingmethod;Theratiooftemplatematching;Blockmatching,Featurematching引言在眾多視覺應(yīng)用中,圖像匹配是一個(gè)關(guān)鍵任務(wù),即給定同一場景的兩幅圖像,尋找同一場景點(diǎn)投影到圖像中的像素之間的對(duì)應(yīng)關(guān)系。本文給出立體和運(yùn)動(dòng)的匹配算法.在立體中,圖像被同時(shí)從不同視角獲得,匹配給出深度線索.在運(yùn)動(dòng)中,圖像在不同時(shí)間獲得,而匹配給出移動(dòng)線索。圖像匹配是計(jì)算機(jī)視覺和圖像處理領(lǐng)域中一項(xiàng)非常重要的工作。主要用于將不同時(shí)間、不同傳感器、不同視角及不同拍攝條件下獲取的兩幅或多幅圖像進(jìn)行匹配。圖像匹配是多種圖像處理及應(yīng)用的根底,匹配的效果直接影響到其后續(xù)圖像的處理工作。本文對(duì)圖像匹配方法進(jìn)行了細(xì)致的研究。在對(duì)各種邊緣提取和特征匹配算法分析根底上,歸納出一種改良的尺度自動(dòng)選擇的邊緣檢測(cè)算法。根據(jù)邊緣特征點(diǎn)具有空間位置相對(duì)不變的特點(diǎn),給出了一種基于邊緣特征點(diǎn)的圖像匹配算法。首先利用極坐標(biāo)化的方法提取邊緣特征點(diǎn),構(gòu)造方向鏈碼;然后利用鏈碼信息尋找匹配邊緣;最后確定旋轉(zhuǎn)角度和偏移量。實(shí)驗(yàn)證明了該方法在圖像間存在平移和旋轉(zhuǎn)時(shí)都有良好的匹配效果。針對(duì)邊緣特征點(diǎn)匹配算法的局限性,在保持該算法原有性能的根底上結(jié)合插值算法和B-Spline原理對(duì)其進(jìn)行改良。使改良的算法匹配精度到達(dá)亞像素級(jí)并且適用于具有尺度變化的圖像匹配中。從而擴(kuò)展了匹配算法的應(yīng)用范圍,使匹配效果更佳出色。最后對(duì)本文的工作進(jìn)行了總結(jié),并對(duì)本文在圖像配準(zhǔn)領(lǐng)域仍需要深入研究的地方進(jìn)行了展望?,F(xiàn)實(shí)生活中,存在著多種多樣的可被我們所感知的信號(hào),其中,人的信息來源是通過視覺系統(tǒng)所獲得的。人類通過眼睛與大腦來獲取、處理與理解視覺信息的。周圍環(huán)境中的物體在光線刺激作用下,在人眼的視網(wǎng)膜上形成圖像,由感光細(xì)胞轉(zhuǎn)換成神經(jīng)脈沖信號(hào),經(jīng)神經(jīng)纖維傳入大腦皮層進(jìn)行處理與理解。視覺,不僅指對(duì)光信號(hào)的感受,還包括了對(duì)視覺信息的獲取、傳輸、處理、存儲(chǔ)與理解的全過程。人和高等動(dòng)物都有著興旺的視覺系統(tǒng),使得客觀環(huán)境中存在的事物或目標(biāo)可以被識(shí)別,從而引發(fā)進(jìn)一步的處理。對(duì)于人類來說,這種功能是與身俱來的,十分輕松的事情。信號(hào)處理理論與計(jì)算機(jī)出現(xiàn)以后,人們?cè)噲D用攝象機(jī)獲取環(huán)境圖像并將其轉(zhuǎn)換成數(shù)字信號(hào),用計(jì)算機(jī)實(shí)現(xiàn)對(duì)覺信息處理的全過程。這樣,就形成了一門新興的學(xué)科—計(jì)算機(jī)視覺。一般的機(jī)器視覺系統(tǒng)都是在某一領(lǐng)域內(nèi)作用的,故待識(shí)別的目標(biāo)是特定領(lǐng)域內(nèi)的,而且類型有限,于是可以作一個(gè)樣本庫容納可能出現(xiàn)的目標(biāo)類型模板。在判斷輸入的圖像是什么時(shí),就可以將輸入的圖像與存儲(chǔ)的樣本庫進(jìn)行匹配比擬,進(jìn)行判斷識(shí)別。在另外一些場合下,需要對(duì)目標(biāo)進(jìn)行空間上的定位。多數(shù)應(yīng)用場合下,給出了一個(gè)樣本圖像,它包含著一個(gè)特定的目標(biāo)對(duì)象,如一個(gè)實(shí)際物體,一個(gè)符號(hào)或字符等等,需要從另一幅包含目標(biāo)的實(shí)際背景圖像中尋找這個(gè)目標(biāo)對(duì)象的位置,進(jìn)行定位,也就是判斷這幅背景圖像或它的一局部是不是我們所要尋找的目標(biāo),這時(shí)就需要用到圖像匹配技術(shù)。隨著科學(xué)技術(shù)的開展,圖像匹配技術(shù)已經(jīng)成為現(xiàn)代信息處理領(lǐng)域中的一項(xiàng)極為重要的技術(shù),在許多領(lǐng)域內(nèi)有著廣泛而實(shí)際的應(yīng)用。因此,做好對(duì)圖像匹配技術(shù)的深入研究,對(duì)推動(dòng)現(xiàn)代信息處理領(lǐng)域的開展是密切聯(lián)系的。圖像匹配是確定同一場景的兩幅來自不同時(shí)間、不同視點(diǎn)、不同成像幾何或由不同傳感器獲取的圖像在空間上相對(duì)位置的過程。圖像匹配在導(dǎo)航,目標(biāo)跟蹤、目標(biāo)識(shí)別、打擊評(píng)估等領(lǐng)域有廣泛的應(yīng)用。圖像匹配算法目前主要有兩大類:一類是基于灰度相關(guān)的匹配方法,它直接利用圖像的灰度進(jìn)行匹配,方法有最小距離法,交叉相關(guān)法,相關(guān)系數(shù)法等;另一類是基于特征的匹配方法,這種方法需要先對(duì)圖像提取特征,比方點(diǎn),、線、面特征等,然后對(duì)提取特征后的圖像進(jìn)行匹配?;叶认嚓P(guān)的方法由于沒有提取特征的過程,計(jì)算較為簡單,某種程度上比基于特征的方法復(fù)雜度要低,但傳統(tǒng)的基于灰度的方法,往往不能處理多傳感器的圖像。圖像匹配技術(shù)是計(jì)算機(jī)視覺和圖像信息處理領(lǐng)域中的一個(gè)根本問題,并在衛(wèi)星遙感、空間飛行器的自動(dòng)導(dǎo)航、光學(xué)和雷達(dá)的目標(biāo)跟蹤與識(shí)別、自然資源分析及醫(yī)學(xué)圖像處理等許多領(lǐng)域中得到了廣泛的應(yīng)用。圖像匹配是根據(jù)的圖像(模板圖)在另一幅圖像(搜索圖)中尋找相應(yīng)或相近模板的過程。圖像匹配算法主要分為2大類,一類是基于灰度相關(guān)的匹配,另一類是基于特征的匹配。前者主要用空間域的一維或二維滑動(dòng)模板進(jìn)行圖像匹配,不同算法的區(qū)別主要表達(dá)在模板及相關(guān)準(zhǔn)那么的選擇方面,這種方法一般匹配率高,但計(jì)算量大,速度較慢;后者那么通過在原始圖像中提取點(diǎn)、線、區(qū)域等顯著特征作為匹配基元,進(jìn)而用于特征匹配,一般匹配速度較快,但匹配精度不高。由于受噪聲、目標(biāo)運(yùn)動(dòng)以及成像設(shè)備的限制,使得所匹配的2幅圖像存在一定的灰度失真和幾何形變,所以研究具有良好的抗噪聲能力、抗幾何形變能力以及匹配正確率高、速度快的匹配算法成為目前的一個(gè)重要課題。本文對(duì)基于灰度相關(guān)的匹配算法進(jìn)行了研究,在傳統(tǒng)圖像匹配算法最小誤差法和最大相關(guān)系數(shù)法的根底上,提出了改良的匹配算法。實(shí)驗(yàn)結(jié)果說明,在保證一定匹配精度的條件下,算法在匹配速度方面有很大的改善。1圖像匹配技術(shù)的開展和研究意義1.1圖像匹配技術(shù)的開展和研究意義早期的圖像匹配技術(shù)主要用于幾何校正后的多波段遙感圖像的套準(zhǔn),借助于求互相關(guān)函數(shù)的極值來實(shí)現(xiàn)。圖像匹配技術(shù)在諸多領(lǐng)域內(nèi)有著廣泛的應(yīng)用,其中包括導(dǎo)彈的地形和地圖匹配,飛機(jī)導(dǎo)航,武器投射系統(tǒng)的末制導(dǎo),光學(xué)和雷達(dá)的圖像模板跟蹤,工業(yè)流水線的自動(dòng)監(jiān)控,工業(yè)儀表的自動(dòng)監(jiān)控,資源分析,氣象預(yù)報(bào),醫(yī)療診斷,文字識(shí)別以及景物分析中的變化檢測(cè)等等。在工業(yè)檢測(cè)領(lǐng)域中,圖像匹配技術(shù)被廣泛應(yīng)用于工件外表缺陷檢測(cè)、工業(yè)測(cè)量、產(chǎn)品質(zhì)量評(píng)估等部門,對(duì)工業(yè)自動(dòng)化、提高產(chǎn)品質(zhì)量、提高生產(chǎn)率及節(jié)約本錢有很高的價(jià)值。在遙感信號(hào)處理領(lǐng)域中,圖像匹配技術(shù)被廣泛應(yīng)用于目標(biāo)定位及不同電磁波段的圖像融合如微波、紅外、可見光或多光譜圖像,建筑、道路、交通工具和蔬菜類型的劃分、礦物尋找、特定區(qū)域搜索、農(nóng)作物估產(chǎn)、森林和水源保護(hù)、臺(tái)風(fēng)追蹤和預(yù)報(bào)、天氣預(yù)報(bào)等方面。在機(jī)器視覺領(lǐng)域,圖像匹配技術(shù)是目標(biāo)跟蹤、運(yùn)動(dòng)分析、對(duì)象識(shí)別、自動(dòng)視覺檢測(cè)等研究方向的研究根底??梢灶A(yù)見,隨著計(jì)算機(jī)技術(shù)的開展和數(shù)字圖像處理技術(shù)應(yīng)用的日益廣泛,圖像匹配技術(shù)必將在社會(huì)生活和工業(yè)生產(chǎn)中發(fā)揮越來越重要的作用。1.2圖像匹配技術(shù)的研究現(xiàn)狀國外從20世紀(jì)60年代就開始在圖像匹配領(lǐng)域進(jìn)行研究,但直到1980年代才開始引起學(xué)者們的關(guān)注。到上世紀(jì)末,單模圖像匹配問題已根本解決,但多模圖像匹配由于涉及模式和領(lǐng)域的復(fù)雜性,仍需密切關(guān)注。國際上對(duì)圖像匹配技術(shù)曾做過調(diào)查,其結(jié)論是1990年代初技術(shù)就明顯增加。而國內(nèi)從1990年代初才開始涉足此領(lǐng)域。與灰度相關(guān)的圖像匹配算法是圖像匹配算法中比擬經(jīng)典的一種,很多匹配技術(shù)都以它為根底進(jìn)行延伸和擴(kuò)展。朱近、司美玲具體闡述了用局部灰度極值方法進(jìn)行多光譜圖像匹配算法的研究過程。針對(duì)多光譜遙感圖像,提出了一種基于局部灰度極值的匹配方法:通過在基準(zhǔn)圖像和待匹配圖像中同步尋找含有灰度極值的小區(qū)域,再用多項(xiàng)式對(duì)極值區(qū)域進(jìn)行曲面擬合,最后,分別計(jì)算小區(qū)域的極值點(diǎn)作為特征點(diǎn)進(jìn)行匹配。并用真實(shí)和模擬多光譜圖像進(jìn)行了試驗(yàn)結(jié)果顯示該課題提出具有算法簡單和匹配精度高的特點(diǎn)。這是與灰度相關(guān)圖像匹配算法有關(guān)的一個(gè)擴(kuò)展應(yīng)用。林相波、邱天爽提出一種新的灰度和形狀信息相結(jié)合的全自動(dòng)同模態(tài)醫(yī)學(xué)圖像非剛性匹配——分割算法,將歐氏距離表示的形狀信息融入基于灰度的匹配算法中,構(gòu)造出新的代價(jià)函數(shù)。該算法在醫(yī)學(xué)圖像多目標(biāo)分割的應(yīng)用中,能夠較好地完成灰度相近、邊緣模糊、間距較小的不同結(jié)構(gòu)的分割,結(jié)果說明,該算法優(yōu)于基于灰度信息的圖像匹配算法。張密,吳效明闡述圖像匹配在放療中應(yīng)用的關(guān)鍵問題,對(duì)基于灰度的3種匹配方法的性能做深入研究,包括均方測(cè)度、歸一化相關(guān)測(cè)度以及互信息測(cè)度。方法:分析各匹配要素的算法原理后,基于加以實(shí)現(xiàn),提出使用綜合匹配誤差來評(píng)價(jià)不同匹配算法的性能,并與傳統(tǒng)目標(biāo)匹配誤差的評(píng)價(jià)結(jié)果作比照。結(jié)果:3種測(cè)度都能對(duì)近模態(tài)的圖像實(shí)施準(zhǔn)確的匹配,其中互信息測(cè)度驅(qū)動(dòng)的匹配在匹配精度和速度上表現(xiàn)更為穩(wěn)定,綜合匹配誤差僅為另外兩個(gè)測(cè)度的一半左右。它的結(jié)論得出利用綜合匹配誤差得到的評(píng)價(jià)結(jié)果更為客觀,互信息測(cè)度是放療中實(shí)施匹配的較理想測(cè)度。在醫(yī)學(xué)、生物、信息處理和其他很多高科技領(lǐng)域內(nèi)圖像匹配技術(shù)越來越顯示出它的重要性,將會(huì)越來越受到人們的關(guān)注。在現(xiàn)今的科技水平上,圖像匹配未來的開展趨勢(shì)也會(huì)更好。1.3研究問題及內(nèi)容本文在分析了灰度相關(guān)的圖像匹配算法中的線匹配法、比值匹配法法,利用這兩種方法分別實(shí)現(xiàn)兩幅圖像在水平垂直位移上的匹配,而本課題研究的內(nèi)容是提出一種基于灰度相關(guān)的算法,不僅能實(shí)現(xiàn)兩幅圖在水平和垂直位移的匹配,同時(shí)也能實(shí)現(xiàn)在繞光軸旋轉(zhuǎn)情況下的圖像匹配。這里提出了一種方法,塊模塊匹配法。在這兩種種匹配的環(huán)境下,通過在Matlab編程環(huán)境下編程實(shí)現(xiàn)相關(guān)算法,通過實(shí)際圖像的匹配試驗(yàn),利用這些結(jié)論最終得到精確地匹配結(jié)果。圖像匹配是一個(gè)多步驟的過程??偟膩碚f,大概可分為圖像輸入、圖像預(yù)處理、匹配特征提取、圖像匹配、輸出結(jié)果等幾個(gè)步驟。由于所采用的方法各異,不同的匹配算法之間步驟也會(huì)有很大的不同,但它們的大致過程是相同的。特征提取模板匹配輸出結(jié)果開始輸入?yún)⒖紙D和摸板圖預(yù)處理結(jié)束特征提取模板匹配輸出結(jié)果開始輸入?yún)⒖紙D和摸板圖預(yù)處理結(jié)束圖1匹配程序框圖2灰度匹配算法研究下面主要是研究基于灰度的匹配算法,在分析研究現(xiàn)有的匹配算法根底之上,針對(duì)不同算法的應(yīng)用背景不同,在基于灰度的匹配中研究了兩種算法,一種是基于灰度編碼的匹配,另一種是改良的相關(guān)匹配算法。在基于幾何特征的匹配中,重點(diǎn)研究了不變矩特征、以及其他幾種幾何特征,最后重點(diǎn)選取了里面的幾種特征進(jìn)行提取,利用歐式距離算法進(jìn)行匹配,到達(dá)了很好的效果。2.1基于圖像灰度的匹配方法圖像的像素灰度值信息包含了圖像記錄的所有信息,基于圖像像素灰度值的匹配是最根本的匹配算法思想。通常直接利用整幅圖像的灰度信息建立兩幅圖像之間的相似性度量,然后采用某種搜索方法尋找使相似性度量值最大或最小的變換模型的參數(shù)值?;趫D像灰度的匹配方法不需要對(duì)圖像做特征提取而是直接利用全部可用的圖像灰度信息,因此,能提高估計(jì)的精度和魯棒性。但由于在基于圖像灰度的算法,如互相關(guān)算法中把匹配點(diǎn)周圍區(qū)域的點(diǎn)的灰度都考慮進(jìn)來進(jìn)行計(jì)算,因此,其計(jì)算量很大速度較慢。這種算法的思想很簡單,就是用模板圖像和待匹配圖像上的搜索窗口之間的像素灰度差異來表示二者的相關(guān)性,假定待匹配的圖像為F(x,y),而模板圖像為G(x,y),并且待匹配圖像大小為M×N,而模板圖像大小為P×Q,那么在待匹配圖像中共有(M-P+1)×(N-Q+1)個(gè)可能的匹配點(diǎn)存在,每一個(gè)可能的匹配點(diǎn)對(duì)應(yīng)一個(gè)P×Q的搜索窗口。所以匹配也可以看作是大小等于模板圖像的搜索窗口在待匹配圖像上按照某一順序滑動(dòng),每滑動(dòng)一次就進(jìn)行一次模板圖像和搜索窗口之間的相關(guān)計(jì)算。以此來判斷當(dāng)前的搜索窗口是否匹配。如果差異小于預(yù)定的閾值,就可以認(rèn)為匹配成功,否那么,就認(rèn)為匹配失敗。計(jì)算ABS有三種算法,它們是:(2-1)(2-2)(2-3)這種算法思路簡單,實(shí)現(xiàn)方便,但是,一旦灰度圖像或模板圖像的灰度值發(fā)生線性變化時(shí),這種算法也就不行了。不同的圖像和模板,有著不同的大小和搜索窗口,很難算定一個(gè)適宜的閾值,因而誤匹配率比擬高,只適用于待匹配的圖像是源圖像的一局部,應(yīng)用面窄。3灰度匹配算法數(shù)據(jù)實(shí)驗(yàn)分析3.1灰度匹配數(shù)據(jù)實(shí)驗(yàn)分析先將圖像分割為一定大小的方塊(稱為R-塊),計(jì)算每個(gè)R-塊圖像的總灰度值。并根據(jù)它與相鄰R-塊灰度值的排序關(guān)系進(jìn)行編碼。然后通過各個(gè)R-塊編碼值的比擬,實(shí)現(xiàn)圖像與模板的匹配。由于把圖像空間影射到碼空間上,算法速度有了很大的提高。實(shí)驗(yàn)說明新算法比現(xiàn)有的灰度相關(guān)算法的計(jì)算時(shí)間快了兩個(gè)數(shù)量級(jí)。3.2基于鄰域灰度編碼的圖像匹配算法的分析與實(shí)現(xiàn)局部灰度特征的編碼與計(jì)算首先將整幅圖像劃分為k×k尺寸且互不重疊的方塊,k可根據(jù)問題任意選擇,稱該方塊為R-塊。如果圖像的邊長不是k的整數(shù)倍,那么將最底部與最右邊剩余的幾行、幾列裁剪掉。對(duì)于R-塊R,S(Ri)表示Ri所包含像素的灰度值之和。定義R塊(如圖2中的R5所示)與其周圍8個(gè)相鄰的R塊(如圖2中的R1,R2,R3,R4,R6,R7,R8,R9所示)組成R-塊的鄰域。將R-塊的鄰域分為4個(gè)局部,分別為D1,D2,D3,D4(如圖3所示),稱為R-塊的D-鄰域。R-塊R5分別屬于4個(gè)D鄰域,即D1=R1∪R2∪R4∪R5;D2=R4∪R5∪R7∪R8;D3=R5∪R6∪R8∪R9;D4=R2∪R3∪R5∪R6。圖2R-塊的特征定義圖3R-塊的D-鄰域?qū)τ诿總€(gè)D-鄰域中的4個(gè)R-塊,可規(guī)定一個(gè)順序(如圖2中所取的逆時(shí)針序).對(duì)Dj所包含的4個(gè)R-塊的像素灰度值之和S(Rj1),S(Rj2),S(Rj3),S(Rj4)做排序,顯然共有4!=24種可能,每種排序13結(jié)果可以用5位的二進(jìn)制編碼來表示,記作p(Dj)∈{00000,00001,L10111}。對(duì)于這24中排序,其實(shí)是對(duì)應(yīng)著24種位置關(guān)系,如果取D塊內(nèi)4個(gè)R塊的逆序,每一種灰度排序?qū)?yīng)一種位置關(guān)系,給每一種位置關(guān)系規(guī)定一種編碼,然后固定下來,就可以了,當(dāng)然也可以選用順序,這些不是問題。將R-塊Ri所在的4個(gè)D-塊的P(Dj)做位串并接,得到:F(Ri)=P(D1)P(D2)P(D3)P(D4),對(duì)4個(gè)P(Dj)具體的操作就是:F(Ri)=(P(D1)<<15)+(P(D2)<<10)+(P(D3)<<5)+P(D4).其中P(Dj)為Ri所在的鄰域Dj的二進(jìn)制編碼,<<為左移位操作,其后面的數(shù)字表示移位的位數(shù)。定義2F(Ri)為Ri塊的20位二進(jìn)制編碼特征表示,簡稱Ri塊的編碼。由上面簡單的推論,可以得出Ri塊的編碼種類應(yīng)為244種,但F(Ri)表示R-塊Ri的灰度與相鄰8個(gè)R-塊灰度的分布(序)關(guān)系,因此,當(dāng)D1塊中的4個(gè)R塊的位置關(guān)系確定后,既4個(gè)R塊的灰度值所包含像素的灰度值之和〕的大小關(guān)系確定后,D2塊與D4塊中的即4個(gè)R塊的灰度值的大小關(guān)系就不是存在24種可能了,而是存在12種情況,因?yàn)镽4和R5以及R2和R5的大小關(guān)系已經(jīng)確定,類似的,D3的編碼種類就只有6種可能了,但即使這樣,各個(gè)R-塊的編碼還是存在至少24*12*12*6=20736種,足以使得整幅圖像中的R-塊編碼重碼率很低,而此算法的準(zhǔn)確性也是基于這一點(diǎn)的。另外,這種編碼方法表達(dá)了圖像灰度的相對(duì)值,因此對(duì)整體灰度值的變化具有相對(duì)的穩(wěn)定性。通過對(duì)R-塊尺寸k的選擇,可以改變圖像處理粒度的大小,以改變抵抗不同頻率噪聲的能力。3.3特征的匹配過程在待搜索圖S以模板T的長、寬為橫向、縱向步長,從S的左上角開始按模板T的大小劃分S到的子圖稱為限制塊,記作C(i,j)。其中(i,j)為限制塊左上角頂點(diǎn)在搜索圖S上的坐標(biāo)。這樣劃分后,如果在搜索圖S的右側(cè)或底部有剩余局部,那么相應(yīng)地從S的最右側(cè)開始向左,或從最底部開始向上劃分出一列或一行限制塊,使得全部限制塊可以完全覆蓋搜索圖S。限制塊C(i,j)與模板T都是尺寸為N×N的圖像,各自的R-塊特征集合可用方陣A(c(i,j))與A(T)表示,稱為特征編碼矩陣,這里k為R-塊的邊長。在C(i,j)與T作特征比擬時(shí),即比擬A(c(i,j))與A(T)中每一個(gè)元素是否相等,那么記下矩陣A(c(i,j))的行號(hào)、列號(hào)。但是,這樣的比擬存在與圖像檢索中分形編碼中遇到的相同問題,即R塊的對(duì)齊問題,如圖4所示,圖4〔b〕表示的搜索圖S中陰影局部與圖4(a)表示的模板圖T相匹配。但是,在對(duì)模板T與圖S作R塊分割之后,二者間不存在內(nèi)容相同的R塊了。這時(shí)候,提取R塊的特征作比擬將不能很好的反映兩幅圖像的局部相似性,匹匹配確率將受到影響。因此,需要對(duì)模板T作適當(dāng)?shù)牟眉?,如圖3所示,在圖4〔a〕中去掉陰影局部,余下的子區(qū)域可構(gòu)成如圖4〔c〕所示的4個(gè),這時(shí)就與圖3〔b〕中右下角4個(gè)R塊對(duì)齊了。模板T〔b〕搜索圖S〔c〕裁減后的模板圖4模板對(duì)齊問題在特征匹配中,為了實(shí)現(xiàn)模板T與圖S的R-塊對(duì)齊,要對(duì)模板T進(jìn)行適當(dāng)?shù)牟眉簦患舻舻哪0鍒DT的行數(shù)u、列數(shù)v介于0~k-1之間。如果裁減后的模板圖記作T(u,v),那么T(u,v)共有k2個(gè)。這樣雖然多做了k2-1次模板與圖S的特征比擬,但裁剪與對(duì)齊操作,一方面提高了特征匹配的準(zhǔn)確度,使搜索結(jié)果的峰值更為鋒利;另一方面,由模板圖T前裁剪掉的行、列數(shù)u,v,結(jié)合限制塊內(nèi)匹配子區(qū)域的位置信息,可以計(jì)算出模板T與搜索圖S匹配的準(zhǔn)確參考點(diǎn)。3.4特征比擬結(jié)果處理模板T(b)搜索圖S中的一個(gè)限制塊圖5特征比擬結(jié)果的處理在特征比擬的過程中,對(duì)于搜索到的與模板T(u,v)有最多相同特征的限制塊C(i,j),按矩陣A(c(i,j))的行、列分別累加特征比擬結(jié)果,得到兩個(gè)各有(N/K)個(gè)元素的一維數(shù)組linecolL,限制塊C(i,j)中與模板T(u,v)匹配的子區(qū)域記為D。由于D所對(duì)應(yīng)的矩陣A(c(i,j))的行、列的累加匹配特征數(shù)顯著大于其他行、列,這將在一維數(shù)組中l(wèi)inecolL,各形成一個(gè)矩形脈沖。圖5(a)為一個(gè)64×64的模板,圖4(b)為與模板T有最多相同特征的限制塊C(i,j),限制塊C(i,j)內(nèi)左上尺寸為56×56像素區(qū)域,與模板T(u,v)右下尺寸為56×56像素區(qū)域匹配,相應(yīng)限制塊C(i,j),按R塊逐行累加的每匹配特征的數(shù)量,形成的行結(jié)果數(shù)組lineL,對(duì)此一維數(shù)組lineL作邊緣檢測(cè)濾波,得到矩形脈沖的邊沿為1與13。同理,再對(duì)列數(shù)組colL作同樣的邊緣檢測(cè)濾波,就可以確定當(dāng)前限制塊C(i,j)與模板T(u,v)匹配的子區(qū)域D。把T(u,v)與搜索圖S的實(shí)際匹配子圖記為ph,j。由于C(i,j)的尺寸大于或等于裁減后的模板T(u,v),如果D包含C(i,j)內(nèi)最左側(cè)的R塊,那么可知D位于ph,j的右側(cè),由此可求出ph,j的左、右邊界:(3-1)(2-1)其中的left,right,width分別表示矩形的左、右邊界S中坐標(biāo)與寬度。圖6特征比擬結(jié)果按Range行累加的lineL數(shù)組實(shí)例給定的搜索圖S與模板T,基于鄰域灰度編碼的圖像匹配算法步驟如下:1)對(duì)模板T的k2種裁剪情況,分別計(jì)算T(u,v)特征,對(duì)每個(gè)特征編碼矩陣A(T(u,v))的元素集排序。2)對(duì)搜索圖S計(jì)算出所有的R-塊的特征。3)把搜索圖S劃分為與模板T具有相同尺寸的限制塊C(i,j),這些限制塊僅在搜索圖S的最右側(cè)或最低部可能互有重疊,并完全覆蓋S。4)對(duì)每一個(gè)限制塊C(i,j),對(duì)其所包含的R塊的特征編碼矩陣A(C(i,j))進(jìn)行排序,然后與模板T的k2種裁剪情況下的各個(gè)有序特征集分別做有序比擬,找到具有最多相同特征的限制塊C(i,j)與裁剪過的模板T(u,v)。5)對(duì)C(i,j)重新與模板T(u,v)做特征值的有序比擬,累計(jì)矩陣A(C(i,j))各行、列的特征比擬結(jié)果,形成兩個(gè)一維數(shù)組linecolL。6)對(duì)linecolL數(shù)組,做邊緣檢測(cè)濾波,求得限制塊C(i,j)內(nèi)匹配子區(qū)域D的邊界。7)由D與限制塊C(i,j)的相對(duì)位置關(guān)系與裁剪情況(u,v),求出模板T在搜索圖S中匹配的參考點(diǎn)。3.5算法綜合分析此算法的突出奉獻(xiàn)是提出了R-塊編碼的概念,編碼方法表達(dá)了圖像灰度的相對(duì)值,因此對(duì)整體灰度值的變化具有相對(duì)的穩(wěn)定性。通過對(duì)R-塊尺寸K的選擇,可以改變圖像處理粒度的大小,以改變抵抗不同頻率噪聲的能力。在檢索或匹配過程中,為了加快裁剪后的模板圖T(u,v)與限制塊C(i,j)特征的相等比擬,在比擬前對(duì)這兩個(gè)特征集做快速排序(quicksort),使特征集一次比擬的時(shí)間復(fù)雜度由O(N4)降低到O(M2log(N))。而在直接基于灰度值的算法中,比擬模板與搜索窗口時(shí)需要做加、減、乘運(yùn)算而非相等比擬,所以不能利用排序來減少計(jì)算量。而此算法只要進(jìn)行特征值的相等比擬,而且可以采用快速的比擬算法,使整個(gè)算法的計(jì)算復(fù)雜度極大地降低。新算法對(duì)像素灰度的線性變化與噪聲是魯棒的,并可以證明新算法的時(shí)間復(fù)雜度是O(M2log(N))。可見在算法時(shí)間復(fù)雜度方面此算法是比擬優(yōu)秀的。3.6試驗(yàn)與結(jié)果分析根據(jù)以上理論,本論文主要用C語言實(shí)現(xiàn)此算法,在實(shí)驗(yàn)的過程中,發(fā)現(xiàn)在對(duì)圖像按k×k分塊時(shí),k的取值,對(duì)匹配結(jié)果是有影響的。實(shí)驗(yàn)發(fā)現(xiàn)在k取8的時(shí)候,匹配的效果比擬好。圖7為k=8時(shí)的實(shí)驗(yàn)效果圖,其實(shí)驗(yàn)數(shù)據(jù)分析如表3.1所示。圖7模板(56*124)和原圖像(640*480)表1不同方法定位測(cè)試的平均時(shí)間(ms)算法研究時(shí)間復(fù)雜度AD算法10680000NCC算法1798781尺度縮放比例為0.25改良NCC算法7250灰度編碼算法141從時(shí)間復(fù)雜度上來看,基于灰度編碼的匹配算法,在速度上有了很大的提高,但是在實(shí)際實(shí)驗(yàn)的過程中,算法在光照發(fā)生變化比擬大的情況下,匹配結(jié)果并不很理想。以下列圖8,圖9分別是在均勻光照和不均勻光照情況下列圖像匹配效果圖。圖8在均勻光照下的匹配效果圖圖9在不均勻光照下的匹配效果圖通過大量的實(shí)驗(yàn),可以看出,此算法在抗干擾能力上不是太好,這個(gè)問題的解決,需要從預(yù)處理上來改良,找到一種好預(yù)處理算法,解決光照對(duì)灰度的影響是關(guān)鍵。4特征匹配算法4.1基于邊緣特征點(diǎn)的圖像匹配算法通過前面的介紹了解到,基于灰度的圖像匹配方法需要使用整幅圖像的灰度信息建立兩幅圖像之間的相似性度量,導(dǎo)致了計(jì)算量很大且速度很慢?;谔卣鼽c(diǎn)的圖像匹配方法對(duì)圖像的顯著特征進(jìn)行提取,大大壓縮了圖像的信息量,使得計(jì)算量小,速度較快,而且它對(duì)圖像灰度變化具有很好的魯棒性。鑒于基于特征點(diǎn)的圖像匹配方法的優(yōu)秀性能,本章給出了一種基于邊緣特征點(diǎn)的圖像匹配算法并通過實(shí)驗(yàn)證明其有效性。4.2特征點(diǎn)提取變比不變特征點(diǎn)(scaleinvariancefeaturetransform,SIFT)是由DavidLowe提出的。SIFT方法對(duì)各種幾何變換、光線、噪聲具有魯棒性,特征點(diǎn)描述符有很高的獨(dú)特性,并被證明為最具有魯棒性的特征點(diǎn)方法。求取縮放空間中的極值點(diǎn)作為侯選特征點(diǎn)首先對(duì)圖像進(jìn)行必要的預(yù)處理,接著對(duì)圖像采用不同的采樣距離形成一個(gè)金字塔分層結(jié)構(gòu),即第一次采樣時(shí)對(duì)圖像放大一倍作為第一組圖像,然后以成倍的采樣距離即1、2、4個(gè)像素分別對(duì)圖像采樣產(chǎn)生二、三、四組的圖像。對(duì)各層采用不同的高斯濾波因子進(jìn)行濾波形成高斯金字塔分層結(jié)構(gòu)。將每組中相鄰圖像相減生成高斯差圖像(differentofgaussian,DOG),在高斯差金字塔分層結(jié)構(gòu)提取極值點(diǎn)作為侯選特征點(diǎn)。求取極值時(shí),樣本點(diǎn)要與相鄰8個(gè)像素點(diǎn)比擬,還要與上下相鄰圖層中的各9個(gè)像素點(diǎn)進(jìn)行比擬,共需要與26個(gè)像素進(jìn)行比擬。穩(wěn)定特征點(diǎn)確實(shí)定需要剔除候選特征點(diǎn)中不穩(wěn)定的特征點(diǎn),不穩(wěn)定的特征點(diǎn)分布于圖像邊緣或是一些低比照度的特征點(diǎn)。剔除低比照度的特征點(diǎn)時(shí),對(duì)縮放空間函數(shù)D(x)泰勒展開(最高到2次項(xiàng))。對(duì)其求導(dǎo)得到極值點(diǎn):(4-1)對(duì)應(yīng)的極值點(diǎn)為:(4-2)將的低比照度侯選極值點(diǎn)過濾掉。像素點(diǎn)的取值范圍為[0,1]。邊緣特征點(diǎn)剔除過程中,要用到〔4-2〕的Hessian矩陣H為:(4-3)假設(shè)是矩陣H較大的特征值,是矩陣H較小的特征值,令=,那么有:(4-4)式中:Tr(H)表示矩陣H的跡,Det(H)表示矩陣H行列式的值。對(duì)取一閥值,大于閥值時(shí)作為邊緣特征點(diǎn)刪除。特征點(diǎn)方向確定特征點(diǎn)方向確實(shí)定要考慮周圍一個(gè)窗口內(nèi)所有點(diǎn),把最多點(diǎn)的投票方向作為主方向。對(duì)圖像L(x,y),梯度值m(x,y)和方向(x,y)可通過像素點(diǎn)差值得到:(4-5)(4-6)在特征點(diǎn)周圍一個(gè)區(qū)域內(nèi),依據(jù)樣本點(diǎn)梯度方向生成一個(gè)方向直方圖,方向直方圖用36位來代表360的方向。直方圖的最頂峰值點(diǎn)的方向作為特征點(diǎn)的主方向。對(duì)于直方圖中高于最頂峰80%的峰值可能有多個(gè),這時(shí)就復(fù)制該特征點(diǎn)讓它具有多個(gè)方向。特征點(diǎn)描述符確實(shí)定根據(jù)特征點(diǎn)周圍像素點(diǎn)得到描述符,在特征點(diǎn)周圍確定一個(gè)4*4的窗口,每個(gè)窗口內(nèi)具有8個(gè)方向,即描述符是一個(gè)4*4*8=128維的向量。經(jīng)過以上4個(gè)步驟之后,一幅圖像就可以用SIFT方法提取出穩(wěn)定的特征點(diǎn),這就為下面的圖像匹配打下了很好的根底。4.3圖像匹配4.3.1NN算法我們稱待匹配的圖像為基準(zhǔn)圖像,與基準(zhǔn)圖像匹配的圖像為后續(xù)圖像。如采取為樣本特征點(diǎn)與最近鄰特征點(diǎn)的距離設(shè)置一個(gè)閥值,小于該閥值即判斷特征點(diǎn)和樣本特征點(diǎn)匹配,從而實(shí)現(xiàn)特征點(diǎn)間的匹配并可以過濾掉某些不正確匹配的特征點(diǎn),但執(zhí)行效果并不太理想,因?yàn)槟承┐ヅ涮卣鼽c(diǎn)具有很大的差異性,也有可能被過濾掉。我們采用最近鄰算法(nearestneighbor,NN)進(jìn)行匹配,即采用樣本特征點(diǎn)的最近鄰特征點(diǎn)距離與次近鄰特征點(diǎn)距離的比值來對(duì)特征點(diǎn)進(jìn)行匹配。最近鄰特征點(diǎn)是指與樣本特征點(diǎn)具有最短歐幾里德距離的特征點(diǎn)。次近鄰特征點(diǎn)是指具有比最近鄰距離稍長的歐幾里德距離的特征點(diǎn)。用最近鄰與次近鄰比值來進(jìn)行特征點(diǎn)的匹配可以取得很好的效果,從而到達(dá)穩(wěn)定的匹配。4.3.2BBF搜索算法如何找到特征點(diǎn)的最近鄰和次近鄰是NN算法的關(guān)鍵。窮舉法能夠找到最精確的最近鄰距離,但是數(shù)目特別大時(shí),計(jì)算量會(huì)以指數(shù)級(jí)別增長,實(shí)用性就大打折扣。我們采用一種在K-D樹搜索算法根底上改良的搜索算法BBF(bes-tbin-first)來搜索樣本特征點(diǎn)的最近鄰和次近鄰特征點(diǎn)。K-D樹搜索算法是二叉檢索樹的擴(kuò)展,K-D樹的每一層將空間分成兩個(gè)。樹的頂層結(jié)點(diǎn)按一維進(jìn)行劃分,下一層結(jié)點(diǎn)按另一維進(jìn)行劃分,以此類推,各個(gè)維循環(huán)往復(fù)。劃分要使得存儲(chǔ)在子樹中大約一半的結(jié)點(diǎn)落入一側(cè),而另一半落入另一側(cè)。當(dāng)一個(gè)結(jié)點(diǎn)中的點(diǎn)數(shù)少于給定的最大點(diǎn)數(shù)時(shí),劃分結(jié)束。K-D樹搜索算法大局部時(shí)間花費(fèi)在檢查結(jié)點(diǎn)上,并且對(duì)高維空間搜索效率降低如果通過限制K-D樹中葉子結(jié)點(diǎn)數(shù),對(duì)葉結(jié)點(diǎn)設(shè)一個(gè)最大數(shù)目可以縮短搜索時(shí)間。但是這種改良方法只是根據(jù)K-D樹的結(jié)構(gòu)來決定葉結(jié)點(diǎn)的檢查順序,只考慮已存儲(chǔ)的結(jié)點(diǎn)位置,并沒有考慮被查詢結(jié)點(diǎn)的位置。BBF搜索算法是在K-D樹根底上用一個(gè)優(yōu)先級(jí)隊(duì)列實(shí)現(xiàn)以結(jié)點(diǎn)和被查詢結(jié)點(diǎn)距離遞增的順序來搜索結(jié)點(diǎn),結(jié)點(diǎn)和被查詢結(jié)點(diǎn)的距離是指它們之間的最短距離。當(dāng)沿一個(gè)方向的分支搜索一結(jié)點(diǎn)時(shí),優(yōu)先級(jí)隊(duì)列會(huì)被參加一個(gè)成員,該成員記錄了該結(jié)點(diǎn)相關(guān)的信息,包括當(dāng)前結(jié)點(diǎn)在樹中的位置和該結(jié)點(diǎn)與被查詢結(jié)點(diǎn)之間的距離。當(dāng)一個(gè)頁結(jié)點(diǎn)被搜索到后,從隊(duì)列的隊(duì)首刪除一項(xiàng),然后再搜索包含最近鄰結(jié)點(diǎn)的的其他分支。圖11BBF與受限的K-D樹比擬圖11是從100000個(gè)特征點(diǎn)庫中得到的,其中BBF搜索算法的最大葉子結(jié)點(diǎn)為200,受限的K-D樹的最大葉子結(jié)點(diǎn)為480,平均搜索次數(shù)為1000次。從上圖可以看出隨著維數(shù)的增加,受限的K-D樹搜索性能下降。DDS輸出信號(hào)噪聲和雜散是由相位量化噪聲引起的,從理論上講,由此引起的噪聲和雜散是完全有規(guī)律可循的,而相位量化噪聲主要是由相位截?cái)嗾`差引起的,因此設(shè)法破壞誤差的周期性及其與信號(hào)的相關(guān)性,就成為減少DDS雜散的主要方法。抖動(dòng)注入的方法可有效改善DDS輸出信號(hào)的雜散,抖動(dòng)注入的應(yīng)用有多種方式,可以對(duì)輸入的頻率控制字加抖;可以對(duì)ROM的尋址地址加抖,即相位抖動(dòng)注入;還可以對(duì)D/A前的數(shù)據(jù)進(jìn)行幅度加抖,即幅度抖動(dòng)4.4實(shí)驗(yàn)結(jié)果圖像(a)和(b)有40%的重疊,利用NN方法來對(duì)兩幅圖像進(jìn)行特征點(diǎn)匹配,匹配前對(duì)兩幅圖像用SIFT算法提取出各自的特征點(diǎn)集。其中最近鄰距離與次近鄰距離比值設(shè)置為0.6,在(a)圖中用SIFT方法找到693個(gè)特征點(diǎn),在(b)圖中找到774個(gè)特征點(diǎn),匹配的特征點(diǎn)結(jié)果為192對(duì),如圖(c)所示,匹配的特征點(diǎn)對(duì)之間用直線相連接(a)(b)(c)圖12圖像匹配進(jìn)一步對(duì)最近鄰與次近鄰比值參數(shù)進(jìn)行修改,可得到如下結(jié)果:表3各種比值的匹配結(jié)果比擬比值00.10.20.30.40.50.60.70.80.91匹配04793127152172192206237304693比值大于0.7時(shí),從結(jié)果圖像中看出明顯的錯(cuò)誤匹配。實(shí)驗(yàn)驗(yàn)證最近鄰與次近鄰比值選在0.4~0.65之間比擬適宜。4.5實(shí)驗(yàn)仿真實(shí)驗(yàn)一:同源圖像匹配第一組:可見光圖像下面圖(a)是參考圖像,大小為256×256,第二幅圖(b)是待匹配圖像,大小為130×118,(c)和(d)為使用本文算法找到的參考圖像和待匹配圖像邊緣特征點(diǎn)。最后的匹配邊緣為圖(c)和(d)方框中的大邊緣。(g)為匹配后的房屋圖像。實(shí)驗(yàn)得到的匹配數(shù)據(jù)如表2所示。(a)參考圖像〔b〕待匹配圖像〔c〕參考圖像邊緣特征點(diǎn)提取〔d〕待匹配圖像邊緣特征點(diǎn)提取(e)參考圖像匹配邊緣(f)待匹配圖像匹配邊緣(g)本文算法匹配結(jié)果(h)頻域相關(guān)算法匹配結(jié)果圖10房屋圖像的匹配試驗(yàn)表2第一組圖匹配數(shù)據(jù)比照算法原始偏移量單位:像素原始角度單位:度匹配角度單位:度偏移量單位:像素頻域相關(guān)算法〔50,50〕54.22〔51,49〕本文算法〔50,50〕55.10〔49.25,50.5〕表2中數(shù)據(jù)值是像素偏移量和旋轉(zhuǎn)角度,由實(shí)驗(yàn)數(shù)據(jù)可見,與頻域相關(guān)算法相比擬,本文算法具有較高的精度。5塊模板匹配法第一步,輸入源圖像讀出兩個(gè)圖像onion和peppers。以這兩個(gè)圖像為匹配的的模板。%%Step1:Readimageonion=imread('onion.png');peppers=imread('peppers.png');imshow(onion)figure,imshow(peppers)圖13從matlab中提取目標(biāo)文件onion圖14從matlab中提取目標(biāo)文件peppers第二步,選取onion和peppers中的各一個(gè)區(qū)域,定義新的的名稱。〔選取的圖像區(qū)域要事先選定好,不能太過偏離圖像特征區(qū)域,以免實(shí)驗(yàn)的匹配效果不佳〕顯示選中的區(qū)域圖像。%%Step2:Choosesubregionsofeachimage%Itisimportanttochooseregionsthataresimilar.Theimage|sub_onion|%willbethetemplate,andmustbesmallerthantheimage|sub_peppers|.%Youcangetthesesubregionsusingeitherthenon-interactivescript%below*or*theinteractivescript.%non-interactivelyrect_onion=[111336558];rect_peppers=[16347143151];sub_onion=imcrop(onion,rect_onion);sub_peppers=imcrop(peppers,rect_peppers);%OR%interactively%[sub_onion,rect_onion]=imcrop(onion);%choosethepepperbelowtheonion%[sub_peppers,rect_peppers]=imcrop(peppers);%choosethewholeonion%displaysubimagesfigure,imshow(sub_onion)figure,imshow(sub_peppers)圖15用matlab剪貼onion一局部圖16用matlab剪貼一局部peppers第三步,在兩幅圖像中進(jìn)行歸一化歸一化互相關(guān)計(jì)算。這個(gè)計(jì)算主要是通過計(jì)算模板圖像和匹配圖像的互相關(guān)值,來確定匹配的程度?;ハ嚓P(guān)最大時(shí)的搜索窗口位置決定了模板圖像在待匹配圖像中的位置。此算法的缺點(diǎn)是參與運(yùn)算的特征點(diǎn)比擬多,運(yùn)算速度比擬的慢。但該計(jì)算能更直接的顯示圖像特征點(diǎn),所以還是要進(jìn)行的。這樣通過matlab軟件顯示一個(gè)三維的峰值圖像,找到圖像最正確匹配點(diǎn)。%%Step3:Donormalizedcross-correlationandfindcoordinatesofpeak%Calculatethenormalizedcross-correlationanddisplayitasasurface%plot.Thepeakofthecross-correlationmatrixoccurswherethe%sub_imagesarebestcorrelated.|normxcorr2|onlyworksongrayscale%images,sowepassittheredplaneofeachsubimage.c=normxcorr2(sub_onion(:,:,1),sub_peppers(:,:,1));figure,surf(c),shadingflat圖17特征點(diǎn)比擬圖第四步,確定圖像最大匹配點(diǎn),繼續(xù)進(jìn)行圖像的線性預(yù)算,為后續(xù)的圖像匹配做準(zhǔn)備。%%Step4:Findthetotaloffsetbetweentheimages%Thetotaloffsetortranslationbetweenimagesdependsonthelocationof%thepeakinthecross-correlationmatrix,andonthesizeandpositionof%thesubimages.%offsetfoundbycorrelation[max_c,imax]=max(abs(c(:)));[ypeak,xpeak]=ind2sub(size(c),imax(1));corr_offset=[(xpeak-size(sub_onion,2))(ypeak-size(sub_onion,1))];%relativeoffsetofpositionofsubimagesrect_offset=[(rect_peppers(1)-rect_onion(1))(rect_peppers(2)-rect_onion(2))];%totaloffsetoffset=corr_offset+rect_offset;xoffset=offset(1);yoffset=offset(2);第五步,繼續(xù)為最后的圖像匹配做準(zhǔn)備。在圖像內(nèi)提取區(qū)域,找出區(qū)域?qū)儆谠磮D像的哪局部,提取出區(qū)域和原圖像進(jìn)行比擬。%%Step5:Seeiftheonionimagewasextractedfromthepeppersimage%Figureoutwhere|onion|fallsinsideof|peppers|.xbegin=round(xoffset+1);xend=round(xoffset+size(onion,2));ybegin=round(yoffset+1);yend=round(yoffset+size(onion,1));%extractregionfrompeppersandcomparetoonionextracted_onion=peppers(ybegin:yend,xbegin:xend,:);ifisequal(onion,extracted_onion)disp('onion.pngwasextractedfrompeppers.png')end第六步,因?yàn)閳D像匹配中可能出現(xiàn)圖像的不規(guī)格,圖像傾斜或者畸變,不能更好的進(jìn)行圖像匹配,在這里我先定義一個(gè)零矩陣,把圖像定義在一個(gè)黑色的背景下,方便圖像的匹配,使圖像在匹配中可以以點(diǎn)的形式一點(diǎn)點(diǎn)匹配,防止圖像在匹配后出現(xiàn)的畸變,省去匹配后的校正過程。%%Step6:Padtheonionimagetothesizeofthepeppersimage%Padthe|onion|imagetooverlayon|peppers|,usingtheoffset%determinedabove.recovered_onion=uint8(zeros(size(peppers)));recovered_onion(ybegin:yend,xbegin:xend,:)=onion;figure,imshow(recovered_onion)圖18用matlab把peppers放在黑背景下第七步,先是圖像的灰度處理,然后就是設(shè)計(jì)結(jié)果顯示。把彩色圖像匹配到灰色圖像中?!苍谶@里可以一步完成,直接顯示匹配后的圖像,但為了更方便的顯示匹配,我分部運(yùn)行了程序〕%%Step7:Transparentlyoverlayonionimageonpeppersimage%Createtransparencymasktobeopaqueforonionandsemi-transparent%elsewhere.[m,n,p]=size(peppers);mask=ones(m,n);i=find(recovered_onion(:,:,1)==0);mask(i)=.2;%tryexperimentingwithdifferentlevelsof%transparency%overlayimageswithtransparencyfigure,imshow(peppers(:,:,1))%showonlyredplaneofpeppersholdonh=imshow(recovered_onion);%overlayrecovered_onionset(h,'AlphaData',mask)displayEndOfDemoMessage(mfilename)圖19將圖像灰度處理圖20將剪貼的圖片匹配到灰度圖中表4匹配時(shí)間匯總實(shí)驗(yàn)步驟運(yùn)行時(shí)間第一步0.444191seconds第二步0.415199seconds第三步0.165887seconds第四步0.027966seconds第五步0.018025seconds第六步0.265786seconds第七步0.298583seconds合計(jì)1.737162seconds結(jié)論本文主要利用基于灰度匹配和圖像特征點(diǎn)的方法進(jìn)行圖像匹配,在匹配過程中主要是尋找塊與塊灰度匹配和尋找對(duì)應(yīng)的匹配特征點(diǎn)對(duì),為了能夠提高搜索效率和精度。匹配研究涉及到許多相關(guān)的知識(shí)領(lǐng)域,如圖像預(yù)處理、圖像采樣、圖像分割、特征提取等技術(shù),并且將計(jì)算機(jī)視覺、多維信號(hào)處理和數(shù)值計(jì)算等緊密結(jié)合在一起。圖像匹配技術(shù)與圖像融合、圖像匹配等研究方向密切相關(guān),是圖像理解和圖像復(fù)原等領(lǐng)域的研究根底?;叶认嚓P(guān)的匹配方法是從待拼接圖像的灰度值出發(fā),對(duì)待匹配圖像中一塊區(qū)域與參考圖像中的相同尺寸的區(qū)域使用最小二乘法或者其它數(shù)學(xué)方法計(jì)算其灰度值的差異,對(duì)此差異比擬后來判斷待拼接圖像重疊區(qū)域的相似程度,由此得到待拼接圖像重疊區(qū)域的范圍和位置,從而實(shí)現(xiàn)圖像拼接。也可以通過FFT變換將圖像由時(shí)域變換到頻域,然后再進(jìn)行匹配。對(duì)位移量比擬大的圖像,可以先校正圖像的旋轉(zhuǎn),然后建立兩幅圖像之間的映射關(guān)系。當(dāng)以兩塊區(qū)域像素點(diǎn)灰度值的差異作為判別標(biāo)準(zhǔn)時(shí),最簡單的一種方法是直接把各點(diǎn)灰度的差值累計(jì)起來。這種方法效果不是很好,常常由于亮度、比照度的變化及其它原因?qū)е缕唇邮?。另一種方法是計(jì)算兩塊區(qū)域的對(duì)應(yīng)像素點(diǎn)灰度值的相關(guān)系數(shù),相關(guān)系數(shù)越大,那么兩塊圖像的匹配程度越高。該方法的拼接效果要好一些,成功率有所提高。根據(jù)所選擇的模板的不同,基于灰度相關(guān)的匹配方法可以分為:線匹配法、比值匹配法和塊匹配法。致謝在完成終稿的今天,在敲完最后一個(gè)句號(hào)的時(shí)刻,我的思想同周圍凝固的熱氣一樣停駐了,思緒萬千,心情久久不能平靜。光陰似箭,白駒過隙,轉(zhuǎn)眼間四年大學(xué)本科生活就即將結(jié)束,四年沈陽大學(xué)學(xué)習(xí)生活注定將成為我人生中的一段重要旅程。四年來,我的師長、同學(xué)給予我的關(guān)心和幫助,使我終身收益,我真心地感謝他們。本課題在選題及進(jìn)行過程中得到程遠(yuǎn)航教授的悉心指導(dǎo)。論文行文過程中,程老師屢次幫助我分析思路,開拓視角,在我遇到困難想放棄的時(shí)候給予我最大的支持和鼓勵(lì)。程老師嚴(yán)謹(jǐn)求實(shí)的治學(xué)態(tài)度,踏實(shí)堅(jiān)韌的工作精神,將使我終生受益。一位平易近人的良師,一位和藹可親的朋友。偉人、名人為我所崇拜,可是我更急迫地要把我的敬意和贊美獻(xiàn)給一位平凡的人——我的導(dǎo)師。我不是您最出色的學(xué)生,而您卻是我最尊敬的老師。您治學(xué)嚴(yán)謹(jǐn),學(xué)識(shí)淵博,視野寬廣,為我營造了一種良好的學(xué)術(shù)氣氛。置身其間,耳濡目染,潛移默化,使我不僅深入了解了圖像匹配各種算法,樹立了明確的學(xué)術(shù)目標(biāo),領(lǐng)會(huì)了根本的思考方式,掌握了通用的研究方法,而且還明白了許多待人接物與為人處世的道理。您嚴(yán)以律己、寬以待人的崇高風(fēng)范,樸實(shí)無華、平易近人的人格魅力,與無微不至、感人至深的人文關(guān)心,令人如沐春風(fēng),倍感溫馨。感謝可愛可親的程老師,感謝您在百忙之中對(duì)我畢業(yè)論文從選題到寫作再到最后定稿所付出的辛勞!再多華美的言語也顯蒼白。在此,謹(jǐn)向程老師致以誠摯的謝意和崇高的敬意。感謝大學(xué)四年來,信息學(xué)院所有老師對(duì)我學(xué)習(xí)上的幫助和生活上的關(guān)心勤工作,濃濃師恩,終生不忘。參考文獻(xiàn)[1]胡明昊,任明武,楊靜宇.一種快速實(shí)用的特征點(diǎn)匹配算法[M].計(jì)算機(jī)工程,2004,9:31-33[2]趙向陽,杜利民
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- GB/Z 44582-2024家用和類似用途面包片電烘烤器提高可達(dá)性測(cè)試方法
- GB/T 32151.43-2024溫室氣體排放核算與報(bào)告要求第43部分:鉛冶煉企業(yè)
- 地方政府與城投企業(yè)債務(wù)風(fēng)險(xiǎn)研究報(bào)告-北京篇 2024 -聯(lián)合資信
- 期中模擬檢測(cè)(1-4單元)(含答案) 2024-2025學(xué)年五年級(jí)上冊(cè)數(shù)學(xué)蘇教版
- 2024年度云南省高校教師資格證之高等教育法規(guī)模擬題庫及答案下載
- 廣西壯族自治區(qū)百色市部分學(xué)校2024-2025學(xué)年高二上學(xué)期10月期中考試語文試題(含答案)
- 2024年度云南省高校教師資格證之高等教育學(xué)典型題匯編及答案
- 2024年超臨界高溫、高壓汽輪發(fā)電機(jī)組項(xiàng)目投資申請(qǐng)報(bào)告代可行性研究報(bào)告
- 贛南師范大學(xué)《教育管理學(xué)》2023-2024學(xué)年第一學(xué)期期末試卷
- 贛南師范大學(xué)《班級(jí)管理與班主任工作》2021-2022學(xué)年第一學(xué)期期末試卷
- 2024河南鄭州熱力集團(tuán)限公司招聘公開引進(jìn)高層次人才和急需緊缺人才筆試參考題庫(共500題)答案詳解版
- 空氣源熱泵機(jī)房系統(tǒng)施工安全生產(chǎn)保證措施
- 新蘇教版六年級(jí)上冊(cè)《科學(xué)》全一冊(cè)全部課件(含19課時(shí))
- 公共關(guān)系學(xué)完整教學(xué)課件
- 10kV配電工程驗(yàn)收資料全
- 精密貼片電阻阻值對(duì)照表
- 第四章有機(jī)反應(yīng)中的活性中間體
- 初中英語教學(xué)策略研究論文10篇
- 橢圓中常考的十六條焦點(diǎn)性質(zhì)和證明
- 《VCS-仿真驗(yàn)證》ppt課件
- 親子閱讀ppt課件
評(píng)論
0/150
提交評(píng)論