一種改進(jìn)的彈性匹配魯棒算法_第1頁
一種改進(jìn)的彈性匹配魯棒算法_第2頁
一種改進(jìn)的彈性匹配魯棒算法_第3頁
全文預(yù)覽已結(jié)束

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

一種改進(jìn)的彈性匹配魯棒算法

1關(guān)鍵位置信息的應(yīng)用計(jì)算機(jī)識別是計(jì)算機(jī)分析人類圖像的方法。從人類圖像中提取有效的識別信息,用于“識別”身份。人類識別技術(shù)有著廣泛的應(yīng)用背景。它可以應(yīng)用于安全系統(tǒng)中罪犯身份的識別、駕駛許可和護(hù)照的圖像,以及實(shí)際持證人的驗(yàn)證系統(tǒng),銀行和海關(guān)管理局以及一些保密單位的自動警衛(wèi)系統(tǒng)。人臉識別技術(shù)的研究開始于六十年代末七十年代初,早期的識別方法是基于部件的,其主要思想是找出人臉中的各個部件(如眼睛、嘴巴、下巴等),然后利用各部件的參數(shù)和各部件關(guān)鍵點(diǎn)間的相對距離進(jìn)行人臉識別.這類方法比較簡單,但很容易丟失人臉的灰度和紋理信息,從而對視角、表情等變化的魯棒性比較差.隨著計(jì)算機(jī)軟硬件能力的提高,90年代以來,更多的研究集中在基于整體的方法,如特征臉(eigenface)方法、SVD分解的方法、人臉等密度線分析匹配方法、彈性匹配(elastic,matching)方法、隱馬爾可夫模型(HiddenMarkovModel)方法以及神經(jīng)網(wǎng)絡(luò)的方法等.這類方法更多地考慮了模式的整體屬性,因此保留了更多的信息.其中的彈性匹配方法具有較高的識別率,而且對一些背景、視角、表情的小的變化魯棒性比較強(qiáng),因此受到了廣泛的重視.通常的研究是對裸臉進(jìn)行的,但在實(shí)際應(yīng)用(如人臉識別用于公安系統(tǒng))中,往往會出現(xiàn)所采集的人臉周圍背景比較復(fù)雜的情況,而如果背景干擾比較強(qiáng)則會較大地影響彈性匹配的性能,為此本文提出了一種利用關(guān)鍵點(diǎn)的位置信息對彈性匹配進(jìn)行約束,以減少背景干擾影響的算法.下面首先簡單介紹經(jīng)典的彈性匹配算法,然后介紹本文設(shè)計(jì)的使用關(guān)鍵點(diǎn)位置信息的改進(jìn)算法,最后是該算法的實(shí)驗(yàn)結(jié)果、性能分析及總結(jié)展望.2維gawell濾波器彈性匹配法在二維的空間中定義了一種對于通常的人臉變形具有一定的不變性的距離,并采用屬性拓?fù)鋱D來代表人臉(圖1采用的是規(guī)則的二維網(wǎng)格圖,實(shí)際中也可以采用其他形狀的網(wǎng)格),拓?fù)鋱D的任一頂點(diǎn)均包含一特征向量,用來記錄人臉在該頂點(diǎn)位置附近的信息,如圖2所示.假設(shè)S1是定義在已知庫中某人臉像上的人臉模板的二維網(wǎng)格,則該人臉像上網(wǎng)格上節(jié)點(diǎn)i附近的信息可以用特征向量Ci來代表.Ci可以有多種選擇,最常用的是Gabor特征:定義G=[g1,g2,g3,…,gm]T的成員是中心頻率不同,帶寬不同,方向不同的二維Gabor濾波器,那么Ci就是G和人臉圖像的卷積在節(jié)點(diǎn)i處的值.同樣,在待識別人臉圖像上,也定義一個二維網(wǎng)格上的向量場.其中Xj是和Ci一樣類型的特征向量,只不過是定義在更大且更細(xì)密的二維網(wǎng)格S上的.在彈性匹配中,庫中人臉和待識人臉間的匹配轉(zhuǎn)化為A和S之間的匹配,也就是尋找S1中的各節(jié)點(diǎn)在S中的最佳匹配節(jié)點(diǎn).最佳的匹配應(yīng)該同時考慮到特征的匹配和局部幾何位置的匹配.如果S1上的節(jié)點(diǎn)i在S中對應(yīng)的匹配節(jié)點(diǎn)為j=M(i),那么特征匹配就是說向量Ci和向量Xj差別不大;如果S上i1、i2兩節(jié)點(diǎn)在S1上對應(yīng)的匹配節(jié)點(diǎn)分別為j1=M(i1)、j2=M(i2),那么局部幾何位置的匹配就是說如果i1和i2位置很近,那么j1和j2位置也應(yīng)該很近.文中用了如下的匹配度函數(shù)來評價待識別人臉圖像的向量場和庫中已知人臉的向量場之間的匹配程度:其中的P(i)表示網(wǎng)格S1中節(jié)點(diǎn)i在庫中人臉上的坐標(biāo),Q(j)表示網(wǎng)格S中節(jié)點(diǎn)j在待識人臉上的坐標(biāo).表示式中的是在S1中對i和,而j為S1中的i節(jié)點(diǎn)在S中的對應(yīng)匹配節(jié)點(diǎn),當(dāng)Xj和Ci相近的時候,該項(xiàng)就會接近于1.而||P(i1)-P(i2)-(Q(j1)-Q(j2)||2是對S,中所有相鄰的兩節(jié)點(diǎn)求和,j1為S1中的i1節(jié)點(diǎn)在S中的對應(yīng)匹配節(jié)點(diǎn),j2為S1中的i2節(jié)點(diǎn)在S中的對應(yīng)匹配節(jié)點(diǎn),當(dāng)P(i1)-P(i2)約等于Q(j1)-Q(j2),即保留了局部距離和匹配次序的時候,該項(xiàng)就會接近于0.M是從S1到S的單射,最佳匹配就是選取合適的M使得E(M)最大時的匹配,此時的匹配值就是此兩人臉間的匹配度.在經(jīng)典算法的基礎(chǔ)上,彈性匹配還有一些改進(jìn)算法,如文獻(xiàn)[8~10].3改進(jìn)匹配度函數(shù)的方法是否受到限制理論上,彈性匹配算法對各種小的變形有比較大的魯棒性,因此得到了廣泛的研究,并被認(rèn)為具有較高的識別率.但在出現(xiàn)比較強(qiáng)的背景干擾時卻很有可能出現(xiàn)錯誤匹配,例如在圖3中,人臉a和人臉b屬于同一個人,而c則是另一個人的人臉,可在使用經(jīng)典的彈性匹配算法進(jìn)行判別時反而會認(rèn)為c和b的匹配度比a和b的匹配度更高.出現(xiàn)這種錯誤的原因是:在圖3中有一個鍵盤,其靠近人臉的那一部分很難和人臉分開,因而會對識別產(chǎn)生影響,而鍵盤又具有較高的Gabor特征值,因此較大地影響了匹配度E(m),使人臉和鍵盤的相對位置與圖b更接近的圖c獲得了比圖a更高的匹配度.經(jīng)過仔細(xì)分析,認(rèn)為這種錯誤的出現(xiàn)和彈性匹配是一種基于整體的方法有很大關(guān)系.雖然通常認(rèn)為基于整個人臉的分析要優(yōu)于基于部件的分析,理由是前者保留了更多的信息,但是在另一方面,由于把整個人臉圖像作為一個模式,那么各種整體和局部的干擾都會對人臉識別有很大的影響,如何有效地去掉這些干擾因素是個很頭疼的問題,處理得不好,會導(dǎo)致有用的識別信息被淹沒在大量的冗余信息中而失去識別的意義.相反基于部件的方法就能比較好地解決這個問題,因?yàn)椴考谌四槂?nèi)部,因此不太容易受到背景的影響.即使受到影響,各個部件也不太可能同時受到影響.為此本文考慮將基于整體的方法和基于局部的方法相結(jié)合:首先用基于部件的方法定位出部分部件上的關(guān)鍵點(diǎn),然后利用能夠成功定位的那些關(guān)鍵點(diǎn)的位置對匹配度函數(shù)E(M)進(jìn)行矯正(是否能夠正確定位由定位算法自動判別).新的匹配度函數(shù)的一種可能形式是相對于式(1),式(2)增加了矯正項(xiàng),其更具一般性的形式為λ2.其中K表示能夠定位出的關(guān)鍵點(diǎn)的數(shù)目,P(Ik)表示定位得到的第k個關(guān)鍵點(diǎn)在庫中人臉上的坐標(biāo),而Q(Jk)則表示定位得到的第k個關(guān)鍵點(diǎn)在待識人臉上的坐標(biāo),λ2則是加權(quán)系數(shù),而D(.)則是距離量度.這里采用了歐氏距離De(p,q)=[(Pxqx)2+(py-qy)2]1/2作為距離量度,也可以考慮采用其他距離量度,例如城區(qū)(city-block)距離D4(p,q)=|px-qx|+pyqy|等.4確定不同人臉的編碼部件為檢測改進(jìn)算法的性能利用了一個包含了來自12個人的60幅人臉的圖象庫,該庫中的人臉是用攝象機(jī)拍攝的.與圖3中的人臉類似,同一人的不同人臉表情、姿態(tài)和拍攝角度等的變化很小,但人臉在背景中的相對位置有比較大的變化,因此識別的錯誤主要來自于背景的變化.采用一種比較簡單的方法來定義“錯誤”:在識別過程中,依次取各幅人臉作為當(dāng)前待識人臉,而將其他各幅人臉看作庫中人臉,并分別和該人臉比較,得到匹配度,并將這些人臉按匹配度排序,如果在該序列中有一幅與當(dāng)前待識人臉屬于同一人的人臉與當(dāng)前人臉的匹配度排在不屬于同一人的其他人臉之后,就認(rèn)為出現(xiàn)了一次錯誤,如果有兩幅這樣的人臉就認(rèn)為出現(xiàn)了兩次錯誤,以此類推.使用兩眼的瞳孔中心和鼻尖作為關(guān)鍵點(diǎn),對其中58幅人臉,能夠同時正確定位出兩眼的瞳孔中心和鼻尖的位置,因此K取3,而對另外2幅人臉,只能正確定位出兩眼瞳孔中心的位置,因此K取2(如果所有關(guān)鍵點(diǎn)均無法正確定位,則K只能取0,也就是說無法采用本文的新算法).表1中顯示了錯誤次數(shù)n隨權(quán)值變化的情況可以看到,n隨λ2的增大而減小,當(dāng)λ2大于10-3時就已經(jīng)沒有錯誤了,但并不是越大越好,對λ2的調(diào)整其實(shí)就是對通過部件定位得到的關(guān)鍵點(diǎn)信息和通過經(jīng)典彈性匹配得到的全局信息在識別中所占比重的調(diào)整.λ2取0時,相當(dāng)于經(jīng)典的彈性匹配方法,λ2越大,表明局部特征在算法中占的比例也越大,而當(dāng)其取一個很大的值(例如1)時,算法其實(shí)已經(jīng)退化為簡單的基于關(guān)鍵點(diǎn)位置信息的人臉識別方法.雖然在本實(shí)驗(yàn)中看不出其不良影響,但卻會降低對表情和視角變化的魯棒性,為此希望能夠找到一個比較小的不出現(xiàn)錯誤的λ2值.對上述人臉庫的更精確的分析表明,錯誤次數(shù)減少為0的臨界值為6.2867*10-4.取其他的人臉庫進(jìn)行試驗(yàn),λ2的臨界值均在10-4和10-3之間,因此取10-3就能比較好地滿足要求.5考慮彈性匹配條件本文提出了將基于整體的方法和基于局部的方法相結(jié)合,利用局部的關(guān)鍵點(diǎn)信息來改進(jìn)彈性匹配算法的思想,并研究了權(quán)值的選取.實(shí)驗(yàn)表明本文的方法確實(shí)能減少背景對彈性匹配產(chǎn)生的干擾,權(quán)

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論