基于自然人臉和Gabor人臉結合的改進人臉識別算法畢業(yè)論文外文文獻翻譯_第1頁
基于自然人臉和Gabor人臉結合的改進人臉識別算法畢業(yè)論文外文文獻翻譯_第2頁
基于自然人臉和Gabor人臉結合的改進人臉識別算法畢業(yè)論文外文文獻翻譯_第3頁
基于自然人臉和Gabor人臉結合的改進人臉識別算法畢業(yè)論文外文文獻翻譯_第4頁
基于自然人臉和Gabor人臉結合的改進人臉識別算法畢業(yè)論文外文文獻翻譯_第5頁
已閱讀5頁,還剩11頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

1、畢業(yè)設計(論文) 外文文獻翻譯文獻、資料中文題目:基于自然人臉和gabor人臉結 合的改進人臉識別算法文獻、資料英文題目:文獻、資料來源: 文獻、資料發(fā)表(出版)日期:院(部):專 業(yè):班 級:姓 名:學 號:指導教師: 翻譯日期:2017. 02. 14基于自然人臉和gabor人臉結合的改進人臉識別算法摘要過去的幾年里,在人臉識別領域提出了很多基于人臉整體性信息的識別算 法。其屮一些方法包括顏色處理、人臉的不同描述以及圖像處理技術。這些方法 的出發(fā)點是用來提高光照變化的魯棒性。在眾多的方法之中,gabor人臉的使用 已經(jīng)被證明是最成功的方法之一。在不同人臉識別方法的結合方面也有不少研 究,無

2、論是特征方面還是在得分方面。木文提出了一種有效地結合方案,這種方 案通過結合自然人臉和對應的gabor人臉的識別得分來達到改善單一整體性方 法的效果。本文利用最知名的幾種整體性方法在frgc數(shù)裾庫上評價了這種方法 的有效性。結果顯示,在各種情況下,識別率至少達到了 10%的改善。更重要的 是,當識別得分來自兩種不同的方法,其中一種方法使用自然人臉,另外一種方 法使用gabor人臉,這種方案仍然有效。這些結果表明,兩種人臉描述具有互補 性,并ii在得分水平能夠很好地被融合。關鍵詞:人臉識別gabor圖像描述frgc人臉庫核gabor變換主成分分析(pca)引言在過去的幾年里,信息安全領域關注度的

3、不斷提高促進了人臉身份鑒別的各種生物技 術的研究。在這些技術中,人臉識別技術由于它的非侵入性吸引了公有機構和私營機構共 同的興趣,成為了*個非?;钴S地研究課題(chellappa et al.,1995;zhao et al.,2003).例如, 人臉自動識別系統(tǒng)目前己經(jīng)用來幫助人類掌權者用于邊界的控制。這些系統(tǒng)能用于完成兩 種不同的任務:人臉識別和人臉驗證。前者主要用于判斷一個相關人臉是否在一個具有n 個人臉的列表之中。后者主要用于鑒別兩幅人臉圖像是否屬于同一個人。本文所討論的系 統(tǒng)主要用于識別和驗證,所使用的圖像是正而靜止的二維人臉。大多數(shù)人臉識別和驗證算法被設汁成分類器。分類器在從人臉庫

4、取得的一部分人臉圖 像上進行訓練,以用于尋找一些描述這些人臉的差異性特征。這個訓練過程通常是在離線 狀態(tài)下進行的。一經(jīng)訓練后,分類器4以被用來從新的人臉圖像中提取差異性特征呈現(xiàn)給 系統(tǒng)。這樣,就可通過比較兩個特征的差異來比較兩個人臉的差異了。人臉特征提取的算法可以粗略的劃分為整體性和局部性的方法(zhaoetal.,2003)。整 體性方法使用整個人臉區(qū)域作為原始輸入呈遞給系統(tǒng)。一般而言,這些系統(tǒng)把人臉投影到 一個便于識別的低維系統(tǒng)。眾所周知的整體性技術有特征臉法(turk and pentland 1991) 和fisher臉法(belhumeur et al.,1997)。相反,局部方法試

5、圖聚集一豎能夠很好定義的位置 信息來識別人臉。其屮一些局部方法有彈性閣匹配算法(wiskottetal.,1997)和隱馬爾科 夫模型(nefian and hayes,1998)。目前,無論是整體性方法還是局部性方法的研究都很活 躍(zhao et al.,2003;tolba et al.,2005)。自從daugman(1980),daugman et al.(1985)捉出gabor變換能夠很好地模擬皮質層單細 胞的感受域剖面圖后,這個變換一直被應用到各種計算機視覺算法之中。確實,這種變換 是彈性圖匹配算法(wiskott et al.,1997 )和許多著名的整體性算法(liu an

6、d wechsler,200l,2002;liu,2004,2006)的核心。gabor變換分析了不同尺度、位賈和方向上紋 理的空間頻率分布。當結合整體性分類器吋,提取的特征不同于那些從自然人臉提取的特 征,通常呈現(xiàn)出更好的精確性。然而,當使川gabor臉時,一些與鑒定相關的信息也有可 能會丟失。本文研宂了通過結合兩種分類器獲得的得分能否改善有代表性的整體性方法的識別 精度。這兩種分類器分別在自然人臉和gabor人臉上得到訓練。所提出的結合方案在frgc (phillips et al.,2005)人臉庫上進行了評價。frgc是和人臉識別s相關的二維靜止圖像 人臉庫。我們的結果表明,所提出的得

7、分融合方案改善了本文所研宄的所有整體性方法的 精確度。本文剩下的部分是按這樣的方式進行組織的:第2和第3部分分別討論了相關的工作 和gabor人臉描述的一些背景。第4和第5部分簡明的介紹了本文所需的整體性驗證算法 和結合不同得分的方法。s后,第6和第7部分評價、總結了我們的發(fā)現(xiàn)并提出了一些未 來的研究工作。2相關工作gabor變換曾經(jīng)被用來改善整體性方法的識別精度。liu和wechsler在2001和2002 年提出了一種將gabor臉輸入到特征臉(pca)和fisher臉(lda)中,從而得到了改進的統(tǒng) 計識別方法,該方法在feret人臉庫上進行試驗,識別率提高了 30%左右。后來,liu

8、在2004和2006年提出的將上述gabor臉輸入到獨立核版本巾,也表明得到了最好的效果 之一。xie et al在2005年提出了一種不同的整體性方法kcfa.這種方法計算了訓練樣本集 巾每一個人的二維相關系數(shù)濾波器。在識別的時候,新圖像與每一個濾波器相關,相關系 數(shù)平面的中心被認為是該圖像的特征向量。使用xie et al在2005年提出的核技巧能夠使 得相關系數(shù)變成非線性的。本文,我們通過對輸入閣像做gabor小波變換的手段,稍微修 改了一下原始方法。在生物研宄領域,不同識別系統(tǒng)的結合受到了越來越多的重視。一般來講,結合可以 在兩種不同的水平:特征融合和得分融合。前者涉及到大多數(shù)判別特征

9、的選擇性問題,這 需要一個額外的訓練階段。例如,zhao et al.在2004年提出了一種基于下相同輸入的不同 特征提取方法的結合,最終的得分足巾neural network committee分類器判定的。tan和 triggs在2007年提出了另一種有趣的結合方案,這種結合方案將gabor和lbp圖像的pca 特征向量結合在一起。然而,大多數(shù)判別特征向量的提取使用的方法是kdcv。另一方面,2005年,jain et al.在不同生物識別系統(tǒng)的得分水平結合的選擇性方面做 了更進一步的研究。對于每一個識別個體,一個全局的匹配得分是通過結合(加法、乘法、 取最大或最?。┎煌锵到y(tǒng)的得分而獲

10、得的。我們應該注意到這種結合方案并不需要任 何額外的訓練階段,并且比特征水平的融合副本更容易一般化。當不同系統(tǒng)的信息能夠得 到互補(至少是部分的)的吋候,就能夠獲得好的結果。本文,我們分析了兩種得分結合的效果。這兩種得分使用相同的人臉識別方法,只是 輸入系統(tǒng)的圖像不同而己,其中一種是自然人臉,另一種是gabor人臉。使用的策略是jain et al.在2005年提出的混合模型系統(tǒng)。值得注意的是,我們并不是研究來自特征結合的最 具有判別性的特征,而是u算以個體得分結合為基礎的最終得分。在frg數(shù)據(jù)集上的實 驗表明,這種簡單的融合方案提高了本文介紹的所有整體性方法的識別率。3 gabor人臉描述g

11、abor人臉閣像是通過計算原始閣像和兒個gabor小波函數(shù)的卷積得到的。gaboi小 波是由leej996;lades et alj993提出來的。定義如下:2 2a2, (1)其中a.i,二久,(cos么,sin么),r二(x,y) .lades et al在1993年指出,當在頻率域選擇合 適的小波函數(shù)時,gabor人臉能夠非常有效?;谶@個目的,我們可以很方便的定義 k、,二,(/)=叩其巾胃是最大頻率,/是在頻率域核空間間的因子。這些參數(shù)的選擇不僅依賴于需要進行處理的閣像的數(shù)目和我們想要考慮的離散頻率。表一是lades etal在1993年列出了針對128x128圖像的一個有效的參數(shù)組

12、合。table 1gabor小波變換的參數(shù)選擇(圖像大小為128x128)maxf<7av疋/22tt0,,70”",4設是一個灰度分布圖像,圖像/和和gabor小波核函數(shù)的卷積定義如下:= (2)其中,®代表卷積運算,(x,y)是與gabor核函數(shù)在方向/和尺度v相關的運算結果。盡管式(2)的運算結果是復數(shù)伉,但我們使用的是該復數(shù)的模值,這種模值表示被證明在邊 緣方面描述得效果很好(lades etal.,1993)。此外,我們對得到的y)按因子p=64進 行下抽樣(即8行8列)以保證最終維數(shù)不超過原圖像的維數(shù)。設of八表示按因子p下抽樣后由每一行串在一塊得到的列向

13、量,該 列向量進行了均值為0方差為丨的標準化處理。這樣,圖像/的最終gab01描述如下:其中t是轉置運算。這樣,增加的gabor特征向量包含了所有的gabor小波描述的集合, 作為重要的鑒別信息。例如,對于 128x128像素的圖像而言,這個響亮的尺寸為10240 (40x16x16)。4驗證算法fig.l呈現(xiàn)了一個典型的整體識別或驗證系統(tǒng)的塊狀圖。對于經(jīng)過預處理的圖像,一個訓 練樣本數(shù)據(jù)庫被用來設計一個作為特征提取用的分類器。這個過程是在離線狀態(tài)下進行的。 那么,當兩幅新的圖像被輸入系統(tǒng)后(上線),他們各自的特征向量會被提取,并t特征向 量之間的距離會被計算。驗證結果可以通過與所設定距離閾值

14、進行比較得到,該閾值的由來 依據(jù)系統(tǒng)的期望錯誤接受率。通常使用的向量間距離的衡a包拈曼哈坦距離(/,)、歐式 距離(l2)、余弦值(4。)和明考斯基距離氏w。在本文中,我們考慮了四種特征提取方法:?0人丄0八,1<0八和1<八,在下 文中會有更加詳細的介紹。在每種情況下,我們考慮的都是一幅具有yv個灰度 值的二維向量。為了方便起見,圖像被表示成一個yv維的行向量',該行向量 是通過將圖像矩陣各行數(shù)據(jù)組合在一塊得到的。設給定一個訓練樣本集 =能夠被分成 a = l,.,£類(即來自l個不同的個體)。我們用表示類別包含的樣本數(shù)。enlinofeatureextract

15、orvttoxoujaulknlvujjttoxouaiftjkrtlviijjofflinetrainfeatureextractor.userdesiredf.a>r.testverificationresultgraphsfig. 1. block diagram of a typical holistic face verifier system.4.1主成分分析法主成分分析法是利用協(xié)方差矩陣的特征向量作為投影方向進行特征提取的。 協(xié)方差矩陣從給定的樣木集中進行估計的:1 m/=11 m其中,一藝令是矩陣x的前r個最大特征值對應的特征列向量組成的矩陣。主成分分析法就是將上述r個特

16、征向量作為基向量,將 原始空間的樣本向量r投影到上述特征向量所張成空間屮。不妨設r在上述特征 空間中的投影向量為f則f = uty.(5)4.2線性鑒別分析上述pca特征提取方法是針對所有給定樣本而言的,樣本的所屬類別信 息并沒有納入到算法中去。線性鑒別分析法,是從fisher判別理論發(fā)展而來的, 因而乂叫做fisher線性判別法。ldap8j方法采用了使得樣木能夠正確分類識另ij 的先驗知識,即尋找最優(yōu)投影方向,使得投影后向量的類間離散度矩陣和類內離 散度矩陣的比率最人化,這有助于識別率的提高。這些投影方向被用來對給定的 樣本向量進行特征提取。給定樣本向量的類間離散矩陣定義為:t. (6)

17、a=1類內離散度矩陣定義為:l心(7)k=i xg w女k nk.其中,/=1義是所有樣本向量的均值向量,a =_l z x/是第個類別 m tzrm,的均值向量。線性判別分析試圖尋找£-1個方向向量v使得如下關系式最大化(8)由rayleigh商的知識可知使得等式(1)中j最大化的向量v是如下常見的特征 問題:(9)設.,v£ 2;|是由式(2)的最大特征值對應的特征列向量組成的矩陣,同樣,設r在上述特征空間中的投影向量為f則 f = ury.(10)4.3核判別分析上述介紹的方法屬于線性分類,當數(shù)據(jù)是線性相關的吋候是非常有效的。然而,人臉 之間的關系可能是非線性的。核判

18、別分析利用核技術獲得了 lda的非線性表示。設外4 f是一個從輸入圖像空間到另一個高維空間f的變換。kda方法使 用f空間中的投影向量作為式(9)的解,這樣類間離散矩陣和類內離散矩陣重定義為:(11)=1)-讀(x,x)(12)k=l xr 11 m其中,二一 y (x.), ;/=是廠空間巾每一個類的均值和全局 mk x%km /=1均值。為了簡化等式,暫時假設在f空間中的數(shù)據(jù)是中心化的(/?=0),并且 定義矩陣如下:d = xx2.xm).(13)這樣,使用矩陣z)可以對式(11)和(12)表達如下(heatal.,2005):sb= -d(i - w)z/ + ddt(14)svv =

19、d(i-w)dy(15)其屮i是一個mxm維的單位矩陣,we rmxm是一個塊對角矩陣 w = diagw,w2.,wl , vva.e尺卽是一個所有元素都等于的axma.維 矩陣。把式(14)和(15)帶入式(9)我們得到:d(-w)dtv = xddtv(16)其中義=% + .由復數(shù)核理論的知識可知,式(16)的解必須依賴于圖像在f中 的取值范圍:mv = ci(/)(xi) = da(17)/=1其中漢='2,.,;|7、,.用這個表達式替換式(16)中的v,然后等式兩邊同 時乘以/,我們得到:k-wka = xkka(18)其中k = z)d是訓練樣本的核矩陣:=外)沢

20、9;).(19)注意到,使用核技術,我們無法準確的描述映射因為它僅僅以點乘的形式出現(xiàn)在等式中,因而可以使用關系核函數(shù)進行計算:kkxxj)如果原始圖像數(shù)據(jù)在f中沒有進行中心化,經(jīng)過如下數(shù)據(jù)變換,上述等式仍 然有效:萬二)-,外心)-/?(20)由式(17)和(18)可以變換得到:mv = cixi)-/j0) = da = d(-m)a '=1(21)k(-m)kta = xkk a(22)其中元是原始圖像在f空間中心化后的核矩陣,是 所有元素都等于的矩陣。最終,等式(22)也可以寫成如下形式:kwk a = xkk a(23)其中/=1-x=a/(1 + a)。與最大值2對應的等式(

21、23)的解和最大值a對應的 等式(9)的解相關。令a = a,6z2,.,6e/?mx"表示等式(23)的解中最大的個特征 值對應的特征向量組成的矩陣,其屮所有的特征向量都進行了標準化,例如 |v|2 = 1。為了提取給定測試圖像集/7 = 0,.,-1的特征向量,我們必須將它們投影到空間f的特征向量v上去:=sv/(yp-)(24)/=1定義me, =外k),叭r2),沢q,特征矩陣為f = f;,f2,.,f;,利用等式(24) 我們得到f = at(ktest-imktest-klm +lmklm) = atk咖'其中,是測試核矩陣,其中每個元素計算為 隊wxp, 么,

22、是/中心化后得到的。_在ajt識別的過程中,等式(23)經(jīng)常會遇到一個問題。這是因為矩陣 萬(i-w)萬的秩至多只有7v-l (heetal.,2005),而閣像的數(shù)目m遠遠低于閣像的像素數(shù)2v,導致矩陣萬(1-w)萬是一個奇異矩陣。目前,這個問題有兩種解決 方法:增加上述因子p (liu,2006)或者使用pca對原始閣像進行降維(belhumeur etal.,1997).本文采用了前一種方法。4.4核相關特征分析本文考慮的最后一種整體性方法是核相關特征分析(xie et al.,2005).這個 方法試圖為訓練樣本的每一個類設計一個最優(yōu)折中濾波器(otf) (refregier,1990

23、)o當一個新的圖像輸入到系統(tǒng)時,它和所有的濾波器相關。并 把輸出相關系數(shù)t而的中心值作為新圖像的特征。在kcfa中,相關值是利用核 技術在高維待征空間f中計算得到的。otf的設計是在頻率域進行的。這個濾波器在最小化相關輸出噪聲和最小a/-1化均值和關能量之間取折中(refregier,1990).定義d二其中是一個對 !=()對角矩陣,其中元素£>,.(/:,幻含義在頻域處的能量譜。c作為對角矩陣,其 中的元素幻包含了在頻率處的噪聲能量譜密度。t = adf3c<ayp< 對于一個給定的類別,otf是這樣獲得的(xieetal.2005,refregier, 199

24、0): h0tr=t-lx(x+tlxrlc(26)其中,是一個;vxm維的矩陣,每一個人是一個7v維向量,該向量是將第f個訓練樣本經(jīng)二維傅立葉變換后按行拼接在一塊得到的。是一 個mxl維的列向量,如果圖像f在這個類別的話,q等于1,否則的話等于0。假設圖像都經(jīng)過屮心化和標準化,對于給定的測試圖像經(jīng)傅立葉變換y 以及與等式(26)的濾波器相關后,其相關平面的中心可以用下面的內積表示: c(0,0) = y+h0tf = y+t-lx(x+t-xylc(27)因為r是一個對角矩陣,它可以被分解為7=7%廠,那么式(27)可以寫成 下面形式:c(0,0) = (tyy (t2x )(7'

25、x)+x)_,c?(28)等式(28)表明我們可以將7%當作圖像的一個前置濾波器。記我 們可以將式(28)寫成如下形式:c(0,0)二了 x(x + x廠1 z(29)正如kda的例子一樣,令扒x) . cn 4 f是一個從輸入空間的頻率域到一個高維 特征空間f的映射。等式(29)變換后的表達式為:c(0,0) = kleslkx(30)其中,/s7是一個lxm維的測試核矩陣,尺是一個mxm維的訓練核矩陣,其中_(戸(咬(31)(z,7)= (x;)(32)定義c = «,.,則測試閣像/的全部持征向量可以計算如下:f = kh,stk'c(33)5得分結合在木文中,我們分析

26、了結合驗證系統(tǒng)的效果,這個系統(tǒng)將自然圖像和他們的 gabor圖像分別作為輸入,然后在得分水平進行結合。這種思想在圖2中進行了 說明。白然圖像和他們的gabor變換經(jīng)歷丫相同的特征提取過程。當兩個圖像進 行比較的時候,這兩個系統(tǒng)分別用來獲取一組標準化的得分。然后,這兩個結果 被結合產(chǎn)生最終的得分,這個得分可以用來決定這兩張閣像是否來自同一個人。不同的標準化方法是可能的(jain et al.,2005)。在本文中,我們使用的是 z-score標準化方法,這種方法在frgc文木中是默認用來畫roc曲線的。毫 無疑問,另一個標準化后的結果是類似的。此外,對于得分融合有幾種選擇方法。 木文中我們使用的

27、方法是得分相加。下文中的結果解釋了為什么這種方案是最合適的。fig. 2. block diagram for the score-fusion mechanism.6實驗結果當前的工作在frgc人臉庫上進行了試驗,frgc是一個和評價人臉識別算 法最相關的數(shù)據(jù)庫之一。本文中,我們做了實驗4,用來評價識別算法的結果, 這實驗4是在強烈的光照變化條件下正面靜止人臉圖像上進行的。frgc數(shù)據(jù)庫包括12776個訓練圖像,16028個被控目標圖像,8014個測試 圖像。實驗4包含每一張測試圖像與訓練樣木中所有圖像的兩個得分。將這些得 分進行標準化,使用z-score方案,一條roc曲線就形成了,這條曲

28、線繪制的是 正確識別率與錯誤接受率之間的關系。在frgc實驗中,計算了三條不同的roc 曲線:/?oc-i, roc-w, 7?oc-m,分別對應半年內收集的圖像、一年內收集 的圖像以及半年之間收集到的圖像。我們選擇了最具有挑戰(zhàn)性的/?oc-ni曲線 來展示結果,在其他的實驗中,也有相同的做法。為了使得不同方法之間的比較更加容易,對于每種方法都是用了相同的預處理過程。具體的,每一張圖像首先進行中心化,把眼睛放在固定的位置,歸一 化圖像大小為128x128。接下來,每一張閣像都轉化為灰度閣像并進行直方閣均 衡化以使得圖像矩陣對光照條件具有獸棒性。最后,最終的圖像被標準化為零均 值和單位方差。另一

29、方面,對于kda和kcfa,我們使用了兩種不同的核函數(shù)重復了同樣 的實驗過程。這兩種和函數(shù)分別為多項式和高斯核函數(shù):z:(x,y) = (x. ),)"(34)y) = exp2<r(35)其屮,denf并且70.然而,兩種情況都是用了相同的方法,因此,在這部 分我們僅僅展示了最好核函數(shù)的結果,rbf核函數(shù)。此外,我們評價丫幾個不 同的得分計算方法:ii, l2, co sin e, mahalan - obis ,和 mahalanobis cosine。這部分的結果表明了每一種方法對應的最好的度量手段:pca對應的是 mahalanobis co sin e , lda,k

30、cfa 和 kda 對應的都是 cosine 距離。fig.3比較了 frgc實驗4中的曲線和本文所研究的所有方法,使 用了自然圖像和gabor圖像?;趃abor的方法做了一個前置處理g。得分融合 的曲線也被繪制丫。從這些實驗屮,容易看出,當使用gabor人臉替換b然人臉 的時候,所有方法的效果都得到了改善。注意到,這一點對于gkcfa同樣適合, 這種方法使用了 gabor人臉作為一維信號并且應用了 kcfa方法。就本人目前所 知,之前還沒有人將gabor變換應用到kcfa中。然而,從fig.3中提取的最重要的結論是經(jīng)過自然人臉和gabor人臉的得分 融合后木文研究的所有方法的效果都得到了改

31、善。從數(shù)量上講,這種改善是10% 左右,相比基于gabor的方法,far減小了 0.001 (相比pca而言,增加到了 50%)。為了說明為什么這種方法能提高識別率,本文在fig4中繪制了 gkda-kda系數(shù)空間曲線。我們看到,使用gkda能夠更好的匹配一些點,其 他點通過kda能更好地被驗證。使用兩個距離相加暗示著沿單位斜率的曲線選 擇了閾值,得到的改善,我們可以在fig3中看出。另一方面,fig.5畢竟熬了幾種方法之間的結合。有趣的是fisher判別的線 性和非線性版本,b|lda和kda,在識別效果方面的差別很小。如果考慮到一 個線性方法的無記憶或者過度匹配功能,當使用木文提出的得分融

32、合策略時, lda方法相比kda方法而言或許是一個更好的選擇。另一個有趣的結論是,在 識別結果方面,kcfa與lda和kda非常相近。(gkda.kda) score space1 -0.8 -0.6 -0.4 -0.2 0 0 2 0.4 0.6 gkdamethods comparisonfig. 5. comparison of the different methods when scores from natural and cabor images are combined.kda gkdafarfarfarfig. 3. effect of combining natural a

33、nd gabor image representations for (a) ka. (b) lda.(c) kda and (d) kcfa on frcc expenment 4 roc-111 curves. preceding g indicates (lui cborrepresenutions where used instead of ncurl inures.最后,得分融合技術也可以應用到方法之間的結合中去。fig.6是在frgc 數(shù)據(jù)庫的實驗4上進行的,該試驗結果展示了 lda和kda之間的得分融合的 結果。這兩種方法的所有可能結合都已經(jīng)被考慮了。當輸入和同的人臉圖像時,方法

34、的結合(kda+lda和gkda+glda)并沒有帶來任何的好處,然而,使 用不同人臉輸入時,方法的結合(gkda+lda和glda+kda)在一定意義上 改善了識別結果。更重要的是,在我們的實驗中,自然人臉和gabor人臉的結合 在得分的差別上是非常小的。在其余的幾種方法屮也得到丫類似的結果。從所繪制的fig.6屮可以得到的 主要結論是當將系統(tǒng)中其中一個在自然人臉中訓練的得分和另一個在gabcx人 臉中得到的得分進行融合時,識別的效果會更好。這些結果表明,在自然人臉中訓練的整體性方法比在gabor人臉中訓練得到 了不同的鑒別信息,并且通過單個系統(tǒng)的得分融合,我們可以充分利用所有的這 些信息。

35、far7結論在木文中,我們得出了在得分水平進行融合時不同整體性人臉識別方法間的 結合在識別效果上帶來了好處。更精確的說,我們用相同方法訓練了兩個例子, 其中一個自然人臉上進行,另一個在gabor人臉上進行。理論分析己經(jīng)在frgc 數(shù)據(jù)庫上對四個整體性方法(pca,lda,kda和kcfa)進行了試驗。在所有的 例子屮,當錯誤接受率為0.001時,得分融合方法的結果帶來了 10%左右的改善。 在gabor人臉閣像上使用kcfa也是第一次嘗試,這種方法是在原有方法的基礎 上進行修改得到的。此外,我們表明當使用不同整體性方法結合時,所提出的得 分融合方案仍然有效(會帶來識別率的提高)。這些結果表明當

36、使用gabor變換 時,自然人臉中的部分判別信息不能通過整體性方法提取岀來,但如果結合在原 始圖像上的整體性方法的得分,至少在那部分隱藏的信息上是一個非常方便的特 征提取方法。未來,我們將在局部方法和不同整體性方法的結合方面做一定的擴展工作, 不僅在得分水平,也在特征提取水平。然而,在特征水平的結合可能暗示著兩 個訓練階段,其中一個在特征提取上訓練,另一個在融合方面訓練,這樣增加 了找出一般結合策略用來改善識別效果的困難性。如果更多復雜的得分融合方 案被應用的話,上述困難同樣會出現(xiàn)。例如,一個神經(jīng)網(wǎng)絡如果能在得分空間 進行訓練的話,需要一個額外的訓練集。木文所提岀的得分融合方案的簡單性 使得我

37、們的結果更加引人注0。參考文獻ijbelhiimeur, r, hespanha,j.,kriegman,d.,1997. eigenfaces vs. fisherfaces:recognition using class specific linear projection. ieee trans. pattern anal.machine intell. 19 (7), 711-720. issn: 0162-8828.f2chellappa, r.,wilson, c.,sirohey,s.,1995. human and machine recognition of faces:a

38、survey. proceedings of the ieee 83 (5), 705-741. issn: 0018-9219.3daugman,j” 1980. two-dimensional spectral analysis of cortical receptive fieldprofiles. vision res. 20 (10),847-856. issn: 00426989.4jdaugman,j.g” space,uncertainty relation for resolution in,frequency, spatial,1985.and orientation op

39、timized by two-dimensional visual cortical filters. j. opt. soc.amer. a 2 (7), 1160-1169.5he,x.,yan,s.,hu,y” niyogi,p” zhang,h.-j.,2005 face recognition using laplacian faces. ieee trans. pattern anal. machine intell. 27 (3),328-340.6jjain,a.,nandakumar,k.,ross,a.,2005. score normalization in multim

40、odal biometric systems. pattern recognition 38 (12),2270-2285. issn: 0031-3203.f71lades,m.,vorbriiggen, j.c.,buhmann,j.,lange, j.,von der malsburg, c.,wlirlz, r.p.,konen,w” 1993. distortion invariant object recognition in the dynamic link architecture. ieee trans. comput. 42, 300-311.8lee, t.s.,1996

41、. image representation using 2d gabor wavelets. ieee trans. pattern anal. machine intell. 18(10),959971.9liu,c.,2004. gabor-based kernel pca with fractional power polynomial models for face recognition. ieee trans. pattern anal. machine intell. 26 (5), 572-581. issn:0162-8828.uojliu,c.,2006. capital

42、ize on dimensionality increasing techniques for improving face recognition grand challenge performance. ieee trans. pattern anal. machine intell. 28 (5), 725-737. issn: 0162-8828.1 lliu, c., wechsler, h., 2001. a gabor feature classifier for face recognition. in: iccv 2001. proceedings eighth ieee i

43、nternational conference on computer vision,vol. 2, pp. 270-275-12jliu, c.,wechsler, h.,2002. gabor feature based classification using the enhanced fisher linear discriminant model for face recognition. ieee trans. image process. 11,467-476.13 nefian,a.v.,hayes, m.h.,iii,1998. hidden markov models fo

44、r face recognition. in:proc. internal conf. acoustics, speech and signal processing,1998, pp. 2721-2724.14 phillips,p” flynn,p” scruggs,t” bowyer,k” chang,j” hoffman,k.,marques,j” min,j” worek, w., 2005. overview of the face recognition grand challenge. in: cvpr 2005. ieee computer society conf, on computer vision and pattern recognition,2005, vol. 1,pp. 947-954, issn: 1063-6919.15 refregier,p” 1990. filter design for

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論