基于離散余弦變換和稀疏表示的人臉識(shí)別_第1頁(yè)
基于離散余弦變換和稀疏表示的人臉識(shí)別_第2頁(yè)
基于離散余弦變換和稀疏表示的人臉識(shí)別_第3頁(yè)
基于離散余弦變換和稀疏表示的人臉識(shí)別_第4頁(yè)
基于離散余弦變換和稀疏表示的人臉識(shí)別_第5頁(yè)
已閱讀5頁(yè),還剩2頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、基于離散余弦變換和稀疏表示的人臉識(shí)別摘 要: 傳統(tǒng)的基于稀疏表示的人臉識(shí)別方法是基于人臉的整體特征的,這類(lèi)方法要求每位測(cè)試者的人臉圖像要有足夠多幅,而且特征維度高,計(jì)算復(fù)雜,針對(duì)這一問(wèn)題,提出一種基于離散余弦變換和稀疏表示的人臉識(shí)別方法,對(duì)人臉圖像進(jìn)展分塊采樣,對(duì)采樣樣本使用離散余弦變換和稀疏分解,然后使用一種類(lèi)似于詞袋的方法得到整幅圖像的特征向量,最后使用相似度比較的方法進(jìn)展分類(lèi)識(shí)別。實(shí)驗(yàn)說(shuō)明,在此提出的方法比傳統(tǒng)的基于稀疏表示的人臉識(shí)別方法在訓(xùn)練樣本較少時(shí)效果更好。關(guān)鍵詞: 人臉識(shí)別; 離散余弦變換; 稀疏表示; 詞袋; 局部特征Face recognition based on DCT

2、and sparse representationWANG Guang?liang, GUO He?feiSchool of Computer Science and Engineering, Nanjing University of Science and Technology, Nanjing 210094, ChinaAbstract: Traditional face recognition methods based on sparse representation are based on holistic feature of face image. The methods r

3、equires enough face images for each test person and the high dimensional feature, and has computational complexity. Aiming at these shortcomings, a face recognition method based on discrete cosine transform DCT and sparse representation is proposed, which divides an image into regions, samples in ea

4、ch region, decomposes the samples by DCT and sparse representation, gets feature vector of the whole image with a method like bag?of?word, and then classifies and identifies them by similarity comparing method. The experiment results indicate that the method outperform the traditional face recogniti

5、on methods based on sparse representation when there are few training samples.Keywords: face recognition; discrete cosine transform; sparse representation; bag?of?word; local feature0 引 言另一方面,人臉還可以用局部特征來(lái)表示,相關(guān)的方法有局部二值形式Local Binary Pattern,LBP方法7、基于Gabor特征的方法8等等,另一種基于局部特征的方法是近期由Sanderson等人在文獻(xiàn)9中提出的一種用

6、于人臉識(shí)別的擴(kuò)展的詞袋Bag?of?Words, BoW方法,叫做多區(qū)域直方圖方法Multi?Region Histogram, MRH,該方法將一幅圖像中各個(gè)區(qū)域中采樣得到的局部特征使用一種類(lèi)似于詞袋的方法組合起來(lái)作為圖像的特征向量來(lái)進(jìn)展分類(lèi)識(shí)別,獲得了良好的實(shí)驗(yàn)結(jié)果。文獻(xiàn)10中指出,局部特征相對(duì)與整體特征對(duì)于表情變化和角度變化等更加魯棒?;谝陨显颍Y(jié)合稀疏表示和區(qū)域直方圖方法的優(yōu)點(diǎn),本文提出一種基于離散余弦變換和稀疏表示的人臉識(shí)別方法,對(duì)圖像進(jìn)展分區(qū)域采樣,然后對(duì)采樣樣本使用離散余弦變換和稀疏表示獲得特征向量,最終使用基于相似度比較的方法進(jìn)展分類(lèi)識(shí)別。 1 算法描繪本節(jié)首先對(duì)稀疏表示方

7、法進(jìn)展簡(jiǎn)單介紹,然后描繪提出的特征提取方法的詳細(xì)流程以及最終的分類(lèi)識(shí)別方法。1.1 稀疏表示介紹y=D 11.1.1 字典學(xué)習(xí)方法字典學(xué)習(xí)的目的是從原始數(shù)據(jù)中學(xué)習(xí)出一個(gè)大小適宜且可以很好地重構(gòu)原始數(shù)據(jù)的過(guò)完備字典,目前廣泛使用的字典學(xué)習(xí)方法是由Aharon等人提出的K?SVD算法11,K?SVD是一種迭代算法,對(duì)于給定的訓(xùn)練數(shù)據(jù)矩陣Y,K?SVD算法的目的優(yōu)化函數(shù)是:minD,AY-DA2Fs.t. ?i, i0T0 2式中0鸉表示求弗羅貝尼烏斯范數(shù)Frobenius norm,其定義如下:XF=ijxi,j2 3K?SVD算法每次迭代包括兩個(gè)階段:第一階段固定字典D,使用下文描繪的任意一種稀

8、疏分解方法解得稀疏系數(shù)矩陣;第二階段對(duì)字典原子和與其對(duì)應(yīng)的稀疏系數(shù)矩陣中的行依次更新,對(duì)于要更新的字典原子dk,式2中的開(kāi)銷(xiāo)函數(shù)cost function可以改寫(xiě)為:Y-DA2F=Y-ikdiiR-dkkR2F=Ek-dkkR2F 4稀疏分解是指在過(guò)完備字典D和原始數(shù)據(jù)y的情況下,求解對(duì)應(yīng)的稀疏系數(shù),求解過(guò)程就是解決如下的?0最小化問(wèn)題:min0 s.t. D-y22 5這是一個(gè)NP?Hard問(wèn)題,文獻(xiàn)13證明在一定條件下將式5改為?1最小化問(wèn)題:這兩個(gè)優(yōu)化問(wèn)題是等效的,而式6是凸優(yōu)化問(wèn)題,可以使用線性規(guī)劃方法來(lái)解決。目前較常用的解決式6的方法有?1?magic算法和?1LS算法。1 對(duì)所有訓(xùn)

9、練樣本進(jìn)展如上文所述的處理,即分區(qū)域、有重疊采樣、離散余弦變換;2 對(duì)獲得的所有這些低維特征向量使用K?SVD算法進(jìn)展字典學(xué)習(xí),獲得過(guò)完備字典D;對(duì)每個(gè)區(qū)域,使用下面的式子來(lái)獲得該區(qū)域的特征向量:hr=1nri=1nrr,i 7式中nr為第r個(gè)區(qū)域的取樣小圖像塊總數(shù)。由于在稀疏表示時(shí)r,i中可能含有負(fù)數(shù),而假設(shè)直接用這種帶負(fù)數(shù)的稀疏系數(shù)代入到式7中會(huì)損失很多信息,對(duì)此問(wèn)題找到了3種解決方法:1 使用非負(fù)的稀疏分解14;2 將負(fù)數(shù)系數(shù)與正數(shù)系數(shù)分為兩個(gè)向量,這樣我們要處理的數(shù)據(jù)維度將增加一倍,但實(shí)際數(shù)據(jù)量的增加不大;3 簡(jiǎn)單的對(duì)每個(gè)低維特征向量求絕對(duì)值。最終通過(guò)實(shí)驗(yàn)發(fā)現(xiàn)簡(jiǎn)單易行的第3種方法就可以

10、得到良好的結(jié)果。經(jīng)過(guò)以上步驟各個(gè)區(qū)域的特征向量就組成了整幅圖像的特征,圖1為本文特征提取流程的圖1所示。圖1 本文特征提取方法流程1.3 識(shí)別方法本文的識(shí)別方法為相似度比較方法,兩張人臉圖像間的間隔 可以用下式進(jìn)展計(jì)算: drawA,B=1nr=1nhAr-hBr1 8式8中的間隔 計(jì)算方法受圖像間的光照變化,角度變化等影響太大,所以我們使用文獻(xiàn)9中提出的同群歸一化Cohort Normalization方法來(lái)計(jì)算圖像A和B之間的歸一化間隔 :dnormA,B=drawA,B121mi=1mdrawA,Ci+1mi=1mdrawB,Ci 9式中:Ci是第i個(gè)同群人臉圖像;m為總的同群圖像數(shù)。在

11、式9中,所有同群人臉圖像是不同于A和B的隨機(jī)選取的人臉圖像,這款式9中的分母局部可以度量A和B與不同于他們的圖像間的平均間隔 ,dnormA,B越接近1那么表示A和B屬于不同的人,dnormA,B越小在小于1的情況下越表示A和B屬于同一個(gè)人,即dnormA,B越小,A和B的相似度越高。而且由于引入了同群人臉圖像,式9對(duì)測(cè)試人臉圖像中的光照變化、角度變化等都是不敏感的。這樣對(duì)于一個(gè)測(cè)試樣本,將它的特征向量分別與各個(gè)類(lèi)別的基準(zhǔn)人臉圖像計(jì)算歸一化間隔 ,測(cè)試樣本的類(lèi)別就是與其歸一化間隔 最小的基準(zhǔn)人臉圖像的類(lèi)別,如下式:式中:Ftest為測(cè)試人臉圖像;Fi為各類(lèi)別的基準(zhǔn)人臉圖像;c為人臉類(lèi)別數(shù)。2

12、實(shí)驗(yàn)與結(jié)果分析2.1 實(shí)驗(yàn)數(shù)據(jù)庫(kù)圖2 extended Yale B中一人的人臉圖像FERET數(shù)據(jù)庫(kù)中那么包含了更多的鏡頭角度變化,如圖3所示。圖3 FERET中一人的人臉圖像2.2 實(shí)驗(yàn)方法2.3 實(shí)驗(yàn)結(jié)果表1 本文方法和相關(guān)方法在extended Yale B上的實(shí)驗(yàn)結(jié)果 %表2為本文方法和相關(guān)方法在FERET上的實(shí)驗(yàn)結(jié)果比照,由于FERET上各個(gè)類(lèi)別的人臉數(shù)目都較少,可以看出本文的方法明顯優(yōu)于其他方法。表2 本文方法和相關(guān)方法在FERET上的實(shí)驗(yàn)結(jié)果 %3 結(jié) 語(yǔ)本文提出了一種基于離散余弦變換和稀疏表示的人臉識(shí)別方法,這種方法結(jié)合了稀疏表示和多區(qū)域直方圖方法的優(yōu)點(diǎn),在訓(xùn)練樣本較少時(shí),本文

13、方法的實(shí)驗(yàn)結(jié)果明顯優(yōu)于傳統(tǒng)的基于人臉整體特征的方法,在訓(xùn)練樣本足夠多時(shí),本文方法也到達(dá)了良好的識(shí)別效果。本文下一步的工作是進(jìn)一步優(yōu)化算法性能,使其滿足實(shí)時(shí)的人臉識(shí)別系統(tǒng)的要求。參考文獻(xiàn)2 李武軍,王崇駿,張煒,等.人臉識(shí)別研究綜述J.形式識(shí)別與人工智能,2006,191:58?66.4 YANG M, ZHANG L. Gabor feature based sparse representation for face recognition with gabor occlusion dictionary C/ European Conference on Computer Vision. Berlin Heidelberg: s.n., 2021: 448?461.8 LIU C, WECHSLER H. Gabor feat

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論