![基于線性子空間模型的人臉識(shí)別_第1頁](http://file4.renrendoc.com/view/2683364d131c84834e908c5e2ed0332b/2683364d131c84834e908c5e2ed0332b1.gif)
![基于線性子空間模型的人臉識(shí)別_第2頁](http://file4.renrendoc.com/view/2683364d131c84834e908c5e2ed0332b/2683364d131c84834e908c5e2ed0332b2.gif)
![基于線性子空間模型的人臉識(shí)別_第3頁](http://file4.renrendoc.com/view/2683364d131c84834e908c5e2ed0332b/2683364d131c84834e908c5e2ed0332b3.gif)
![基于線性子空間模型的人臉識(shí)別_第4頁](http://file4.renrendoc.com/view/2683364d131c84834e908c5e2ed0332b/2683364d131c84834e908c5e2ed0332b4.gif)
![基于線性子空間模型的人臉識(shí)別_第5頁](http://file4.renrendoc.com/view/2683364d131c84834e908c5e2ed0332b/2683364d131c84834e908c5e2ed0332b5.gif)
下載本文檔
版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
基于線性子空間模型的人臉識(shí)別
1基于gls模型的人臉識(shí)別面部圖像變化的主要原因是面部姿勢(shì)、面部表情和照明變化。在這些因素中光照的變化在很大程度上影響了圖像了像素值,且不易控制,成為影響算法性能的重要因素。因此,一個(gè)較理想的人臉識(shí)別算法應(yīng)該對(duì)光照變化具有較強(qiáng)的魯棒性。目前人臉識(shí)別中有四種處理光照變化的方法,即圖像預(yù)處理方法、抽取具有光照魯棒性的局部特征點(diǎn)方法、基于類的統(tǒng)計(jì)方法和基于模型的方法。BASRI等人研究表明,基于模型的方法比前三種方法更適合于識(shí)別光照變化下的人臉圖像。本文在線性子空間模型的基礎(chǔ)上,提出一種基于GLS(GroupedLinearSubspace)模型的人臉識(shí)別方法。該方法適用于不同光照下具有正面頭部姿勢(shì)和自然面部表情的人臉圖像。該方法利用訓(xùn)練圖像的表面法線方向?qū)D像像素分組,為每個(gè)組的像素構(gòu)造線性子空間模型,計(jì)算測(cè)試圖像與GLS模型中所有分組的線性子空間模型間的距離之和,進(jìn)而識(shí)別人臉圖像。2圖像時(shí)空的構(gòu)成根據(jù)Lambertian模型,在點(diǎn)光源照射下的凸物體表面像素亮度為i=max(rnΤs,0)其中r是表面反射率;n是表面法線;s是方向與光源方向相同且大小等于光源亮度的向量。rnTs<0的點(diǎn)處于其他像素的陰影中。用L表示光源數(shù)量,多光源照射的圖像上全部像素的亮度可以表示為Ι=L∑j=1max(Bsj,0)其中I∈RN×1是圖像像素的向量形式;B∈RN×3是以每個(gè)像素對(duì)應(yīng)的rnT為行的矩陣;N是圖像中像素的數(shù)量。BELHUMEUR和KRIEGMAN提出圖像I位于圖像空間的一個(gè)凸多面錐中,并證明了錐中的每一個(gè)圖像都可以用凸組合表示xij=max(Bsij,0)其中sij=bi×bj,bi和bj表示B的不同行。該錐即物體在不同光照下的空間模型。線性子空間模型的基本思想是:忽略像素處于其他像素陰影中的情況,將像素亮度表示為Ι=L∑j=1Bsj=BsΤ。圖像I位于B的三列張成的線性子空間中,此子空間通過對(duì)不同光照下的至少三個(gè)圖像實(shí)施PCA變換得到。人臉識(shí)別的依據(jù)是被測(cè)試圖像與該子空間的距離。3像素法線間夾角的影響線性子空間模型不適合于具有陰影的人臉識(shí)別,GLS模型試圖彌補(bǔ)此不足。像素法線間夾角的減小使其在彼此陰影中的幾率減小,如圖1所示。故GLS模型根據(jù)表面法線方向相近的原則將像素分組,為每個(gè)組建立相應(yīng)的線性子空間模型。3.1gls模型距離定義設(shè)有M個(gè)人,每個(gè)人有P幅不同光照下得到的正面圖像。用Imp表示第m個(gè)人的第p個(gè)圖像,將每一個(gè)人的人臉圖像分成兩組,第一組包含每個(gè)人的前P1個(gè)圖像,第二個(gè)組包含剩下的所有圖像P2;用表示Imp與第s個(gè)GLS模型之間的距離。由于s=p時(shí),βsRD(m,p)表示測(cè)試圖像與正確的GLS模型間的距離;s≠p時(shí),βsRD(m,p)表示測(cè)試圖像與其他GLS模型間的距離。因此,定義衡量標(biāo)準(zhǔn)Ω(R,D)為Ω(R,D)=1ΜΡ2Μ∑m=1Ρ∑p=Ρ1+1{[1m-1Μ∑s=1s≠pβ′sRD(m,p)]-β′pRD(m,p)}(1)式中β′pRD(m,p)是βpRD(m,p)的標(biāo)準(zhǔn)化結(jié)果:β′sRD(m,p)=[βsRD(m,p)-meanRD]/√varRD;meanRD是所有測(cè)試圖像到GLS模型距離的平均值,meanRD=1Μ2Ρ2Μ∑s=1Μ∑m=1Ρ∑p=Ρ1+1βsRD(m,p);varRD是所有βpRD(m,p)的標(biāo)準(zhǔn)差,varRD=1Μ2Ρ2Μ∑s=1Μ∑m=1Ρ∑p=Ρ1+1[βsRD(m,p)-meanRD]2。該標(biāo)準(zhǔn)從測(cè)試圖像與所有其它GLS模型的平均距離中減去與正確模型間的距離,然后將全部測(cè)試圖像的這種距離相加。Ω(R,D)越大,表示由該參數(shù)組確定的GLS模型的識(shí)別能力越強(qiáng)。3.2pp3個(gè)不同光照下聚類p為避免使用人臉的三維模型,對(duì)像素分組的步驟為:首先,利用SVD方法為P(P≥3)個(gè)不同光照下的訓(xùn)練圖像找到最好的三維基,將其作為列得到矩陣C;其次,使用K平均算法聚類C的行得到分組。聚類標(biāo)準(zhǔn)是法線間的角度d(n1,n2)=cos-1[nΤ1n2/(|n1||n2|)]。3.3gls模型人臉識(shí)別利用GLS模型進(jìn)行人臉識(shí)別的訓(xùn)練步驟為:步驟一,在具有近似正面姿勢(shì)和自然表情的前提下,分別得到M個(gè)人在不同光照下的P幅人臉圖像;步驟二,利用公式Ι′mp=Ιmp/ˉΙmp標(biāo)準(zhǔn)化每一個(gè)圖像。其中,Imp表示第m個(gè)人的第p幅圖像,ˉΙmp表示像素平均值;步驟三,對(duì)于每個(gè)人的P幅圖像,計(jì)算1ΡΡ∑p=1Ι′mpΙΤmp的特征值并將其從大到小排列,利用前3個(gè)特征值對(duì)應(yīng)的特征向量作為C的列。利用K平均聚類法將C的行聚類為R組;步驟四,對(duì)于每個(gè)分組,計(jì)算1ΡΡ∑p=1Ι′(r)mpΙ′(r)Τmp的特征值并將其從大到小排列,利用前D個(gè)特征值對(duì)應(yīng)的特征向量確定D維線性子空間。I′(r)mp表示I′mp的像素中位于第r個(gè)區(qū)域中的像素。利用GLS模型進(jìn)行人臉識(shí)別的識(shí)別步驟為:步驟一,利用公式Ι′x=Ιx/ˉΙx標(biāo)準(zhǔn)化測(cè)試圖像;步驟二,利用公式βsRD(x)=R∑r=1|Ι′(r)x-Ι′(r)xsΡroj|計(jì)算I′s到第s個(gè)GLS模型之間的距離,Ix′(r)表示Ix′的像素中位于第r個(gè)區(qū)域中的像素,IxsΡroj′(r)表示Ix′(r)向第s個(gè)GLS模型的第r個(gè)分組的線性子空間上的投影。用Es(r)表示列為1Ρ∑p=1ΡΙmp′ΙmpΤ的前D個(gè)最大特征向量構(gòu)成的矩陣,則IxsΡroj′(r)=E(r)sE(r)TsIx′(r);步驟三,找到使βsRD(x)最小的s值,即得識(shí)別結(jié)果。4實(shí)驗(yàn)與分析4.1d參數(shù)組的計(jì)算選擇HRL數(shù)據(jù)庫的一個(gè)子集。其中包含8個(gè)人,每個(gè)人有40幅在不同光照下獲取的正面圖像組成,即M=8,P=40。旋轉(zhuǎn)圖像使得雙眼的連線水平,并將圖像裁剪到40×40像素大小。選擇P=9,利用標(biāo)準(zhǔn)Ω(R,D)評(píng)價(jià)下面的R和D參數(shù)組{12?22?32??,172,182}×{1,2,?,8,9}結(jié)果如圖2所示。由圖可知,R≤10×10時(shí),Ω(R,D)隨著D的增大而增大,故當(dāng)分組數(shù)較小時(shí),應(yīng)盡可能多選擇訓(xùn)練圖像;當(dāng)R>10×10時(shí),聚類變得很小,同一個(gè)分組內(nèi)的表面法線方向十分接近,模型需要低維的子空間;對(duì)于給定的D,Ω(R,D)的值隨著R=1到R為最優(yōu)值時(shí)逐漸增大,這種增長(zhǎng)速度隨著R的增大而變慢。由于計(jì)算量隨著R的增大而增加,因此在確保對(duì)模型性能影響不大的前提下,可以選擇較小的R值。表1給出了與D對(duì)應(yīng)的R的取值范圍,該范圍確保Ω(R,D)大于最優(yōu)值的90%。由于計(jì)算量的原因,通常希望R值盡量小,故應(yīng)選擇R取值范圍的左邊界值。4.2基于gls的圖像對(duì)比使用CMUPIE人臉數(shù)據(jù)庫對(duì)GLS算法的識(shí)別性能進(jìn)行測(cè)試。該數(shù)據(jù)庫中有66個(gè)人,每個(gè)人有42幅不同光照下的正面人臉圖像。本文將這些圖像分別旋轉(zhuǎn)使雙眼連線水平,并將其裁剪至40×40像素大小。按照光源與照相機(jī)夾角增加的順序排列這些圖像,并將其分成4個(gè)子集,夾角范圍分別是[0,12),[12,25),[25,50)和[50,75)。這樣,每個(gè)子集分別包含一個(gè)人的2個(gè)、12個(gè)、20個(gè)和8個(gè)圖像。每個(gè)子集中的圖像分別是132個(gè),792個(gè),1320個(gè)和528個(gè)。對(duì)于每一個(gè)人,分別從第一個(gè)子集中選擇1個(gè)人臉圖像,從第二個(gè)子集中選擇3個(gè)人臉圖像組成訓(xùn)練集,即子空間維數(shù)D=4。由表1得知,分組數(shù)R=64。再分別將第一個(gè)子集的剩余圖像,第二個(gè)子集的剩余圖像,第三個(gè)子集和第四個(gè)子集作為測(cè)試集。利用上述訓(xùn)練集和測(cè)試集分別對(duì)Eigenfaces、ICA、3維線性子空間、4維線性子空間和GLS等5種方法的性能進(jìn)行測(cè)試,識(shí)別錯(cuò)誤率如表2所示。由表2得知,GLS算法識(shí)別錯(cuò)誤率最低,識(shí)別效果最好。這是因?yàn)閷D像表面的像素按照表面法線方向相近的原則進(jìn)行分組,從而降低了像素陰影帶來的誤差。將上述識(shí)別過程分別應(yīng)用于CMUPIE人臉數(shù)據(jù)庫中圖像的紅色、綠色和藍(lán)色通道。識(shí)別錯(cuò)誤率如表3所示。結(jié)果表明,GLS算法在三個(gè)通道上的識(shí)別效果均優(yōu)于其他人臉識(shí)別算法。4.3gls算法測(cè)試實(shí)驗(yàn)結(jié)果使用YaleB人臉數(shù)據(jù)庫對(duì)GLS算法的性能進(jìn)行統(tǒng)計(jì)測(cè)試。該庫有10個(gè)人,每人有45幅圖像。用M表示數(shù)據(jù)庫中的人數(shù),P表示每個(gè)人的圖像數(shù),Imp表示第m個(gè)人的第p幅人臉圖像,則M=10,P=45;按照光源與照相機(jī)間角度增加的順序排列這些圖像并將其分成兩個(gè)子集,第一個(gè)是訓(xùn)練集,包含每個(gè)人的前9幅圖像,第二個(gè)是測(cè)試集,包含每人剩下的36幅圖像。在每個(gè)測(cè)試過程中,任意選擇一個(gè)人的6幅訓(xùn)練圖像。由表1知,R=25。在保證每種光照出現(xiàn)一次的情況下,從測(cè)試集中任意選擇36幅圖像組成測(cè)試樣本集。本次實(shí)驗(yàn)共創(chuàng)建400個(gè)測(cè)試樣本集,表4給出了其中5個(gè)。圖3是使用GLS方法對(duì)庫中第一個(gè)人臉圖像的分組結(jié)果。對(duì)于每一個(gè)測(cè)試樣本集,均測(cè)試Eigenfaces、ICA、3維線性子空間、4維線性子空間和GLS等5種方法的性能。用αt(i)表示第t種方法在第i次測(cè)試時(shí)的識(shí)別率。為比較第t和第r種算法,令δtr(i)=αt(i)-αr(i)。對(duì)于400個(gè)測(cè)試集,δ5r(i)(r=1,2,3,4)的直方圖如圖4所示。假設(shè):{Η0:E{δtr}≤0Η1:E{δtr}>0(2)式中E{δtr}表示隨機(jī)變量的期望值。用T表示樣本的數(shù)量,Vδtr表示δtr(i)標(biāo)準(zhǔn)差的平方,取顯著性標(biāo)準(zhǔn)為0.005,則若(Τ/Vδtr)(δˉtr-0)>2.58,即δˉtr∈(2.58Vδtr/Τ,∞)時(shí),可以否定H0而接受H1。對(duì)于要比較的每?jī)煞N算法,計(jì)算上區(qū)間和δˉtr值。計(jì)算結(jié)果如表5所示。由圖4和表5均可得知,GLS在處理不同光照下的人臉圖像時(shí),性能明顯優(yōu)于其他4種方法。5像素的表面法線方向提出GLS模型并將其用于不同光照下的人臉識(shí)別。為了解決線
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 2025年度建筑裝修材料采購合同標(biāo)準(zhǔn)版
- 2025年度管溝施工勞務(wù)施工方案編制合同
- 2025年度合伙開設(shè)社區(qū)水果便利店合同范本
- 2025年度工地小包工頭施工勞務(wù)合同標(biāo)準(zhǔn)范本
- 2025年度智能辦公設(shè)備采購合同范本
- 2025年度國(guó)際建筑設(shè)備進(jìn)出口貿(mào)易合同范本
- 2025年度地下綜合管廊施工勞務(wù)合作合同樣本
- 2025年度城市綠化帶景觀裝修施工合同
- 2025年度家電生產(chǎn)設(shè)備采購合同標(biāo)準(zhǔn)
- 2025年度商業(yè)綜合體空?qǐng)龅刈赓U合同標(biāo)準(zhǔn)范本
- 2025年度高端商務(wù)車輛聘用司機(jī)勞動(dòng)合同模板(專業(yè)版)4篇
- GB/T 45107-2024表土剝離及其再利用技術(shù)要求
- 五年級(jí)上冊(cè)脫式計(jì)算100題及答案
- 2006年度銀行業(yè)金融機(jī)構(gòu)信息科技風(fēng)險(xiǎn)評(píng)價(jià)審計(jì)要點(diǎn)
- 火災(zāi)隱患整改登記表
- 普通地質(zhì)學(xué)教材
- 反恐C-TPAT程序文件整套(通用)
- 2022年全國(guó)高考詩歌鑒賞試題-教學(xué)課件
- 天津華寧KTC101說明書
- 2023-2024學(xué)年浙江省杭州市小學(xué)語文六年級(jí)上冊(cè)期末深度自測(cè)試題
- 縣道及以上公路保潔考核檢查評(píng)分表
評(píng)論
0/150
提交評(píng)論