基于PCA和BP神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別方法_第1頁(yè)
基于PCA和BP神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別方法_第2頁(yè)
基于PCA和BP神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別方法_第3頁(yè)
基于PCA和BP神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別方法_第4頁(yè)
基于PCA和BP神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別方法_第5頁(yè)
已閱讀5頁(yè),還剩15頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、基于PCA和BP神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別方法摘要:基于PCA和BP神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別方法是針對(duì)PCA方法中存在的問(wèn)題和它對(duì)未訓(xùn)練過(guò)的樣本識(shí)別率低的缺點(diǎn)而提出的。該方法在預(yù)處理的基礎(chǔ)上,利用PCA處理人臉特征,提取其中分類(lèi)能力強(qiáng)的特征,實(shí)現(xiàn)在識(shí)別精度不變的情況下,有效的去除冗余信息;然后將約簡(jiǎn)后的屬性輸入到神經(jīng)網(wǎng)絡(luò)進(jìn)行規(guī)則提取,利用神經(jīng)網(wǎng)絡(luò)非線(xiàn)性映射和并行處理的特點(diǎn),增強(qiáng)對(duì)人臉圖像識(shí)別的泛化能力。實(shí)驗(yàn)證明,使用該方法在識(shí)別率上有一定的提高。關(guān)鍵詞:人類(lèi)識(shí)別、BP神經(jīng)網(wǎng)絡(luò)、PCA、特征提取引言人臉識(shí)別特指利用分析比較人臉視覺(jué)特征信息進(jìn)行身份鑒別的計(jì)算機(jī)技術(shù)。人臉識(shí)別是一項(xiàng)熱門(mén)的計(jì)算機(jī)技術(shù)研究領(lǐng)域,可以將

2、人臉明暗偵測(cè),自動(dòng)調(diào)整動(dòng)態(tài)曝光補(bǔ)償,人臉追蹤偵測(cè),自動(dòng)調(diào)整影像放大;它屬于生物特征識(shí)別技術(shù),是對(duì)生物體(一般特指人)本身的生物特征來(lái)區(qū)分生物體個(gè)體。進(jìn)行人臉圖像識(shí)別研究具有很大的使用價(jià)值。如同人的指紋一樣,人臉也具有唯一性,也可用來(lái)鑒別一個(gè)人的身份?,F(xiàn)在己有實(shí)用的計(jì)算機(jī)自動(dòng)指紋識(shí)別系統(tǒng)面世,并在安檢等部門(mén)得到應(yīng)用,但還沒(méi)有通用成熟的人臉自動(dòng)識(shí)別系統(tǒng)出現(xiàn)。人臉圖像的自動(dòng)識(shí)別系統(tǒng)較之指紋識(shí)別系統(tǒng)、DNA鑒定等更具方便性,因?yàn)樗臃奖?,可以不接觸目標(biāo)就進(jìn)行識(shí)別,從而開(kāi)發(fā)研究的實(shí)際意義更大。并且與指紋圖像不同的是,人臉圖像受很多因素的干擾:人臉表情的多樣性;以及外在的成像過(guò)程中的光照,圖像尺寸,旋轉(zhuǎn)

3、,姿勢(shì)變化等。使得同一個(gè)人,在不同的環(huán)境下拍攝所得到的人臉圖像不同,有時(shí)更會(huì)有很大的差別,給識(shí)別帶來(lái)很大難度。因此在各種干擾條件下實(shí)現(xiàn)人臉圖像的識(shí)別,也就更具有挑戰(zhàn)性。當(dāng)前大多數(shù)人臉識(shí)別算法是基于統(tǒng)計(jì)的方法,如特征臉?lè)椒ǎ≒CA)、Fisher臉?lè)椒?、奇異值分解方法、神?jīng)網(wǎng)絡(luò)方法和支持向量機(jī)等,這些方法中影響較大的是Turk和Pentland提出的特征臉(EigenFace)方法即PCA方法。PCA是基于主元分析的特征提取,把所有的不同人臉的樣本放在一起提取,以所有人的人臉樣本最優(yōu)重建為目的。因此,對(duì)于人臉樣本之間的差異而言它存在著明顯的缺陷,從這方面講它來(lái)描述人臉識(shí)別的特征是不充分的。而且它

4、對(duì)未訓(xùn)練過(guò)的樣本識(shí)別率較低,所以我們可提出一種基于PCA和BP神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別方法。1、系統(tǒng)設(shè)計(jì)的基本原理PCA的基本原理主成分分析(PrincipalComponentAnalysis,PCA)或者主元分析。是一種掌握事物主要矛盾的統(tǒng)計(jì)分析方法,它可以從多元事物中解析出主要影響因素,揭示事物的本質(zhì),簡(jiǎn)化復(fù)雜的問(wèn)題。計(jì)算主成分的目的是將高維數(shù)據(jù)投影到較低維空間。給定n個(gè)變量的m個(gè)觀察值,形成一個(gè)n的數(shù)據(jù)矩陣,n通常比較大。對(duì)于一個(gè)由多個(gè)變量描述的復(fù)雜事物,人們難以認(rèn)識(shí),那么是否可以抓住事物主要方面進(jìn)行重點(diǎn)分析呢?如果事物的主要方面剛好體現(xiàn)在幾個(gè)主要變量上,我們只需要將這幾個(gè)變量分離出來(lái),進(jìn)行

5、詳細(xì)分析。但是,在一般情況下,并不能直接找出這樣的關(guān)鍵變量。這時(shí)我們可以用原有變量的線(xiàn)性組合來(lái)表示事物的主要方面,PCA就是這樣一種分析方法。舉一個(gè)例子來(lái)說(shuō),對(duì)于一個(gè)訓(xùn)練集,100個(gè)對(duì)象模板,特征是10維,那么它可以建立一個(gè)100*10的矩陣,作為樣本。求這個(gè)樣本的協(xié)方差矩陣,得到一個(gè)10*10的協(xié)方差矩陣,然后求出這個(gè)協(xié)方差矩陣的特征值和特征向量,應(yīng)該有10個(gè)特征值和特征向量,我們根據(jù)特征值的大小,取前四個(gè)特征值所對(duì)應(yīng)的特征向量,構(gòu)成一個(gè)10*4的矩陣,這個(gè)矩陣就是我們要求的特征矩陣,100*10的樣本矩陣乘以這個(gè)10*4的特征矩陣,就得到了一個(gè)100*4的新的降維之后的樣本矩陣,每個(gè)特征的

6、維數(shù)下降了。當(dāng)給定一個(gè)測(cè)試的特征集之后,比如1*10維的特征,乘以上面得到的10*4的特征矩陣,便可以得到一個(gè)1*4的特征,用這個(gè)特征去分類(lèi)。所以做PCA實(shí)際上是求得這個(gè)投影矩陣,用高維的特征乘以這個(gè)投影矩陣,便可以將高維特征的維數(shù)下降到指定的維數(shù)。BP神經(jīng)網(wǎng)絡(luò)基本原理BP(BackPropagation)網(wǎng)絡(luò)是一種按誤差逆?zhèn)鞑ニ惴ㄓ?xùn)練的多層前饋網(wǎng)絡(luò),是目前應(yīng)用最廣泛的神經(jīng)網(wǎng)絡(luò)模型之一。BP網(wǎng)絡(luò)能學(xué)習(xí)和存貯大量的輸入-輸出模式映射關(guān)系,而無(wú)需事前揭示描述這種映射關(guān)系的數(shù)學(xué)方程。它的學(xué)習(xí)規(guī)則是使用最速下降法,通過(guò)反向傳播來(lái)不斷調(diào)整網(wǎng)絡(luò)的權(quán)值和閾值,使網(wǎng)絡(luò)的誤差平方和最小。BP神經(jīng)網(wǎng)絡(luò)模型拓?fù)浣Y(jié)構(gòu)

7、包括輸入層(input)、隱層(hidelayer)人工神經(jīng)網(wǎng)絡(luò)是由簡(jiǎn)單的處理單元所組成的大量并行分布的處理機(jī),這種處理機(jī)具有存儲(chǔ)和應(yīng)用經(jīng)驗(yàn)知識(shí)的自然特性,它與人腦的相似之處概括為兩個(gè)方面:一是通過(guò)學(xué)習(xí)過(guò)程利用神經(jīng)網(wǎng)絡(luò)從外部環(huán)境中獲取知識(shí);二是內(nèi)部神經(jīng)元用來(lái)存儲(chǔ)獲取的知識(shí)信息。BP神經(jīng)網(wǎng)絡(luò)是采用有教師學(xué)習(xí)算法的典型的多層前向神經(jīng)網(wǎng)絡(luò)。它具有強(qiáng)大的計(jì)算能力,能通過(guò)訓(xùn)練掌握學(xué)習(xí)樣本蘊(yùn)含的輸入輸出映射關(guān)系,在分類(lèi)和預(yù)測(cè)當(dāng)中都有著廣泛的應(yīng)用。輸人層輸出層圖1單層前饋網(wǎng)絡(luò)圖2多層前饋網(wǎng)絡(luò)2、系統(tǒng)設(shè)計(jì)思路采用PCA+最鄰近分類(lèi)器來(lái)演示一個(gè)簡(jiǎn)單的人臉識(shí)別系統(tǒng)。采用PCA+最鄰近分類(lèi)器針對(duì)ORL人臉數(shù)據(jù)庫(kù)計(jì)算

8、其識(shí)別率。采用PCA+BP神經(jīng)網(wǎng)絡(luò)針對(duì)ORL人臉數(shù)據(jù)庫(kù)來(lái)探索PCA維數(shù),BP神經(jīng)網(wǎng)絡(luò)各參數(shù)對(duì)人臉識(shí)別率的影響。本設(shè)計(jì)主要介紹第三種設(shè)計(jì)方法,選取影響較大的特征臉?lè)椒?,即PCA人臉識(shí)別方法進(jìn)行研究,針對(duì)特征臉?lè)椒ㄌ崛〕龅奶卣骶S數(shù)過(guò)高和姿態(tài)變化時(shí)泛化能力不強(qiáng)的缺點(diǎn),提出一種PCA和神經(jīng)網(wǎng)絡(luò)相結(jié)合的人臉識(shí)別方法。該方法首先,運(yùn)用PCA方法對(duì)人臉圖像進(jìn)行特征提?。蝗缓?,對(duì)PCA方法提取的特征按照屬性重要度的大小進(jìn)一步進(jìn)行約簡(jiǎn),只保留那些屬性重要度比較大的屬性;最后,將提取出的最終人臉特征輸入神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練和識(shí)別。開(kāi)始樣本矩陣求出協(xié)方差矩陣計(jì)算特征值特征值從大到小排序選出了滿(mǎn)足要求的前q個(gè)特征值計(jì)算對(duì)

9、應(yīng)特征向量投影矩陣圖3PCA流程圖圖4BP神經(jīng)網(wǎng)絡(luò)流程圖(1)基本流程:1)將原始人臉圖像集A中的每幅圖像進(jìn)行尺寸歸一化處理,得到歸一化后的人臉圖像集;2)利用經(jīng)典PCA方法計(jì)算特征子空間以及每張人臉在特征子空間中的投影系數(shù)。其中特征子空間由按特征值大小進(jìn)行降序排列的特征向量組成;3)按照重要度選擇特征子空間中屬性重要度大的特征主分量;4)將選擇出的重要度大的特征主分量輸入BP神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,直到神經(jīng)網(wǎng)絡(luò)收斂或滿(mǎn)足停止訓(xùn)練的條件;5)識(shí)別過(guò)程。(2)人臉空間的建立假設(shè)一幅人臉圖像包含N個(gè)像素點(diǎn),它可以用一個(gè)N維向量PI表示。這樣,訓(xùn)練樣本庫(kù)就可以用P(i=l,,M)表示。協(xié)方差矩陣C的正交特

10、征向量就是組成人臉空間的基向量,即特征臉。將特征值由大到小排列:X1X2.Xr,其對(duì)應(yīng)的特征向量為s。這樣每一幅k人臉圖像都可以投影到由ul,u2,.,ur張成的子空間中。因此,每一幅人臉圖像對(duì)應(yīng)于子空間中的一點(diǎn)。同樣,子空間的任意一點(diǎn)也對(duì)應(yīng)于一幅圖像。(3)特征向量的選取雖然協(xié)方差矩陣Q最多有對(duì)應(yīng)于非零特征值的k(k遠(yuǎn)小于M)個(gè)特征向量,但是通常情況下,k仍然很大,而事實(shí)上,根據(jù)應(yīng)用的要求,并非所有的特征向量都有需要保留,而特征空間投影的計(jì)算速度是直接與創(chuàng)建子空間所用的特征向量的數(shù)目相關(guān),若考慮到計(jì)算時(shí)間的因素,可以適當(dāng)?shù)臏p去一些信息量少的特征向量,而且,去掉這些特征向量之后不一定不利于分類(lèi)

11、結(jié)果,有的情況下反而能夠提高識(shí)別性能。(4)BP神經(jīng)網(wǎng)絡(luò)的算法BP學(xué)習(xí)算法實(shí)際包含了兩類(lèi)信號(hào)不同方向的傳播過(guò)程,一類(lèi)是施加輸入信號(hào)由輸入層經(jīng)隱層到輸出層,產(chǎn)生輸出響應(yīng)的“輸入模式正向傳播”過(guò)程;另一類(lèi)是希望輸出與實(shí)際輸出之間的誤差信號(hào)由輸出層返回隱層和輸入層,反向逐層修正連接權(quán)值和神經(jīng)元輸出閾值的“誤差逆?zhèn)鞑ァ边^(guò)程?!拜斎肽J秸騻鞑ァ焙汀罢`差逆?zhèn)鞑ァ边^(guò)程反復(fù)交替進(jìn)行網(wǎng)絡(luò)訓(xùn)練,最終達(dá)到網(wǎng)絡(luò)的全局誤差向極小值收斂(即實(shí)際輸出逐漸逼近希望輸出)而結(jié)束學(xué)習(xí)過(guò)程。BP學(xué)習(xí)算法具體編程步驟:初始化;2提供訓(xùn)練樣本;3.輸入模式正向傳播過(guò)程計(jì)算;4誤差的逆?zhèn)鞑ミ^(guò)程計(jì)算;各層網(wǎng)絡(luò)權(quán)值和閾值的修正計(jì)算;返回提

12、供訓(xùn)練樣本步驟重新計(jì)算直到全局誤差E,或者達(dá)到最大學(xué)習(xí)次數(shù)結(jié)束學(xué)習(xí);3、實(shí)驗(yàn)結(jié)果及分析1)PCA+最鄰近分類(lèi)器人臉識(shí)別系統(tǒng)實(shí)驗(yàn)中選取的圖像經(jīng)過(guò)簡(jiǎn)單的分類(lèi)器識(shí)別后,都能進(jìn)行正確的識(shí)別。在使用該系統(tǒng)時(shí),只需測(cè)試者提供三張頭像圖片,將其壓縮成與原數(shù)據(jù)庫(kù)圖片相同大小,然后2張放入訓(xùn)練數(shù)據(jù)庫(kù),1張用來(lái)測(cè)試。數(shù)據(jù)庫(kù)采用ORL人臉數(shù)據(jù)庫(kù),該數(shù)據(jù)庫(kù)有400張人臉。40個(gè)人,每個(gè)人10張頭像(每個(gè)人每張頭像或表情不同,或傾斜度不同)。設(shè)計(jì)中,每個(gè)人選取前5張頭像,共200張構(gòu)成訓(xùn)練樣本集,另外200張頭像構(gòu)成測(cè)試樣本集。運(yùn)行程序得到識(shí)別率為0.88。2)PCA+BP神經(jīng)網(wǎng)絡(luò)識(shí)別系統(tǒng)數(shù)據(jù)庫(kù)仍采用ORL人臉數(shù)據(jù)庫(kù),

13、先在400張人臉中選取一部分作為訓(xùn)練樣本集,對(duì)其進(jìn)行PCA降維,形成特征臉子空間;再將剩余的人臉作為檢測(cè)集,將其投影到特征臉子空間;采用BP神經(jīng)網(wǎng)絡(luò)對(duì)訓(xùn)練樣本集進(jìn)行訓(xùn)練,然后再用檢測(cè)集進(jìn)行識(shí)別率測(cè)試1、BP神經(jīng)網(wǎng)絡(luò)識(shí)別中存在的問(wèn)題在采用BP神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練過(guò)程中,由于可調(diào)參數(shù)過(guò)多,會(huì)對(duì)識(shí)別率產(chǎn)生一定的影響,故在設(shè)計(jì)中針對(duì)可調(diào)參數(shù)反復(fù)進(jìn)行測(cè)試,對(duì)比來(lái)尋找最快,最優(yōu)識(shí)別的網(wǎng)絡(luò)參數(shù)。下面列出可能影響網(wǎng)絡(luò)性能的各個(gè)參數(shù):(1)BP網(wǎng)絡(luò)訓(xùn)練函數(shù)的選取(2)BP網(wǎng)絡(luò)學(xué)習(xí)速率,迭代次數(shù),誤差,梯度的設(shè)定(3)PCA主成分比例的選?。?)BP網(wǎng)絡(luò)隱層節(jié)點(diǎn)數(shù)的選?。?)訓(xùn)練集和測(cè)試集容量的選取2、網(wǎng)絡(luò)訓(xùn)練函數(shù)的

14、選取當(dāng)采用一般的基于梯度下降的BP網(wǎng)絡(luò)進(jìn)行訓(xùn)練時(shí),由于固定的學(xué)習(xí)速率,有限的迭代次數(shù),較小的設(shè)定誤差和截止梯度,致使網(wǎng)路有較長(zhǎng)的訓(xùn)練時(shí)間,而且還不一定能達(dá)到要求的精度,這會(huì)大大影響識(shí)別率。經(jīng)過(guò)多次訓(xùn)練函數(shù)的嘗試,最終選擇帶有動(dòng)量相的自適應(yīng)學(xué)習(xí)率的訓(xùn)練函數(shù)traingdx。下面表格顯示出了三種訓(xùn)練函數(shù)在訓(xùn)練速度上的對(duì)比:主成分比例嚴(yán)數(shù)據(jù)維數(shù)F隱層節(jié)點(diǎn)數(shù)”識(shí)別率屮誤差盧迭代歸數(shù)屮學(xué)習(xí)率護(hù)訓(xùn)綢函數(shù)函數(shù)存訓(xùn)練時(shí)間s)申420.0001運(yùn)行時(shí)0血缶D一站0.0001w;沒(méi)有記0.9111P4仙。血Q.QW錄:最03111P1孵0.7050.0001W短不低0.9112附0.7150.0001w:于s分0

15、或112化血0.0001W鐘心Q.244加叮&井0.0001P0.72E100*盡管采用添加動(dòng)量相的BP算法,由于學(xué)習(xí)速率固定,網(wǎng)絡(luò)的訓(xùn)練速度仍舊很慢。如果盲目的增加學(xué)習(xí)速率,又會(huì)造成網(wǎng)絡(luò)在某處的波動(dòng)。因此,訓(xùn)練函數(shù)采用帶動(dòng)量相的自適應(yīng)學(xué)習(xí)速率的算法較為合適。修改之后,網(wǎng)絡(luò)的訓(xùn)練時(shí)間均在10s鐘左右,大大提供了識(shí)別速率。3、BP網(wǎng)絡(luò)性能參數(shù)的設(shè)定上表中,為了縮短運(yùn)行時(shí)間,通過(guò)加大截止誤差和設(shè)定迭代次數(shù)的方法來(lái)加快程序運(yùn)行,這樣會(huì)在一定程度上降低識(shí)別率。當(dāng)采用traingdx的訓(xùn)練函數(shù)后,網(wǎng)絡(luò)運(yùn)行速度加快,將截止誤差設(shè)定為0,迭代次數(shù)仍設(shè)定為10000,發(fā)現(xiàn)每次促使訓(xùn)練停止的為默認(rèn)的截止梯度。此

16、時(shí)的網(wǎng)絡(luò)誤差已足夠小。4、維數(shù)、隱層節(jié)點(diǎn)數(shù)的選取1.下面一組實(shí)驗(yàn)將ORL人臉數(shù)據(jù)庫(kù)中每個(gè)人的前9張頭像作為訓(xùn)練集(共360張),第10張頭像作為測(cè)試集(40張);BP網(wǎng)絡(luò)訓(xùn)練函數(shù)為traingdx,截止誤差設(shè)為0,截止迭代次數(shù)為10000,截止梯度為默認(rèn);分別對(duì)PCA主成分為0.8P0.0001中221320.79O.OOOOI&2=2Z圧20.820.000001*2120.72(K匕20.815O.OOOOOU3d2=22加0.20.000001+2購(gòu)W031121000.741.08e-1041扣31122皿“0.74g氐4062oa1121500.7559丸-L24熾3:從上表可以看出

17、:0.7、0.8、0.9,隱層節(jié)點(diǎn)數(shù)為30:10:150下進(jìn)行網(wǎng)絡(luò)訓(xùn)練,并通過(guò)測(cè)試集計(jì)算識(shí)別率得到下表王成廿比例叮卩主成分比例0加主成分比例0*數(shù)據(jù)維數(shù)血數(shù)據(jù)維數(shù)4笄數(shù)摒錐數(shù)10卻隱層節(jié)點(diǎn)數(shù)“識(shí)別率心隱啟節(jié)點(diǎn)數(shù):識(shí)別斡隱啟節(jié)點(diǎn)數(shù)*識(shí)別率“0.825(;3加0.8M:0戲眇0.85000.S25OP0.80000.8505加0.80000.7750妙初曲0.82500.850043720.87500.82500.82500.87500舫血0.8750血0.925(:血血O.875OP100p0舫血JOOp0.875P0.8500P11W0.825011喊颶110.87501220.8000*L2

18、W0.8750:12W0.825(13OP0.850(130P0.90MP1弧O.85Q0P1400鬼血1400.9(W140150p爐150p0.875015(OJOAOp從上表數(shù)據(jù)得出:(1)不同隱層節(jié)點(diǎn)數(shù)時(shí),識(shí)別率變化不大,大多集中在0.8到0.9之間。隱層節(jié)點(diǎn)數(shù)和識(shí)別率不成線(xiàn)性變化,當(dāng)隱層節(jié)點(diǎn)數(shù)增加時(shí),識(shí)別率波動(dòng)變化。這說(shuō)明,隱層節(jié)點(diǎn)數(shù)的選取在一準(zhǔn)則下確定初值后還需要帶進(jìn)網(wǎng)絡(luò)進(jìn)行試湊。(2)當(dāng)PCA選擇不同的主成分比例時(shí),數(shù)據(jù)降到不同的維數(shù),比較不同維數(shù)下的識(shí)別率,幾乎還是集中在0.8到0.9之間。(3)不同維數(shù)下相同的隱層節(jié)點(diǎn)數(shù)不具有可比性。其他參數(shù)不變,將ORL人臉數(shù)據(jù)庫(kù)中每個(gè)人的

19、前8張頭像作為訓(xùn)練集(共320張),后2張頭像作為測(cè)試集(80張);分別對(duì)PCA主成分為0.7、0.8、0.9,隱層節(jié)點(diǎn)數(shù)為30:10:150下進(jìn)行網(wǎng)絡(luò)訓(xùn)練,并通過(guò)測(cè)試集計(jì)算識(shí)別率得到下表:主成分比例上沖主成兌比例0.S4主成分比例0腫數(shù)據(jù)維數(shù)23數(shù)據(jù)維數(shù)A2數(shù)據(jù)維數(shù)W隱層節(jié)點(diǎn)數(shù)申1識(shí)別率衛(wèi)隱層節(jié)點(diǎn)數(shù)門(mén)識(shí)另!率申隱層節(jié)點(diǎn)數(shù)屮識(shí)別率衛(wèi)0.537532O.B51543仙0.825(40P0.875OP0.8875P0.83750.8625P0.9W0.7875620.90000.800070POJOOOPO.925OP0.8375O.S75OPg仙0.SS7543血0.875(颶0.8750PD.

20、900043弧0.86259砂鷲盼0.88751WP0.33750.9250110430.8500120業(yè)21血0.88?5如0.850G+0.9250P1300.90G(P13W.86254仙14t冊(cè)0.8623匕2G.9000*115(0.9125匕20.8375其他參數(shù)不變,將ORL人臉數(shù)據(jù)庫(kù)中每個(gè)人的前7張頭像作為訓(xùn)練集(共280張),后3張頭像作為測(cè)試集(120張);分別對(duì)PCA主成分為0.7、0.8、0.9,隱層節(jié)點(diǎn)數(shù)為30:10:150下進(jìn)行網(wǎng)絡(luò)訓(xùn)練,并通過(guò)測(cè)試集計(jì)算識(shí)別率得到下表:王成甘比例叮卩王成分比例0朋主成竹比例陽(yáng)數(shù)據(jù)維數(shù)珈數(shù)1S維數(shù)3汩數(shù)據(jù)維數(shù)8隱層節(jié)點(diǎn)數(shù)卩識(shí)別率卩隱層

21、節(jié)點(diǎn)數(shù)卩:識(shí)別率存隱層節(jié)點(diǎn)數(shù)衛(wèi)識(shí)別率衛(wèi)0.8417、O.775DP:竝;.77500.8157WO.SCOOp0.8(XX0.8667-0.8500P0.78330.875(O.8833P:娥:0.80837如0.875(O.85ODP7如0.S1W妙10.8567g腫O.85OOP1C.8(XX)gw0.8&67妙0.8833:92|0.8333伽0.875(loopO.8833P站0.7171血01917hopO.875OP11W0.816712W0.875(、12“0.8667心:12W0.85001330.925(1300.8833如0.808314(10.875014O.875OP1

22、40.85831曲O.Q167中150p:0.5000O.S333其他參數(shù)不變,將ORL人臉數(shù)據(jù)庫(kù)中每個(gè)人的前5張頭像作為訓(xùn)練集(共200張),后5張頭像作為測(cè)試集(200張);分別對(duì)PCA主成分為0.7、0.8、0.9,隱層節(jié)點(diǎn)數(shù)為30:10:150下進(jìn)行網(wǎng)絡(luò)訓(xùn)練,并通過(guò)測(cè)試集計(jì)算識(shí)別率得到下表:主成分比例0*主成分比例0腫主成分比例仙數(shù)據(jù)維數(shù)1沖數(shù)據(jù)維數(shù)3如數(shù)據(jù)維數(shù)73隱層節(jié)點(diǎn)數(shù)卩識(shí)別率r隱層節(jié)點(diǎn)數(shù)p識(shí)別率卩隱層節(jié)點(diǎn)數(shù)屮;識(shí)別率|0.665043330血巧20.67500.665f餉0.74500.705(0.6050卩0.76500.735(。.血20.7&?07腫0.7250430馬5

23、0心妙0.7750;妙:0.735(0.65500.7750gw.0.750(颶吠冊(cè)叫0.77001000.735(10O.68(H0.7800:hop:0.7200120.6650權(quán)廝0.7&50P如”畑臥0.67504130OJdCOP1300.7600鼻0.675014E0.7500140p0.725(14Z(.675(150p0.7750P150p-0.725(;15(5、訓(xùn)練集和測(cè)試集容量的選?。?)比較表2到表5中數(shù)據(jù)發(fā)現(xiàn):表2到表4人臉的識(shí)別率變化不大,集中在0.8到0.9之間;表5中整體識(shí)別率明顯小于表2到表4,這說(shuō)明識(shí)別率與訓(xùn)練樣本集存在一定的關(guān)系,訓(xùn)練樣本集越大,包含的信息

24、越多,越容易識(shí)別。(2)從表5中也觀察到:PCA主成分升高,識(shí)別率有了一定程度的減小。這說(shuō)明了,在某些條件下,PCA主成分的比例還是會(huì)影響到識(shí)別率的大小??偨Y(jié)本次課程設(shè)計(jì),我們?cè)诮o定人臉數(shù)據(jù)庫(kù)的前提下,完成了人臉的PCA特征提取,并且會(huì)采用最鄰近分類(lèi)器(歐氏距離)BP神經(jīng)網(wǎng)絡(luò)分類(lèi)器進(jìn)行人臉的模式分類(lèi)及識(shí)別。我們將主要工作集中在了PCA+BP神經(jīng)網(wǎng)絡(luò)識(shí)別系統(tǒng)的研究上。在不斷測(cè)試過(guò)程中,我們得出:(1)固定的學(xué)習(xí)速率會(huì)影響網(wǎng)絡(luò)的訓(xùn)練速度(2)在網(wǎng)絡(luò)訓(xùn)練速度較慢時(shí),截止誤差,迭代次數(shù)都會(huì)影響識(shí)別率(3)相同數(shù)據(jù)下,采用帶動(dòng)量相的自適應(yīng)學(xué)習(xí)率訓(xùn)練函數(shù)(traingdx)可以大大加快網(wǎng)絡(luò)訓(xùn)練速度(4)P

25、CA主成分比例的選取與隱層節(jié)點(diǎn)數(shù)的選擇沒(méi)有得到結(jié)論性成果,只能從數(shù)據(jù)中分析出它們?cè)谀承┣闆r下影響識(shí)別率,因此,設(shè)計(jì)時(shí),它們的選取必須結(jié)合數(shù)據(jù)來(lái)試湊出最佳的識(shí)別方案(5)訓(xùn)練樣本集越大,包含信息越多,越易于識(shí)別遇到的問(wèn)題及后續(xù)研究:設(shè)計(jì)過(guò)程中,不論參數(shù)如何調(diào)整,都不能達(dá)到百分之百的識(shí)別率。在算法原理、程序都無(wú)誤的前提下,只能是遇到方法的瓶頸。后續(xù)工作中,可以從改進(jìn)算法上進(jìn)行入手,也可以從其他算法上進(jìn)行識(shí)別率的對(duì)比研究。致謝在設(shè)計(jì)過(guò)程中,感謝大家從網(wǎng)上找到了許多資料和程序,經(jīng)過(guò)我們共同討論、研究確定了這個(gè)與我們所學(xué)課程相結(jié)合的課題;在編程過(guò)程中,大家對(duì)程序提出了許多寶貴的意見(jiàn),這些對(duì)于我們課題的順

26、利進(jìn)行至關(guān)重要;程序編制完成后,正是在大家的分工合作下,才得到這么多寶貴的數(shù)據(jù);感謝大家這兩個(gè)星期來(lái)的共同努力!經(jīng)過(guò)本次課程設(shè)計(jì),我們組的成員對(duì)PCA降維的原理和使用以及對(duì)BP神經(jīng)網(wǎng)絡(luò)參數(shù)的調(diào)整有了更深刻的掌握;提高了自身matlab的編程能力;同時(shí)對(duì)我們模式識(shí)別的課程進(jìn)行了鞏固。參考文獻(xiàn)1龔勛.PCA與人臉識(shí)別及其理論基礎(chǔ)。2007年4月2蔣遂平.人臉識(shí)別技術(shù)及應(yīng)用簡(jiǎn)介。北京:中國(guó)計(jì)算機(jī)世界出版社,2003年12月司馬江龍,鄧長(zhǎng)壽.基于BP神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別系統(tǒng)。江蘇:九江學(xué)院學(xué)報(bào)(自然科學(xué)版).20114鄭明偉.基于PCA和BP神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別方法。山東:濰坊職業(yè)學(xué)院.2011年9月附錄

27、一:組構(gòu)成及分工組長(zhǎng):馬偃亳組員:杜鵬飛鄭博邢凱麗盧亞南張超李亞萍李莎莎孫源呈朱妍雯王苗苗張曉參路亞緹分工:查找文獻(xiàn)、資料:張超,路亞緹文獻(xiàn)、資料篩選:孫源呈,張曉參人臉數(shù)據(jù)庫(kù)搜索及人臉圖像采集:王苗苗程序編制及調(diào)試:邢凱麗,馬偃亳數(shù)據(jù)采集及結(jié)果分析:盧亞南,杜鵬飛6.ppt制作:李亞萍,鄭博7.課程設(shè)計(jì)報(bào)告:朱妍雯,李莎莎附錄二:程序代碼:1.PCA+最鄰近分類(lèi)器用于簡(jiǎn)單人臉識(shí)別的演示程序:(1)主程序:example.mclearallclccloseall%YoucancustomizeandfixinitialdirectorypathsTrainDatabasePath=uigetd

28、ir(C:UsersAdministratorDesktopidentifyPCA_basedFaceRecognitionSystem,Selecttrainingdatabasepath);TestDatabasePath=uigetdir(C:UsersAdministratorDesktopidentifyPCA_basedFaceRecognitionSystem,Selecttestdatabasepath);prompt=Entertestimagename(anumberbetween1to10):;dlg_title=InputofPCA-BasedFaceRecogniti

29、onSystem;num_lines=1;def=1;TestImage=inputdlg(prompt,dlg_title,num_lines,def);TestImage=strcat(TestDatabasePath,char(TestImage),.jpg);im=imread(TestImage);T=CreateDatabase(TrainDatabasePath);m,A,Eigenfaces=EigenfaceCore(T);OutputName=Recognition(TestImage,m,A,Eigenfaces);SelectedImage=strcat(TrainDa

30、tabasePath,OutputName);SelectedImage=imread(SelectedImage);imshow(im)title(TestImage);figure,imshow(SelectedImage);title(EquivalentImage);str=strcat(Matchedimageis:,OutputName);disp(str)(2)將人臉圖像讀入構(gòu)成人臉矩陣數(shù)據(jù)庫(kù):functionT=CreateDatabase(TrainDatabasePath)TrainFiles=dir(TrainDatabasePath);Train_Number=0;fo

31、ri=1:size(TrainFiles,1)ifnot(strcmp(TrainFiles(i).name,.)|strcmp(TrainFiles(i).name,.)|strcmp(TrainFiles(i).name,Thumbs.db)Train_Number=Train_Number+1;%NumberofallimagesinthetrainingdatabaseendendT=;fori=1:Train_Number%Ihavechosenthenameofeachimageindatabasesasacorresponding%number.However,itisnotma

32、ndatory!str=int2str(i);str=strcat,str,.jpg);str=strcat(TrainDatabasePath,str);img=imread(str);img=rgb2gray(img);irowicol=size(img);temp=reshape(img,irow*icol,1);%Reshaping2Dimagesinto1DimagevectorsT=Ttemp;%Tgrowsaftereachturnend形成特征臉子空間:functionm,A,Eigenfaces=EigenfaceCore(T)m=mean(T,2);Train_Number

33、=size(T,2);A=;fori=1:Train_Numbertemp=double(T(:,i)-m%ComputingthedifferenceimageforeachimageinthetrainingsetAi=Ti-mA=Atemp;%MergingallcenteredimagesendL=A*A;%ListhesurrogateofcovariancematrixC=A*A.VD=eig(L);%DiagonalelementsofDaretheeigenvaluesforbothL=A*AandC=A*A.L_eig_vec=;fori=1:size(V,2)if(D(i,

34、i)1)L_eig_vec=L_eig_vecV(:,i);endendEigenfaces=A*L_eig_vec;end識(shí)別程序:functionOutputName=Recognition(TestImage,m,A,Eigenfaces)ProjectedImages=;Train_Number=size(Eigenfaces,2);fori=1:Train_Numbertemp=Eigenfaces*A(:,i);%ProjectionofcenteredimagesintofacespaceProjectedImages=ProjectedImagestemp;endInputIm

35、age=imread(TestImage);temp=InputImage(:,:,1);irowicol=size(temp);InImage=reshape(temp,irow*icol,1);Difference=double(InImage)-m;%CenteredtestimageProjectedTestImage=Eigenfaces*Difference;%TestimagefeaturevectorEuc_dist=;fori=1:Train_Numberq=ProjectedImages(:,i);temp=(norm(ProjectedTestImage-q)A2;Euc

36、_dist=Euc_disttemp;endEuc_dist_min,Recognized_index=min(Euc_dist);OutputName=strcat(int2str(Recognized_index),.jpg);2.PCA+最鄰近分類(lèi)器計(jì)算人臉識(shí)別率:functionFaceRec()allsamples=;fori=1:40forj=1:5a=imread(strcat(C:UsersAdministratorDesktopidentifyORLs,num2str(i),num2str(j),.bmp);b=a(1:112*92);b=double(b);allsampl

37、es=allsamples;b;endendsamplemean=mean(allsamples);fori=1:200 xmean(i,:)=allsamples(i,:)-samplemean;endsigma=xmean*xmean;vd=eig(sigma);d1=diag(d);dsort=flipud(d1);vsort=fliplr(v);dsum=sum(dsort);dsum_extract=0;p=0;while(dsum_extract/dsum0.9)p=p+1;dsum_extract=sum(dsort(1:p);endi=1;base=xmean*vsort(:,

38、1:p)*diag(dsort(1:p).八(-1/2);allcoor=allsamples*base;accu=0;fori=1:40forj=6:10a=imread(strcat(C:UsersAdministratorDesktopEEA3ESEEA3EyYaORLs,num2str(i),num2str(j),.bmp);b=a(1:10304);b=double(b);tcoor=b*base;fork=1:200mdist(k)=norm(tcoor-allcoor(k,:);enddist,index2=sort(mdist);class1=floor(index2(1)-1)/5)+1;class2=floor(index2(2)-1)/5)+1;class3=floor(index2(3)-1)/5)+1;ifclass1=class2&class2=class3class=class1;elseifclass1=class2class=class1;elseifclass2=class3class=class2;endifclass=iaccu=accu+1;endendaccuracy=accu/2003.PCA+BP神經(jīng)網(wǎng)絡(luò)計(jì)算人臉識(shí)別率functionrenlian2()%clc;clear;allsamples=;n1=40;n2=10;testn

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論