人臉檢測(cè)與識(shí)別_第1頁
人臉檢測(cè)與識(shí)別_第2頁
人臉檢測(cè)與識(shí)別_第3頁
人臉檢測(cè)與識(shí)別_第4頁
人臉檢測(cè)與識(shí)別_第5頁
已閱讀5頁,還剩95頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

關(guān)于人臉檢測(cè)與識(shí)別12人臉識(shí)別是一個(gè)活躍的研究領(lǐng)域,是人類視覺最杰出的能力之一。雖然人臉識(shí)別的準(zhǔn)確性要低于虹膜、指紋識(shí)別,但由于它的無侵害性和對(duì)用戶最自然、最直觀的方式,使人臉識(shí)別成為最容易被接受的生物特征識(shí)別方式。9.1概述第2頁,共100頁,2024年2月25日,星期天3(一)發(fā)展歷史人類天生就有通過人臉來辨識(shí)人的能力。1888年和1910年,Galton在《Nature》上發(fā)表過兩篇關(guān)于利用人臉進(jìn)行身份識(shí)別的論文,開啟了人臉識(shí)別的學(xué)術(shù)和應(yīng)用研究。人臉識(shí)別研究大致可分為三個(gè)階段第一階段:1965-1990年,初級(jí)階段第二階段:1991-1997年,活躍的重要時(shí)期第三階段:1997-現(xiàn)在,實(shí)用化研究時(shí)期第3頁,共100頁,2024年2月25日,星期天4(1)第一階段:1965-1990將人臉識(shí)別作為一個(gè)一般性的模式識(shí)別問題來研究;采用的主要技術(shù)方案:基于幾何結(jié)構(gòu)特征的人臉識(shí)別方法;非常重要的研究成果不多,基本沒有得到實(shí)際應(yīng)用。第4頁,共100頁,2024年2月25日,星期天5(2)第二階段:1991-1997出現(xiàn)了代表性的人臉識(shí)別算法:MIT媒體實(shí)驗(yàn)室的特克(Turk)和潘特蘭德(Pentland)提出的“特征臉”方法,是這一時(shí)期內(nèi)最負(fù)盛名的人臉識(shí)別方法。MIT人工智能實(shí)驗(yàn)室的布魯內(nèi)里(Brunelli)和波基奧(Poggio)于1992年左右做的一個(gè)對(duì)比實(shí)驗(yàn),他們對(duì)比了基于結(jié)構(gòu)特征的方法與基于模板匹配的方法的識(shí)別性能,并給出了一個(gè)比較確定的結(jié)論:模板匹配的方法優(yōu)于基于特征的方法。貝爾胡米爾(Belhumeur)等提出的Fisherface人臉識(shí)別方法,該方法目前仍然是主流的人臉識(shí)別方法之一,產(chǎn)生了很多不同的變種,比如零空間法、子空間判別模型、增強(qiáng)判別模型、直接的LDA判別方法以及近期的一些基于核學(xué)習(xí)的改進(jìn)策略。

MIT的馬哈丹(Moghaddam)則在特征臉的基礎(chǔ)上,提出了基于雙子空間進(jìn)行貝葉斯概率估計(jì)的人臉識(shí)別方法第5頁,共100頁,2024年2月25日,星期天6洛克菲勒大學(xué)(Rockefeller

University)的艾提克(Atick)等提出了人臉局部特征分析技術(shù)(LFA),其本質(zhì)上是一種基于統(tǒng)計(jì)的低維對(duì)象描述方法,與只能提取全局特征而且不能保留局部拓?fù)浣Y(jié)構(gòu)的PCA相比,LFA在全局PCA描述的基礎(chǔ)上提取的特征是局部的,并能夠同時(shí)保留全局拓?fù)湫畔ⅲ瑥亩哂懈训拿枋龊团袆e能力。LFA技術(shù)已商業(yè)化為著名的FaceIt系統(tǒng)。柔性模型(Flexible

Models)

,包括主動(dòng)形狀模型(ASM)和主動(dòng)表觀模型(AAM)是這一時(shí)期內(nèi)在人臉建模方面的一個(gè)重要貢獻(xiàn);美國(guó)軍方組織了著名的FERET人臉識(shí)別算法測(cè)試;商業(yè)化運(yùn)作的人臉識(shí)別系統(tǒng),如Visionics(現(xiàn)為Identix)的FaceIt系統(tǒng)。(2)第二階段:1991-1997第6頁,共100頁,2024年2月25日,星期天7(3)第3階段:1997-至今基奧蓋蒂斯(Georghiades)等人提出的基于光照錐

(Illumination

Cones)

模型的多姿態(tài)、多光照條件人臉識(shí)別方法是這一時(shí)期的重要成果之一;支持向量機(jī)為代表的統(tǒng)計(jì)學(xué)習(xí)理論被應(yīng)用于人臉識(shí)別中;布蘭茲(Blanz)和維特(Vetter)等提出的基于3D變形(3D

Morphable

Model)模型的多姿態(tài)、多光照條件人臉圖像分析與識(shí)別方法是這一階段內(nèi)一項(xiàng)開創(chuàng)性的工作。2001年的國(guó)際計(jì)算機(jī)視覺大會(huì)(ICCV)上,康柏研究院的研究員維奧拉(Viola)和瓊斯(Jones)展示了一個(gè)基于簡(jiǎn)單矩形特征和AdaBoost的實(shí)時(shí)人臉檢測(cè)系統(tǒng),在CIF格式上檢測(cè)準(zhǔn)正面人臉的速度達(dá)到了每秒15幀以上;FERET項(xiàng)目之后,涌現(xiàn)了若干人臉識(shí)別商業(yè)系統(tǒng)。非線性建模方法、統(tǒng)計(jì)學(xué)習(xí)理論、基于Boosting的學(xué)習(xí)技術(shù)、基于3D模型的人臉建模與識(shí)別方法等逐漸成為備受重視的技術(shù)發(fā)展趨勢(shì)。第7頁,共100頁,2024年2月25日,星期天8(二)人臉公共數(shù)據(jù)庫FERET人臉數(shù)據(jù)庫:FERET項(xiàng)目創(chuàng)建,含14051幅多姿態(tài)、不同光照條件的灰度人臉圖像,是人臉識(shí)別領(lǐng)域應(yīng)用最廣泛的人臉數(shù)據(jù)庫之一;ORL人臉數(shù)據(jù)庫:包含40人共400張面部圖像,部分圖像包含了姿態(tài)、表情和面部飾物的變化,早期經(jīng)常被采用,由于變化模式較少,多數(shù)系統(tǒng)識(shí)別率均可達(dá)90%以上;MIT人臉數(shù)據(jù)庫:由麻省理工媒體實(shí)驗(yàn)室創(chuàng)建,包含16位志愿者的2592張不同姿態(tài)、光照和大小的面部圖像;AR人臉數(shù)據(jù)庫:包含116人不同光照、表情、遮擋和老化的人臉圖像共3288幅;第8頁,共100頁,2024年2月25日,星期天9Yale人臉數(shù)據(jù)庫:由耶魯大學(xué)計(jì)算視覺與控制中心創(chuàng)建,包含15為志愿者的165張圖片,包含光照、表情和姿態(tài)的變化。CMU-PIE人臉數(shù)據(jù)庫:由美國(guó)卡耐基梅隆大學(xué)創(chuàng)建,包含68人的41368張多姿態(tài)、光照和表情的面部圖像;CAS-PEAL人臉數(shù)據(jù)庫:包含1040名中國(guó)人共99450幅頭肩部圖像,涵蓋姿態(tài)、表情、飾物和光照四種主要變化條件,部分人臉圖像具有背景、距離和時(shí)間跨度的變化。(二)人臉公共數(shù)據(jù)庫第9頁,共100頁,2024年2月25日,星期天10國(guó)際上對(duì)人臉及人臉面部表情識(shí)別的研究現(xiàn)在逐漸成為科研熱點(diǎn)。國(guó)內(nèi)外很多機(jī)構(gòu)都在進(jìn)行這方面的研究,尤其美國(guó)、日本。進(jìn)入90年代,對(duì)人臉表情識(shí)別的研究變得非?;钴S,吸引了大量的研究人員和基金支持,EI可檢索到的相關(guān)文獻(xiàn)就多達(dá)數(shù)千篇。美國(guó)、日本、英國(guó)、德國(guó)、荷蘭、法國(guó)等經(jīng)濟(jì)發(fā)達(dá)國(guó)家和發(fā)展中國(guó)家如印度、新加坡都有專門的研究組進(jìn)行這方面的研究。其中MIT、CMU、Maryland大學(xué)、Standford大學(xué)、日本城蹊大學(xué)、東京大學(xué)、ATR研究所的貢獻(xiàn)尤為突出。(三)研究和發(fā)展現(xiàn)狀第10頁,共100頁,2024年2月25日,星期天11(三)研究和發(fā)展現(xiàn)狀國(guó)內(nèi)關(guān)于人臉自動(dòng)識(shí)別的研究始于二十世紀(jì)80年代,研究工作主要是集中在三大類方法的研究:基于幾何特征的人臉正面自動(dòng)識(shí)別方法基于代數(shù)特征的人臉正面自動(dòng)識(shí)別方法基于連接機(jī)制的人臉正面自動(dòng)識(shí)別方法。第11頁,共100頁,2024年2月25日,星期天12人臉檢測(cè)子系統(tǒng)人臉識(shí)別子系統(tǒng)人臉定位與分割人臉圖像規(guī)一化特征提取基于先驗(yàn)知識(shí)人臉檢測(cè)法基于統(tǒng)計(jì)人臉檢測(cè)法模式分類基于幾何的方法基于神經(jīng)網(wǎng)絡(luò)SVM等的方法基于統(tǒng)計(jì)的方法(四)人臉檢測(cè)與識(shí)別系統(tǒng)數(shù)據(jù)采集子系統(tǒng)第12頁,共100頁,2024年2月25日,星期天13(五)人臉識(shí)別過程第13頁,共100頁,2024年2月25日,星期天14一對(duì)一的驗(yàn)證過程(五)人臉識(shí)別過程第14頁,共100頁,2024年2月25日,星期天15一對(duì)多的辨別過程(五)人臉識(shí)別過程第15頁,共100頁,2024年2月25日,星期天16(六)人臉識(shí)別中的關(guān)鍵問題光照問題目前許多算法對(duì)光照條件都有不同程度的依賴,過亮過暗或偏光都會(huì)導(dǎo)致識(shí)別率的下降;解決思路:尋求對(duì)光照變化不敏感的底層視覺特征;建立光照模型,進(jìn)行有針對(duì)性的光照補(bǔ)償,消除非均勻正面光照造成的影響;用任意光照?qǐng)D像生成算法生成多個(gè)不同光照條件下的訓(xùn)練樣本,采用具有學(xué)習(xí)能力的識(shí)別方法。第16頁,共100頁,2024年2月25日,星期天17姿態(tài)估計(jì)與匹配姿態(tài)的變化(偏轉(zhuǎn)或俯仰等)會(huì)造成面部信息的部分缺失,影響人臉特征的精確提?。唤鉀Q思路建立多姿態(tài)人臉數(shù)據(jù)庫,通過多樣本學(xué)習(xí)方法進(jìn)行識(shí)別;尋求基于姿態(tài)不變特征的方法,如基于彈性圖匹配的識(shí)別方法、基于膚色模型的識(shí)別方法;利用自動(dòng)生成算法,在單視圖基礎(chǔ)上自動(dòng)生成多角度視圖進(jìn)行識(shí)別。(六)人臉識(shí)別中的關(guān)鍵問題第17頁,共100頁,2024年2月25日,星期天18(七)人臉識(shí)別的主要研究?jī)?nèi)容(1)人臉檢測(cè)(FaceDetection)指在輸入圖像中確定所有人臉(如果存在)的位置、大小、位姿的過程。人臉檢測(cè)是自動(dòng)人臉識(shí)別系統(tǒng)中的一個(gè)關(guān)鍵環(huán)節(jié)。(2)人臉識(shí)別人臉識(shí)別細(xì)分為兩類,一類是回答我是誰的問題,即辨認(rèn)(Identification),另一類是回答這個(gè)人是我嗎?即確認(rèn)(Verification)。顯然,用于Identification模式的識(shí)別系統(tǒng)對(duì)算法的運(yùn)算速度的要求要高于Verification模式的識(shí)別系統(tǒng)。第18頁,共100頁,2024年2月25日,星期天19從人臉自動(dòng)識(shí)別技術(shù)所依據(jù)的理論來講,人臉檢測(cè)與人臉識(shí)別都是模式識(shí)別問題。人臉檢測(cè)是把所有的人臉作為一個(gè)模式,而非人臉作為另一個(gè)模式,人臉檢測(cè)的過程就是將人臉模式與非人臉模式區(qū)別開來。人臉識(shí)別是把每一個(gè)人的人臉作為一個(gè)模式來對(duì)待,不同人的臉屬于不同的模式類,人臉識(shí)別的過程是將屬于不同人的臉歸于各自的模式。人臉檢測(cè)強(qiáng)調(diào)的是人臉之間的共性,而人臉識(shí)別則要區(qū)分不同人臉之間的差異,二者同屬于模式分類問題。(七)檢測(cè)與識(shí)別第19頁,共100頁,2024年2月25日,星期天209.2人臉檢測(cè)人臉檢測(cè)是人臉識(shí)別的第一步,其目的是從輸入圖象中判斷是否有人臉存在,如果有,則給出人臉的位置和大小。復(fù)雜背景下的人臉檢測(cè)比較困難,主要體現(xiàn)在:人臉自身的復(fù)雜性:人臉模式受許多因素的影響,這些因素包括人種、性別、膚色、面部佩戴物等。光照、背景的復(fù)雜性:由于人可能處于任何的背景之中,因而背景具有不確定性和無窮多樣性。位置、尺寸的復(fù)雜性:人臉通常處于一種不確定的大小和位置,包括人臉自身的旋轉(zhuǎn)、傾斜以及攝像機(jī)角度等因素的影響。第20頁,共100頁,2024年2月25日,星期天21人臉檢測(cè)的方法大致可分為基于人臉知識(shí)的檢測(cè)法:用典型的人臉形成的規(guī)則來對(duì)人臉進(jìn)行編碼。通過面部特征之間的關(guān)系進(jìn)行人臉定位;基于模板匹配的檢測(cè)法:存儲(chǔ)幾種標(biāo)準(zhǔn)的人臉模式,用來分別描述整個(gè)人臉和面部的特征,計(jì)算輸入圖像和存儲(chǔ)模式間的相互關(guān)系并用于檢測(cè);基于統(tǒng)計(jì)學(xué)習(xí)的檢測(cè)法:通過使用大量的人臉與非人臉的樣本訓(xùn)練,構(gòu)造分類器,通過判別圖像中所有可能的區(qū)域?qū)儆谀念惸J降姆椒▉韺?shí)現(xiàn)人臉的檢測(cè)。9.2人臉檢測(cè)與定位第21頁,共100頁,2024年2月25日,星期天22(一)基于知識(shí)的人臉檢測(cè)方法主要五種知識(shí)規(guī)則:輪廓規(guī)則:人臉的輪廓可近似為一個(gè)橢圓,則人臉檢測(cè)可以通過檢測(cè)橢圓來完成。也可將人臉抽象分為三段輪廓:頭頂輪廓線、左側(cè)臉輪和右側(cè)臉輪。器官分布規(guī)則:人臉的五官分布具有一定的幾何規(guī)則??上葘?duì)人臉的器官或器官的組合建立模板,然后檢測(cè)圖像中幾個(gè)器官可能分布的位置及其分布組合,用器官分布的集合關(guān)系規(guī)則對(duì)其進(jìn)行篩選,從而找到可能存在的人臉。膚色和紋理規(guī)則:人臉膚色聚類在顏色空間中一個(gè)較小的區(qū)域,可利用膚色模板有效地檢測(cè)出圖像中的人臉。對(duì)稱性規(guī)則:人臉具有一定的軸對(duì)稱特性,各器官也具有一定的對(duì)稱性。運(yùn)動(dòng)規(guī)則:在序列圖像中,可利用人臉或人臉的器官相對(duì)于背景的運(yùn)動(dòng)來檢測(cè)人臉。如利用眨眼或說話來分離人臉與背景;利用人體的運(yùn)動(dòng)可檢測(cè)運(yùn)動(dòng)的人臉。第22頁,共100頁,2024年2月25日,星期天23(1)基于膚色的人臉檢測(cè)人的膚色分布具有相對(duì)集中特性基于膚色的人臉檢測(cè)的技術(shù)問題:顏色空間:RGB空間YCbCr空間皮膚顏色分布模型區(qū)域模型:膚色的特征值分布在某取值范圍,如Y>80,85<Cb<135,135<cr<180高斯模型:假設(shè)膚色分布服從高斯分布第23頁,共100頁,2024年2月25日,星期天24(1)基于膚色的人臉檢測(cè)YCbCr空間膚色聚類區(qū)域CbCr平面膚色聚類區(qū)域第24頁,共100頁,2024年2月25日,星期天25(1)基于膚色的人臉檢測(cè)根據(jù)已建立的膚色模型,計(jì)算圖像中所有像素點(diǎn)顏色與膚色的相似程度。顏色空間轉(zhuǎn)換第25頁,共100頁,2024年2月25日,星期天26(二)基于模板匹配的檢測(cè)方法根據(jù)人臉的“三庭五眼”的關(guān)系,可以使用一個(gè)統(tǒng)一的模型來描畫出人臉的結(jié)構(gòu)圖,并將其作為人臉的模板。模板匹配的方法主要是通過計(jì)算模板和圖像之間的相關(guān)性來實(shí)現(xiàn)識(shí)別功能的。檢測(cè)時(shí),將模板在被檢測(cè)的區(qū)域內(nèi)分別在行和列方向上移動(dòng),計(jì)算出相關(guān)值最大的區(qū)域就是人臉區(qū)域。Craw提出的正面人臉的固定形狀模板方法:先用Sobel算子提取邊緣,將邊緣組織在一起,根據(jù)幾何約束條件去搜索人臉模板。該方法簡(jiǎn)單,易于實(shí)現(xiàn),但無法處理尺寸、姿態(tài)和形狀變化的情況。彈性模板:固定模板方法的改進(jìn),能在有限的范圍內(nèi)自動(dòng)地調(diào)整模板的范圍,自適應(yīng)地定位出人臉的位置。第26頁,共100頁,2024年2月25日,星期天27Yuille利用彈性模板對(duì)臉部特征進(jìn)行建模,用一個(gè)先驗(yàn)的彈性模板來與臉部特征相匹配,臉部特征被表述成參數(shù)模板。輸入圖像的邊緣、波峰值、峰谷值等被對(duì)應(yīng)于模板中的參數(shù),而構(gòu)成一個(gè)能量函數(shù)。通過調(diào)整參數(shù),將函數(shù)能量最小的彈性模板作為人臉的最佳匹配。可變形模板方法存在兩個(gè)問題:能量函數(shù)中各種代價(jià)的加權(quán)系數(shù)只能由經(jīng)驗(yàn)確定,難以推廣;能量函數(shù)的優(yōu)化過程十分耗時(shí),難以在實(shí)際中應(yīng)用。(二)基于模板匹配的檢測(cè)方法第27頁,共100頁,2024年2月25日,星期天28(二)基于模板匹配的檢測(cè)方法人臉彈性圖匹配方法第28頁,共100頁,2024年2月25日,星期天29(三)基于統(tǒng)計(jì)模型的人臉檢測(cè)由于人臉圖象的復(fù)雜性,顯式地描述人臉特征具有一定困難,因此另一類方法——基于統(tǒng)計(jì)模型的方法越來越受到重視。將人臉區(qū)域看作一類模式,即模板特征,使用大量的“人臉”與“非人臉”樣本訓(xùn)練,通過統(tǒng)計(jì)分析和機(jī)器學(xué)習(xí)技術(shù)構(gòu)造分類器,通過判別圖像屬于哪類模式的方法實(shí)現(xiàn)人臉的檢測(cè)。實(shí)際上,人臉檢測(cè)問題被轉(zhuǎn)化為統(tǒng)計(jì)模式識(shí)別的二分類問題。優(yōu)點(diǎn):通過訓(xùn)練可以自動(dòng)地提取人臉的特征;缺點(diǎn):所提取出的特征十分隱晦,缺乏認(rèn)知學(xué)上的意義。此外,訓(xùn)練時(shí)間長(zhǎng),計(jì)算量大,而且一般需要大量精心制作的樣本。

第29頁,共100頁,2024年2月25日,星期天30基于統(tǒng)計(jì)模型的人臉檢測(cè)可分為:基于特征空間的方法基于人工神經(jīng)網(wǎng)的方法基于概率模型的方法基于支持向量機(jī)的方法基于adaboost學(xué)習(xí)的方法(三)基于統(tǒng)計(jì)模型的人臉檢測(cè)第30頁,共100頁,2024年2月25日,星期天31(三)基于統(tǒng)計(jì)模型的人臉檢測(cè)基于特征空間的方法將人臉區(qū)域圖像變換到某一特征空間,根據(jù)其在特征空間中的分布規(guī)律劃分“人臉”與“非人臉”兩類模式。典型的有:基于主成分分析的人臉檢測(cè)基于事例學(xué)習(xí)的人臉檢測(cè)基于線性子空間的人臉檢測(cè)第31頁,共100頁,2024年2月25日,星期天32(1)基于主成分分析的人臉檢測(cè)主成分分析(PCA,Principal-ComponentAnalysis)是一種常用的方法。它根據(jù)圖像的統(tǒng)計(jì)特性進(jìn)行的正交變換(K-L變換),以消除原有向量各個(gè)分量間的相關(guān)性。變換得到對(duì)應(yīng)特征值依次遞減的特征向量,即特征臉。第32頁,共100頁,2024年2月25日,星期天33由MIT的Sung等人1995年提出,首先采用橢圓k-均值算法對(duì)人臉和非人臉樣本(大小為19×19)進(jìn)行聚類,分別聚成六個(gè)人臉子類和非人臉子類。從而形成人臉和非人臉的大致分布。在此基礎(chǔ)上,定義一種混合馬氏距離和歐氏距離的距離度量來度量圖像間的相似程度。(2)基于事例學(xué)習(xí)的人臉檢測(cè)第33頁,共100頁,2024年2月25日,星期天34Yang(2000)等人提出了兩種混合線性子空間的人臉檢測(cè)方法。采用混合自組織映射(SOM)和Fisher線性判別(FLD)的方法,首先應(yīng)用SOM神經(jīng)網(wǎng)絡(luò)算法進(jìn)行人臉和非人臉的聚類,把人臉空間和非人臉分別聚類成26個(gè)子類;其次,根據(jù)聚類后的結(jié)果,把整個(gè)人臉樣本看成是一個(gè)多類問題,對(duì)于非人臉樣本也是如此。采用FLD方法對(duì)上述多類模式進(jìn)行判決函數(shù)求解,進(jìn)而對(duì)未知圖象的人臉和非人臉的歸類。(3)基于線性子空間的人臉檢測(cè)第34頁,共100頁,2024年2月25日,星期天35人工神經(jīng)網(wǎng)(ANN)方法是把模式的統(tǒng)計(jì)特性隱含在ANN的結(jié)構(gòu)和參數(shù)之中,對(duì)于人臉這類復(fù)雜的、難以顯式描述的模式,基于ANN的方法具有獨(dú)特的優(yōu)勢(shì)。Rowley(1998)等人直接采用多層感知神經(jīng)網(wǎng)絡(luò)進(jìn)行人臉檢測(cè),使用了多個(gè)ANN檢測(cè)多姿態(tài)的人臉。(4)基于神經(jīng)網(wǎng)絡(luò)的人臉檢測(cè)第35頁,共100頁,2024年2月25日,星期天36(4)基于神經(jīng)網(wǎng)絡(luò)的人臉檢測(cè)第36頁,共100頁,2024年2月25日,星期天37在上述框架下,Rowley等對(duì)正面端正人臉和正面旋轉(zhuǎn)人臉的檢測(cè)單獨(dú)進(jìn)行了研究。對(duì)正面端正的人臉,僅使用了正面人臉檢測(cè)ANN,是一種三層前向網(wǎng):輸入層對(duì)應(yīng)20×20象素的圖象區(qū)域;隱層節(jié)點(diǎn)分為對(duì)應(yīng)不同人臉區(qū)域的若干組,與輸入層部分連接;ANN輸出1到-1區(qū)間的值表示這個(gè)區(qū)域是否為人臉。Rowley等使用相同的“人臉”樣本和不同“自舉”過程收集的“非人臉”樣本訓(xùn)練了多個(gè)正面人臉檢測(cè)ANN,對(duì)它們的檢測(cè)結(jié)果進(jìn)行仲裁,以進(jìn)一步減少錯(cuò)誤報(bào)警。對(duì)于正面旋轉(zhuǎn)人臉的檢測(cè)使用了旋轉(zhuǎn)角度檢測(cè)器及正面人臉檢測(cè)ANN,并使用相似的多ANN仲裁方法降低錯(cuò)誤報(bào)警。(4)基于神經(jīng)網(wǎng)絡(luò)的人臉檢測(cè)第37頁,共100頁,2024年2月25日,星期天38(4)基于神經(jīng)網(wǎng)絡(luò)的人臉檢測(cè)第38頁,共100頁,2024年2月25日,星期天39支持向量機(jī)(SupportVectorMachines,SVM)是Vapnik等提出的基于結(jié)構(gòu)風(fēng)險(xiǎn)最小化原理(StructuralRiskMinimizationPrinciple,SRM)的統(tǒng)計(jì)學(xué)習(xí)理論,用于分類與回歸問題。SRM使VC(VapnikCherovnenkis)維數(shù)的上限最小化,這使得SVM方法比基于經(jīng)驗(yàn)風(fēng)險(xiǎn)最小化(EmpiricalRiskMinimizationPrinciple,ERM)的人工神經(jīng)網(wǎng)方法具有更好的泛化能力。(5)基于支持向量機(jī)的人臉檢測(cè)第39頁,共100頁,2024年2月25日,星期天40Osuna(1997)等人,把人臉檢測(cè)看成是一個(gè)人臉和非人臉的兩類模式的分類問題,并采用支持向量機(jī)(SVM)尋找分類的超平面。

(5)基于支持向量機(jī)的人臉檢測(cè)第40頁,共100頁,2024年2月25日,星期天41該方法的基本思路是對(duì)每一個(gè)19×19象素的檢測(cè)窗口使用SVM進(jìn)行分類,以區(qū)分“人臉”和“非人臉”窗口。SVM的訓(xùn)練使用了大量人臉樣本和“自舉”方法收集的“非人臉”樣本,并且使用逼近優(yōu)化的方法減少支持矢量的數(shù)量。需要說明的是,長(zhǎng)期以來SVM的訓(xùn)練需要求解計(jì)算復(fù)雜度極高的二次規(guī)劃問題,限制了該方法的應(yīng)用。Platt提出的SMO(SequentialMinimalOptimization)算法解決了SVM訓(xùn)練困難的問題。(5)基于支持向量機(jī)的人臉檢測(cè)第41頁,共100頁,2024年2月25日,星期天42基于概率模型方法的一種思路是計(jì)算輸入圖像區(qū)域region屬于人臉模式object的后驗(yàn)概率p(object|region),據(jù)此對(duì)所有可能的圖像窗口進(jìn)行判別。(6)基于概率模型的方法第42頁,共100頁,2024年2月25日,星期天43基于后驗(yàn)概率估計(jì)的人臉檢測(cè)方法:該方法利用貝葉斯原理將后驗(yàn)概率估計(jì)轉(zhuǎn)化為一個(gè)似然度求解問題:將難以估計(jì)的先驗(yàn)概率P(object)和P(object)用一個(gè)比率參數(shù)λ代替,作為調(diào)節(jié)檢測(cè)器敏感度的參量。(6)基于概率模型的方法第43頁,共100頁,2024年2月25日,星期天44隱馬爾可夫模型(HiddenMarkovModels,HMM):Nefian等根據(jù)正面人臉由上到下各個(gè)區(qū)域(頭發(fā)、額頭、雙眼、鼻子、嘴)具有自然不變的順序這一事實(shí),使用一個(gè)包含五個(gè)狀態(tài)的一維連續(xù)HMM加以表示。將頭部圖象按照這五個(gè)區(qū)域劃分為互有重疊的條塊,對(duì)各塊進(jìn)行K-L變換,選取前若干個(gè)變換系數(shù)作為觀測(cè)向量訓(xùn)練HMM。Nefian等還提出了基于嵌入式HMM的人臉檢測(cè)方法。該方法同時(shí)考慮到人臉由左到右各個(gè)特征的自然順序,使用了二維HMM,并且采用二維DCT變換的系數(shù)作為觀察向量。Meng等使用HMM描述人臉的小波特征中不同級(jí)間的相關(guān)性等方法?;贖MM的方法一般只使用“人臉”樣本進(jìn)行訓(xùn)練,主要針對(duì)用于人臉識(shí)別的頭肩部圖象。(6)基于概率模型的方法第44頁,共100頁,2024年2月25日,星期天45第45頁,共100頁,2024年2月25日,星期天46(7)基于Adaboost學(xué)習(xí)的方法Adaboost即AdaptiveBoosting算法是由Freund和Schapire于1995年提出。2001年,ViolaPaul和JonesMichael正式將Adaboost算法用于人臉檢測(cè)。Adaboost算法的檢測(cè)率很高平均可達(dá)94%以上,是目前比較熱門的人臉檢測(cè)算法。第46頁,共100頁,2024年2月25日,星期天47弱學(xué)習(xí)與強(qiáng)學(xué)習(xí)隨機(jī)猜測(cè)一個(gè)是或否的問題,將會(huì)有50%的正確率。如果一個(gè)假設(shè)能夠稍微地提高猜測(cè)正確的概率,那么這個(gè)假設(shè)就是弱學(xué)習(xí)算法。得到這個(gè)算法的過程稱為弱學(xué)習(xí)。如果一個(gè)假設(shè)能夠顯著地提高猜測(cè)正確的概率,那么這個(gè)假設(shè)就稱為強(qiáng)學(xué)習(xí)算法。得到這個(gè)算法的過程稱為強(qiáng)學(xué)習(xí)。第47頁,共100頁,2024年2月25日,星期天48矩形特征特征的選取和特征值的計(jì)算對(duì)Adaboost人臉檢測(cè)算法的速度起著重要作用。在AdaBoost算法中使用矩形特征(也叫Haar-Like特征)作為特征模板。用一個(gè)5元組表示一個(gè)矩形特征(x,y,w,h,angle),其中(x,y)為矩形的左上角位置,(w,h)為矩形的寬和高,angle表示矩形的旋轉(zhuǎn)角度。計(jì)算一個(gè)矩形特征的特征值有幾種方法:黑色部分與白色部分像素和的差黑色部分與整個(gè)矩形面積的權(quán)重差等等。第48頁,共100頁,2024年2月25日,星期天49矩形特征對(duì)一些簡(jiǎn)單的圖形結(jié)構(gòu),比如邊緣、線段,比較敏感,但是其只能描述特定走向(水平、垂直、對(duì)角)的結(jié)構(gòu),因此比較粗略。(如右圖所示)對(duì)于一個(gè)24X24的檢測(cè)窗口,其內(nèi)部的矩形特征的數(shù)量可達(dá)到160000以上。第49頁,共100頁,2024年2月25日,星期天50第50頁,共100頁,2024年2月25日,星期天51矩形特征(續(xù))對(duì)于某一檢測(cè)窗口,由于特征數(shù)量巨大,必須通過特定算法甄選合適的矩形特征(最佳特征),并將其組合成強(qiáng)分類器才能檢測(cè)人臉。haar特征反映了圖像中灰度分布特點(diǎn)的特性,如何找到較好的haar特征來描述人臉圖像灰度分布的特點(diǎn)?下圖中的3個(gè)特征就能很好的描述圖像中人臉的眼部的灰度的分布特點(diǎn)(人眼的水平區(qū)域比面頰上部區(qū)域的灰度要暗一些)。第51頁,共100頁,2024年2月25日,星期天52積分圖:一種快速的矩形特征的選取算法,是一種間接的圖像表示方法。在一張積分圖上,點(diǎn)i(x,y)的積分值ii(x,y)是原圖像上該點(diǎn)的上方和左方所有點(diǎn)的亮度值的和。即:

其中ii(x,y)為積分圖,i(x,y)為原始圖像。第52頁,共100頁,2024年2月25日,星期天53原圖像積分圖圖像原圖像部分像素值對(duì)應(yīng)積分圖圖像部分像素值第53頁,共100頁,2024年2月25日,星期天54當(dāng)采用下面兩式,只需對(duì)原圖像掃描一次即可計(jì)算出積分圖:其中,,是對(duì)這一行及其以前行的像素值求和,并且有:第54頁,共100頁,2024年2月25日,星期天55xyABCD1234區(qū)域D的像素值=點(diǎn)4的積分圖像值+點(diǎn)1的積分圖像值-點(diǎn)2的積分圖像值-點(diǎn)3的積分圖像值第55頁,共100頁,2024年2月25日,星期天56積分圖與特征值計(jì)算(續(xù))xyAB123456(1,1)此特征模板的特征值為:區(qū)域A的特征值-區(qū)域B的特征值第56頁,共100頁,2024年2月25日,星期天57第一步:弱分類器的選取一個(gè)弱分類器h(x,f,p,)由一個(gè)特征f,閾值和指示不等號(hào)方向的p組成:訓(xùn)練一個(gè)弱分類器(特征f)就是在當(dāng)前權(quán)重分布的情況下,確定f的最優(yōu)閾值以及不等號(hào)的方向,使得這個(gè)弱分類器(特征f)對(duì)所有訓(xùn)練樣本的分類誤差最低。具體方法如下:AdaBoost算法學(xué)習(xí)第57頁,共100頁,2024年2月25日,星期天58對(duì)于每個(gè)特征f,計(jì)算所有訓(xùn)練樣本的特征值,并將其排序。通過掃描排好序的特征值,可以為該特征確定一個(gè)最優(yōu)的閾值,從而訓(xùn)練成一個(gè)弱分類器。具體來說,對(duì)排好序的表中的每個(gè)元素,計(jì)算下面四個(gè)值:1)全部人臉樣本的權(quán)重的和;2)全部非人臉樣本的權(quán)重的和;3)排序在該元素之前的人臉樣本的權(quán)重的和;4)排序在該元素之前的非人臉樣本的權(quán)重的和。第58頁,共100頁,2024年2月25日,星期天59這樣,當(dāng)選取當(dāng)前任意元素的特征值作為閾值時(shí),所得到的弱分類器就在當(dāng)前元素處把樣本分開——也就是說這個(gè)閾值對(duì)應(yīng)的弱分類器將當(dāng)前元素前的所有元素分類為人臉(或非人臉),而把當(dāng)前元素后(含)的所有元素分類為非人臉(或人臉)。可以認(rèn)為這個(gè)閾值所帶來的分類誤差為:于是,通過把這個(gè)排序的表從頭到尾掃描一遍就可以為弱分類器選擇使分類誤差最小的閾值(最優(yōu)閾值),也就是選取了一個(gè)最佳弱分類器。同時(shí),選擇最小權(quán)重錯(cuò)誤率的過程中也決定了弱分類器的不等式方向。第59頁,共100頁,2024年2月25日,星期天60具體弱分類器學(xué)習(xí)演示表如下:通過演示表我們可以得到這個(gè)矩形特征的學(xué)習(xí)結(jié)果,這個(gè)弱分類器閾值為4,不等號(hào)方向?yàn)閜=-1,這個(gè)弱分類器的權(quán)重錯(cuò)誤率為0.1。

其中:第60頁,共100頁,2024年2月25日,星期天61第二步:由弱分類器確定強(qiáng)分類器經(jīng)過T次迭代后,得到T個(gè)最佳弱分類器,按照下面的方式組合成一個(gè)強(qiáng)分類器:其中。強(qiáng)分類器分類,相當(dāng)對(duì)所有所有弱分類器的投票結(jié)果進(jìn)行加權(quán)求和,并與平均投票結(jié)果進(jìn)行比較來判斷最終的結(jié)果。第61頁,共100頁,2024年2月25日,星期天62首先了解兩個(gè)概念:(1)強(qiáng)分類器的訓(xùn)練檢出率=被正確檢出的人臉數(shù)與人臉樣本總數(shù)的比例(2)強(qiáng)分類器的訓(xùn)練誤判率=被誤判為人臉的非人臉樣本數(shù)與非人臉樣本總數(shù)的比例設(shè)強(qiáng)分類器訓(xùn)練誤判率目標(biāo)值為,訓(xùn)練檢出率的目標(biāo)值為。AdaBoost算法將根據(jù)和來確定強(qiáng)分類器包含的弱分類器數(shù)目T。強(qiáng)分類器中弱分類器數(shù)的確定第62頁,共100頁,2024年2月25日,星期天63預(yù)設(shè)強(qiáng)分類器包含的弱分類器個(gè)數(shù)為,然后根據(jù)值訓(xùn)練一個(gè)強(qiáng)分類器,統(tǒng)計(jì)其檢出率和誤判率,當(dāng)滿足且時(shí),可認(rèn)為滿足條件,不必再訓(xùn)練弱分類器。若不滿足上述條件,則對(duì)進(jìn)行調(diào)整。具體依據(jù)如下:(1)強(qiáng)分類器的檢出率(誤判率)隨著閾值的減小而增大,隨著閾值的增加而減小。極端的情況,如果將閾值設(shè)置為0,那么強(qiáng)分類器會(huì)將所有的樣本分類為人臉,這時(shí)檢出率和誤判率最大,為100%。(2)增加弱分類器的數(shù)目可以減小誤判率。根據(jù)以上兩條,得如下強(qiáng)分類器訓(xùn)練程序流程圖:第63頁,共100頁,2024年2月25日,星期天64強(qiáng)分類器訓(xùn)練程序流程圖第64頁,共100頁,2024年2月25日,星期天65

算法流程圖第65頁,共100頁,2024年2月25日,星期天66Adaboost算法是一種用來分類的方法,它的基本原理是把一些比較弱的分類方法合在一起,組合出新的很強(qiáng)的分類方法。例如在圖中需要用一些線段把紅色的球和深藍(lán)色的球分開,然而如僅果僅用一條線的話,是分不開的。關(guān)于AdaBoost算法形象理解第66頁,共100頁,2024年2月25日,星期天67使用AdaBoost算法來進(jìn)行劃分的話,先畫出一條錯(cuò)誤率最小的線段如圖a,但左下角的深藍(lán)色的球被錯(cuò)劃分到紅色區(qū)域,因此加重被錯(cuò)誤劃分的球的權(quán)重,再下一次劃分的時(shí)候,將更加考慮那些權(quán)重大的球,如圖c,最終得到一個(gè)準(zhǔn)確的劃分,如下圖所示。第67頁,共100頁,2024年2月25日,星期天68級(jí)聯(lián)分類器單獨(dú)一個(gè)AdaBoost分類器即使很強(qiáng),在誤檢率和檢測(cè)時(shí)間上滿足不了真正的實(shí)時(shí)人臉檢測(cè)系統(tǒng)的需要。采用級(jí)聯(lián)檢測(cè)策略能很好地解決這個(gè)問題。Adaboost算法引入了一種瀑布型的分類器---級(jí)聯(lián)分類器。在級(jí)聯(lián)分類器中,每一個(gè)待檢測(cè)窗口只有通過了當(dāng)前層的強(qiáng)分類器(AdaBoost分類器)才能進(jìn)入下一層。這樣大量的待檢測(cè)窗口只需要最初幾層簡(jiǎn)單的判斷就可以被迅速淘汰,使得平均檢測(cè)成本大大降低。多層級(jí)聯(lián)結(jié)構(gòu)中,每一層的強(qiáng)分類器都是由AdaBoost算法訓(xùn)練來的。第68頁,共100頁,2024年2月25日,星期天69級(jí)聯(lián)分類器的檢測(cè)示意圖如下圖:第69頁,共100頁,2024年2月25日,星期天70訓(xùn)練L層級(jí)聯(lián)分類器的步驟如下:(1)訓(xùn)練第i層強(qiáng)分類器;(2)保存強(qiáng)分類器的參數(shù),即各弱分類器的參數(shù)、強(qiáng)分類器的閾值以及被誤判為人臉的非人臉樣本;(3)補(bǔ)充非人臉樣本集,組合前i層強(qiáng)分類器對(duì)候選非人臉樣本進(jìn)行檢測(cè),將被誤判為人臉的非人臉樣本加入到樣本集中(人臉樣本不更新);(4)訓(xùn)練第i+1層強(qiáng)分類器。第70頁,共100頁,2024年2月25日,星期天71多層級(jí)聯(lián)結(jié)構(gòu)的檢測(cè)率和誤檢率分析系統(tǒng)檢測(cè)率和系統(tǒng)誤檢率的計(jì)算:

D為級(jí)聯(lián)分類器的檢測(cè)率,為強(qiáng)分類器的檢測(cè)率。F為級(jí)聯(lián)分類器的誤檢率,為強(qiáng)分類器的誤檢率。n為級(jí)聯(lián)數(shù)目,由系統(tǒng)所要到達(dá)的檢測(cè)率和誤檢率決定。第71頁,共100頁,2024年2月25日,星期天72級(jí)聯(lián)分類器優(yōu)勢(shì):(1)降低訓(xùn)練難度:

對(duì)于一個(gè)強(qiáng)分類器與一個(gè)L層的級(jí)聯(lián)分類器,假設(shè)它們誤判率相同為F,可知級(jí)聯(lián)分類器的各層強(qiáng)分類器的誤判率要大于F,訓(xùn)練一個(gè)誤判率較高的強(qiáng)分類器難度相對(duì)較小。(2)降低非人臉樣本選取難度

訓(xùn)練級(jí)聯(lián)結(jié)構(gòu)的分類器,通過程序“自舉”非人臉樣本,逐層增加訓(xùn)練難度,可以很好的解決非人臉樣本選取的難題。第72頁,共100頁,2024年2月25日,星期天73Adaboost算法的檢測(cè)機(jī)制人臉檢測(cè)過程需要對(duì)圖像進(jìn)行有效的掃描,有效地掃描方式有如下兩種:圖像放縮法檢測(cè)人臉;檢測(cè)窗口放大法檢測(cè)人臉。第73頁,共100頁,2024年2月25日,星期天74圖像放縮法檢測(cè)人臉:將檢測(cè)圖像通過比例縮放處理,構(gòu)造圖像金字塔。對(duì)圖像金字塔中的每一個(gè)圖像采用檢測(cè)窗口進(jìn)行掃描。檢測(cè)窗口放大法:不能使相鄰大小的窗口放大的倍數(shù)過大,因?yàn)檫@樣會(huì)漏檢過小的人臉;同時(shí)又要考慮到,如果相鄰窗口的大小相隔太小,檢測(cè)過程會(huì)有很多多余的計(jì)算,檢測(cè)速度會(huì)變慢。第74頁,共100頁,2024年2月25日,星期天75檢測(cè)窗口放大法檢測(cè)人臉:放大檢測(cè)窗口法將圖像保持不變,按比例不斷放大檢測(cè)窗口,直到檢測(cè)窗口達(dá)到圖像大小,停止放大。但是此方法需要重新調(diào)整計(jì)算Haar特征值,如果調(diào)整不好將會(huì)降低檢測(cè)率。第75頁,共100頁,2024年2月25日,星期天76采用了逐級(jí)等比放大檢測(cè)窗口后,通常同一個(gè)人臉會(huì)在不同的尺度和相鄰的位置上被檢測(cè)到很多次,所以還需要一個(gè)合并的過程將所檢測(cè)出來的矩形進(jìn)行合并以得到唯一的人臉圖像位置和人臉圖像尺度。在同一尺度下,當(dāng)檢測(cè)到人臉的兩個(gè)子窗口重疊部分超過當(dāng)前窗口大小的1/2時(shí),合并重疊的子窗口,合并的方法就是取平均值。此外,在不同尺度下檢測(cè)到的窗口如果發(fā)生重疊也需要合并,合并的方法也取平均值。后處理方法第76頁,共100頁,2024年2月25日,星期天77圖(a)是同一尺度下多個(gè)窗口重疊的結(jié)果,圖(b)是在不同尺度下多個(gè)窗口相互重疊的情況,圖(c)是最終合并的結(jié)果。圖10是檢測(cè)流程圖。第77頁,共100頁,2024年2月25日,星期天78(7)基于統(tǒng)計(jì)模型的方法總結(jié)不依賴于人臉的先驗(yàn)知識(shí)和參數(shù)模型,可以避免不精確或不完整的知識(shí)造成的錯(cuò)誤;采用了實(shí)例學(xué)習(xí)的方法獲取模型的參數(shù),統(tǒng)計(jì)意義上更為可靠;通過增加學(xué)習(xí)的實(shí)例可以擴(kuò)充檢測(cè)模式的范圍、提高檢測(cè)系統(tǒng)的魯棒性?;诮y(tǒng)計(jì)模型的方法大多適用于復(fù)雜背景圖象中的人臉檢測(cè)。目前基于統(tǒng)計(jì)模型的方法主要針對(duì)正面端正人臉的檢測(cè)。評(píng)估不同方法的性能需要共同的測(cè)試集,目前比較公認(rèn)的測(cè)試集是Sung等的MIT測(cè)試集和Rowley等的CMU測(cè)試集(涵蓋了Sung等的測(cè)試集)。表2列出了幾個(gè)具有代表性的算法在該測(cè)試集上的檢測(cè)結(jié)果統(tǒng)計(jì)。第78頁,共100頁,2024年2月25日,星期天79(7)基于統(tǒng)計(jì)模型的方法總結(jié)第79頁,共100頁,2024年2月25日,星期天80基于統(tǒng)計(jì)模型的方法具有很強(qiáng)的適應(yīng)能力和魯棒性,但由于需要對(duì)所有可能的檢測(cè)窗口進(jìn)行窮舉搜索,計(jì)算復(fù)雜度很高,因此檢測(cè)速度有待于提高,另外“非人臉”樣本的選取仍然是一個(gè)較為困難的問題。(7)基于統(tǒng)計(jì)模型的方法總結(jié)第80頁,共100頁,2024年2月25日,星期天819.3人臉識(shí)別人臉識(shí)別算法框架第81頁,共100頁,2024年2月25日,星期天829.3.1人臉識(shí)別的特征人臉幾何特征形狀幾何特征幾何模板特征人臉代數(shù)特征:原始圖像經(jīng)過代數(shù)變換而獲得的特征:主成分分析獨(dú)立成分分析奇異值分解隱馬爾可夫模型第82頁,共100頁,2024年2月25日,星期天83(一)形狀幾何特征提取從臉部器官的形狀及相互位置關(guān)系出發(fā),提取出人臉特征;常用的幾何特征有:人臉的五官(如眼睛、鼻子和嘴巴等的局部形狀)特征;臉型特征;五官在臉上分布的幾何特征?;趲缀翁卣鞯奶卣魈崛【哂泻軓?qiáng)的直觀性,但由于在提取過程中過多依賴于先驗(yàn)知識(shí),沒有形成一個(gè)統(tǒng)一的、優(yōu)秀的特征提取標(biāo)準(zhǔn),使得提取的特征或是過于嚴(yán)格,使識(shí)別的自適應(yīng)性不強(qiáng);或過于簡(jiǎn)略,則不足以識(shí)別適度極高的人臉樣本。第83頁,共100頁,2024年2月25日,星期天84(二)基于幾何模板的特征提取彈性模板特征提取方法是一種基于動(dòng)態(tài)鏈接結(jié)構(gòu)(DynamicLinkArchitecture,DLA)的方法。它將人臉用格狀的稀疏圖表示,圖中的節(jié)點(diǎn)用圖像位置的Gabor小波分解得到的特征向量標(biāo)記,圖的邊用連接節(jié)點(diǎn)的距離向量標(biāo)記。匹配時(shí),首先尋找與輸入圖像最相似的模型圖,再對(duì)圖中的每個(gè)節(jié)點(diǎn)位置進(jìn)行最佳匹配,這樣產(chǎn)生一個(gè)變形圖,其節(jié)點(diǎn)逼近模型圖的對(duì)應(yīng)點(diǎn)的位置。第84頁,共100頁,2024年2月25日,星期天851997年,Wiskott等使用二維結(jié)構(gòu)的Gabor小波對(duì)人臉圖像進(jìn)行處理,將人臉表達(dá)成由若干個(gè)特征點(diǎn)構(gòu)成的,具有一定拓?fù)浣Y(jié)構(gòu)信息的人臉彈性圖;它將人臉用格狀的稀疏圖表示,圖中的節(jié)點(diǎn)用圖像位置的Gabor小波分解得到的特征向量標(biāo)記,圖的邊用鏈接節(jié)點(diǎn)的距離向量標(biāo)記;Wiscott提出的彈性圖匹配方法,以FERET圖像庫做實(shí)驗(yàn),準(zhǔn)確率達(dá)到97.3%;彈性圖匹配方法對(duì)光照、位移、旋轉(zhuǎn)及尺度變化都不敏感,是一種優(yōu)于特征臉方法的人臉識(shí)別方法。此方法的主要缺點(diǎn)是對(duì)每個(gè)存儲(chǔ)的人臉需要計(jì)算其模型圖,其計(jì)算量和存儲(chǔ)量都較大。(二)基于幾何模板的特征提取第85頁,共100頁,2024年2月25日,星期天86彈性圖匹配算法采用標(biāo)號(hào)圖來表示人臉圖像,標(biāo)號(hào)圖的節(jié)點(diǎn)用一組描述人臉局部特征的二維Gabor小波變換系數(shù)來表示;標(biāo)號(hào)圖的邊用描述相鄰兩個(gè)節(jié)點(diǎn)向?qū)?yīng)位置的度量信息來表示。通過不同的人臉圖像的標(biāo)號(hào)圖之間的匹配來實(shí)現(xiàn)人臉對(duì)應(yīng)部位的局部特征之間聯(lián)系,從而能夠?qū)θ四槇D像解進(jìn)行比較和分類識(shí)別。進(jìn)而對(duì)圖中的每個(gè)節(jié)點(diǎn)位置進(jìn)行最佳匹配。(二)基于幾何模板的特征提取第86頁,共100頁,2024年2月25日,星期天87(二)基于幾何模板的特征提取第87頁,共100頁,2024年2月25日,星期天88Gabor小波是以任意一個(gè)高斯函數(shù)作為窗函數(shù)的波函數(shù)。一個(gè)圖像像素與不同方向和頻率的Gabor核卷積后的系數(shù)集合稱為一個(gè)Jet。一個(gè)Jet描述了圖像I(x)給定像素x=(x,y)周圍的一小塊灰度值,基于小波變換,定義如下卷積:在彈性圖匹配算法中,人臉上的特征點(diǎn)采用Gabor濾波器進(jìn)行特征抽取。Gabor核函數(shù)為:(二)基于幾何模板的特征提取第88頁,共100頁,2024年2月25日,星期天89(三)基于PCA的特征提取人臉識(shí)別的基準(zhǔn)技術(shù),并已成為事實(shí)上的工業(yè)標(biāo)準(zhǔn)基于主成分分析(PCA),PCA是將分散在一組變量上的信息集中到某幾個(gè)綜合指標(biāo)(主成分)上的數(shù)學(xué)方法,實(shí)際上起著數(shù)據(jù)降維的作用,并保證降維過程最大化保留原數(shù)據(jù)的差異。有利于這對(duì)最大化類間差異(即不同人之間的差異)和最小化類內(nèi)差異(即同一人的不同圖像間的差異)。2維數(shù)據(jù)降到1維的例子: 綠色點(diǎn)表示二維數(shù)據(jù),PCA的目標(biāo)就是找到這樣一條直線,使得所有點(diǎn)在這條直線上的投影點(diǎn)之間的平均距離最大。也就是最大化地保留了原數(shù)據(jù)的差異性第89頁,共100頁,2024年2月25日,星期天90直接計(jì)算C的本征值和本征向量是困難的,可以通過對(duì)矩陣做奇異值分解間接求出m值的選擇:如果將本征向量恢復(fù)成圖像,這些圖像很像人臉,因此稱為“本征臉”

[M.Turk&A.Pentland,JCN91](1)本征臉(eigenface)方法第90頁,共100頁,2024年2月25日,星期天91(2)本征特征方法利用PCA分析眼、鼻、嘴等局部特征,即本征特征方法

[R.Brunelli&T.Poggio,TPAMI93]

[A.Pentlandetal.,CVPR94]這實(shí)際上相當(dāng)于:為若干重要的特征建立本征空間,然后將多個(gè)本征

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論