基于深度學(xué)習(xí)的人臉識別技術(shù)綜述_第1頁
基于深度學(xué)習(xí)的人臉識別技術(shù)綜述_第2頁
基于深度學(xué)習(xí)的人臉識別技術(shù)綜述_第3頁
基于深度學(xué)習(xí)的人臉識別技術(shù)綜述_第4頁
基于深度學(xué)習(xí)的人臉識別技術(shù)綜述_第5頁
已閱讀5頁,還剩42頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

基于深度學(xué)習(xí)的人臉識別技術(shù)綜述 基于深度學(xué)習(xí)的人臉識別技術(shù)綜述同時人臉識別的研究領(lǐng)域非常廣泛。因此,本技術(shù)綜述限定于:一,在LFW數(shù)據(jù)集上()獲得優(yōu)秀結(jié)果LFW數(shù)據(jù)集()是目前用得最多的人臉圖像數(shù)據(jù)庫。 (無限制,可以使用外部標(biāo)注的數(shù)據(jù)),許多方法已經(jīng)趕上(超過)人工識別精度,比如表二:第六種標(biāo)準(zhǔn)下,部分模型的識別準(zhǔn)確率(詳情準(zhǔn)確度);二,公布了方法(部分結(jié)果為商業(yè)公司提交,方法并未公布,比如);三,使用深度學(xué)習(xí)方 face++(0.9950);2,DeepFace(0.9735);(0.9977);7,pose+shape+expressionntationCNNDMMface集了5million張人臉圖片用于訓(xùn)常高。該篇文章的網(wǎng)路模型很常規(guī)(常規(guī)深度卷積神經(jīng)網(wǎng)絡(luò)模型),但是提出的問題是值得參考的。率。在真實場景測試中(ChineseID(CHID)),該系統(tǒng)的假陽性率(FP=10-5)非常低。但是,真陽之一。而在該測試標(biāo)準(zhǔn)(CHID)下,人類表現(xiàn)的準(zhǔn)確率大于0.90。 問題四:人臉圖片的角度,光線,閉合(開口、閉口)和年齡等差異相互的作用,導(dǎo)人臉識別系統(tǒng)現(xiàn)實應(yīng)用準(zhǔn)確率很低。人臉畫面接近于現(xiàn)實應(yīng)用場景(變化的角度,光照,表情等);方向二:通過人臉合成方法增加訓(xùn)練數(shù)據(jù)。因為單個個體不同的照片很困難(比如,難以搜集大量的單個個體不同年齡段的照片,可以采用人臉合成的方法(比如3D人臉重建)生成單個個體不同年齡段的照片)。該文章提出的方向在后續(xù)方法介紹中均有體現(xiàn)。2,DeepFace(0.9735)2.1簡介million方法,最終生成正面圖像。深度神經(jīng)網(wǎng)絡(luò)2.4結(jié)果 3,F(xiàn)R+FCN(0.9645)3.1簡介occlusions率等原因,使人臉圖像在個體之間有很大的差異,影響到人臉識別的廣泛應(yīng)用。本文提出了一種新保持個體之間的差異的同時,極大的減少單個個體人臉圖像(同一人,不同圖片)之間的差異。與中學(xué)習(xí)到圖像中的規(guī)則觀察體(canonicalview,標(biāo)準(zhǔn)正面人臉圖像)。作者開發(fā)了成canonical-view的方法。在應(yīng)用方面,該人臉恢復(fù)來重建人臉正面標(biāo)準(zhǔn)圖片(canonical-view)。照以下三個標(biāo)準(zhǔn)來采集個體人臉圖片:一,人臉對稱性(左右臉的差異)進(jìn)行升序排l4,DeepID(0.9745)4.1簡介。本文中,我們使用了兩種深度神經(jīng)網(wǎng)絡(luò)框架(VGGnet和GoogleLeNet)來進(jìn)行人臉識別。兩種框架ensemble結(jié)。4.2深度神經(jīng)網(wǎng)絡(luò)框架FaceNet.9963)5.1簡介。只要該映射空間生成,人臉識別,驗證和5.2tripletloss5.5.3深度卷積神經(jīng)網(wǎng)絡(luò)126.1簡介learningmillion(18000個個體)的訓(xùn)練集訓(xùn)multipatchdeepCNN3deepmetriclearningposeshapeexpressionaugmentation)度,生成新的角度的人臉)。首先,通過人臉特征點(diǎn)檢測(faciallandmarkdetector根據(jù)人臉特征點(diǎn)和開放的Basel3Dfaceset數(shù)據(jù)庫7-1pose(角度)生成示意圖7.1簡介該文章的主要思路是對數(shù)據(jù)集進(jìn)行擴(kuò)增(dataaugmentation)。CNN深度學(xué)習(xí)模型,數(shù)據(jù)所耗費(fèi)的人力,物力,財力是很大的,所以商業(yè)公司使用的圖人臉數(shù)據(jù)訓(xùn)練一樣好的結(jié)果。該文章的思路很好,很適合普通研expression用中性嘴圖7-3不同表情(開口/閉口)生成示意圖CNNDMMestimation.9235)8.1簡介d似。因此,作者研究了一種魯棒的三維可變?nèi)四樐P?3Dmorphablefacemodels(3DMM))生成方法。他們采用了卷積神經(jīng)網(wǎng)絡(luò)(CNN)來根據(jù)輸入照片來調(diào)節(jié)三維人臉數(shù)據(jù)作者采用了近期發(fā)表的多圖像3DMM生成方法(M.Piotraschke2016)。他們在CASIA10K個體)。Singleimage3DMMfittingMultiimage3DMMfitting8.3.1TheasymmetricEuclideanloss8.4實驗結(jié)果th2人臉識別8.4.3定性結(jié)果DeepFace);3,FR+FCN(0.9645);4,DeepID(0.9745);5,F(xiàn)aceNet(0.9963);6,baidu的方法(0.9977);7,pose+shape+expressionnCNNDMMestimation大企業(yè),未來可以搜集更多更全的訓(xùn)練數(shù)據(jù)集。數(shù)據(jù)集包擴(kuò)同一個體不同年齡段的照片,不同人種的照片,不同類型(美丑等)。通過更全面的數(shù)據(jù),提高模型對

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論