基于深度卷積神經(jīng)網(wǎng)絡(luò)的人臉識別研究_第1頁
基于深度卷積神經(jīng)網(wǎng)絡(luò)的人臉識別研究_第2頁
基于深度卷積神經(jīng)網(wǎng)絡(luò)的人臉識別研究_第3頁
全文預(yù)覽已結(jié)束

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

1、基于深度卷積神經(jīng)網(wǎng)絡(luò)的人臉識別研究深度卷積神經(jīng)網(wǎng)絡(luò)主要應(yīng)用包括語音識別、圖像處理、自然語言處理等。本文就當(dāng)前大環(huán)境下研究了卷積神經(jīng)網(wǎng)絡(luò)模型在靜態(tài)環(huán)境下人臉識別領(lǐng)域的應(yīng)用。卷積神經(jīng)網(wǎng)絡(luò)模型需要設(shè)計一個可行的網(wǎng)絡(luò)模型,將大量的人臉訓(xùn)練數(shù)據(jù)集加載到網(wǎng)絡(luò)模型中,然后進(jìn)行自動訓(xùn)練,這樣就可以得到很好的識別率。把訓(xùn)練好的模型保存下來,那么這個模型就是一個端到端的人臉特征提取器。該方法雖然操作簡單,但是需要根據(jù)訓(xùn)練數(shù)據(jù)集設(shè)計合理的網(wǎng)絡(luò)結(jié)構(gòu),而且最難的關(guān)鍵點是超參數(shù)的調(diào)整和優(yōu)化算法的設(shè)計。因此本文結(jié)合殘差網(wǎng)絡(luò)和融合網(wǎng)絡(luò)構(gòu)建了兩個與計算資源和數(shù)據(jù)資源相匹配的網(wǎng)絡(luò)模型,并通過反復(fù)調(diào)整超參數(shù)和調(diào)試優(yōu)化器使其在訓(xùn)練集

2、上能夠收斂,最終還取得較好的識別率。本文的主要研宄內(nèi)容和創(chuàng)新點如下:介紹了卷積神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)理論知識。先從傳統(tǒng)人工神經(jīng)網(wǎng)絡(luò)的模型結(jié)構(gòu)、前向和反向傳播算法進(jìn)行了詳細(xì)的分析;然后過渡到卷積神經(jīng)網(wǎng)絡(luò)的相關(guān)理論,對其重要組成部分如卷積層、激勵層、池化層和全連接層進(jìn)行了具體的闡述;最后對卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練時的一些注意事項進(jìn)行了說明。人工神經(jīng)元是構(gòu)成人工神經(jīng)網(wǎng)絡(luò)的基本計算單元,單個神經(jīng)元的模型結(jié)構(gòu)如下圖所示。其中,Zw1x1bWTXbhw,h(x)f(z)1卷積神經(jīng)網(wǎng)路的基本結(jié)構(gòu)簡單的池化過程:對深度學(xué)習(xí)框架TensorFlow的系統(tǒng)架構(gòu)和編程模型作了一些說明,并對人臉數(shù)據(jù)進(jìn)行預(yù)處理,包括人臉檢測、數(shù)據(jù)增強

3、、圖像標(biāo)準(zhǔn)化和人臉中心損失。TensorFlow的系統(tǒng)架構(gòu)如下圖所示TensorFlow的編程模式系統(tǒng)本地模式和分布式模式示意圖提出了基于改進(jìn)的MyVGGNet口MySqueezeNet網(wǎng)絡(luò)的人臉識別。首先分析了本II型VGGNet-1解口SqueezeN由勺網(wǎng)絡(luò)結(jié)構(gòu)及相關(guān)參數(shù),然后本文提出將原VGGNet-1解口SqueezeNe的網(wǎng)絡(luò)結(jié)構(gòu)和參數(shù)進(jìn)行優(yōu)化,并在每個卷積層和激勵層之間添加批歸一化層,在VGGNet-1綱絡(luò)末尾用1個1*1的卷積層代替三個全連接層,還增加全局平均池化層,得到新的MyVGGNe前MySqueezeNet模型,最后在LFW數(shù)據(jù)集上分別獲得嗨口%勺準(zhǔn)確率。VGGNet-

4、16網(wǎng)絡(luò)結(jié)構(gòu)框圖MyVGGNe網(wǎng)絡(luò)框圖MyVGGN軀絡(luò)訓(xùn)I練時LFWM試集的準(zhǔn)確率走勢圖MyVGGNe絡(luò)在LFW的ROC線圖提出了基于二叉樹型融合網(wǎng)絡(luò)BTreeFuseNet_v1和BTreeFuseNet_v2的人臉識別。首先對深度神經(jīng)網(wǎng)絡(luò)的優(yōu)化問題和融合原理作了分析;然后結(jié)合殘差學(xué)習(xí),融入分支并行、融合和級聯(lián)三種結(jié)構(gòu),采用ReLU函數(shù)、BN層、Dropout層、哈維爾方法和截斷高斯函數(shù)初始化方法、AdamK化器等技巧,構(gòu)建了兩個層次深度為22和19的網(wǎng)絡(luò)模型BTreeFuseNet_v1和BTreeFuseNet_v2,并詳細(xì)說明了這兩個網(wǎng)絡(luò)模型的基本構(gòu)成、整體架構(gòu)和模型參數(shù);最后在Facescmb數(shù)據(jù)集上連續(xù)訓(xùn)練,同時調(diào)整網(wǎng)絡(luò)參數(shù),獲取較好的模型,再在LFWM試集上進(jìn)行人臉驗證,并且分別取得好口崛勺準(zhǔn)確率BTreeFuseNetv1和BTreeFuseNetv2在LFWM據(jù)集上的ROC線在深度融合網(wǎng)絡(luò)的基礎(chǔ)上提出二叉樹融合網(wǎng)絡(luò),并詳細(xì)說明了該網(wǎng)絡(luò)模型的基本構(gòu)成、整

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論