題目基于卷積神經(jīng)網(wǎng)絡(luò)人臉檢測(cè)算法_第1頁(yè)
題目基于卷積神經(jīng)網(wǎng)絡(luò)人臉檢測(cè)算法_第2頁(yè)
題目基于卷積神經(jīng)網(wǎng)絡(luò)人臉檢測(cè)算法_第3頁(yè)
題目基于卷積神經(jīng)網(wǎng)絡(luò)人臉檢測(cè)算法_第4頁(yè)
題目基于卷積神經(jīng)網(wǎng)絡(luò)人臉檢測(cè)算法_第5頁(yè)
已閱讀5頁(yè),還剩33頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

基于卷積神經(jīng)網(wǎng)絡(luò)的人臉檢測(cè)算法研究識(shí)別便是在此大環(huán)境下最受人們期待的一種生物驗(yàn)證技術(shù)。人臉檢測(cè)作為識(shí)別系統(tǒng)需要臉的膚色特征,建立膚色模型,對(duì)被檢測(cè)圖像進(jìn)行膚色分割,分割出圖像的疑似膚色STUDYANDIMPLEMENTATIONOFCONVOLUTIONALNEURALNETWORKSThestudyoffacerecognitionwasoriginatedfromthetwentysixties,andthefacedetectionwasinitiallyproposedasafacelocalizationpartinacompletefacerecognitionsystem.Sincethe21stcentury,theInterneteconomy esincreasinglystronger,peoplepaymoreandmoreattentiontothesecurityproblemabout merce.Sohowtodesignafastandeffectiveidentificationsystemisthetoppriorityforpeople,facerecognition esthemostanticipatedtechnologyinthisenvironmentwhichpeoplelookforwardto.Facedetection,astheprimaryproblemtosolveinonefacerecognitionsystem,graduallybegantowidespreadattentionasanindependentsubjecttobestudied.Inthispr,afacedetectionalgorithmbasedonskincolorsegmentationandconvolutionneuralnetworksisproposed.ofall,accordingtothecharacteristicsoffaceskin,donethecolorsegmentationfortheimagewhichtobedetected.Thengotthepossibleskinregionsthataresegmentedforfurtherprocessing.Aftertheextractionofimagefeaturesofskincolorsegmentation,puttheimagetothedesignedconvolutionalneuralnetworksandgotthefinalresult.Finally,experimentalverificationisperformedontheCaltechandnewGeiaTechfacedatabase.Theexperimentalresultsshowthatthefacedetectionalgorithmhasbetterdetectionefficiency,theirdetectionrateare97.78%and98.13%,andtheirfalsedetectionratesarelower.Keywords:facedetection,Gaussianskincolormodel,skincolorsegmentation,convolutionalneuralnetworks第一章緒 1.1研究背景和意 第二章人臉圖像膚域分 RGB顏色空 CMY顏色空 YUV顏色空 HSV顏色空 膚色模 本章小 腦神經(jīng)系 人工神經(jīng)網(wǎng) 卷積神經(jīng)網(wǎng) 基于卷積神經(jīng)網(wǎng)絡(luò)的人臉檢測(cè)算 算法流 網(wǎng)絡(luò)訓(xùn) 本章小 第四章實(shí)驗(yàn)結(jié)果與分 實(shí)驗(yàn)開發(fā)環(huán) 算法檢測(cè)實(shí) 本章小 第五章總結(jié)與展 總 展 謝 第一章緒論1.1研究背景和意究課題,越來(lái)越多的研究開始進(jìn)行這方面的研究。如今,人臉檢測(cè)不再僅僅是作為人臉識(shí)別系統(tǒng)中的子部分們所研究,它在各種關(guān)于內(nèi)容搜索、數(shù)字圖像處理、視像監(jiān)測(cè)等研節(jié)變化的結(jié)構(gòu)目標(biāo),而基于此類目標(biāo)的檢測(cè)問(wèn)題主要存在著以下幾個(gè)[3]:習(xí)等新興科研技術(shù)的興起,越來(lái)越多新穎且高效的人臉檢測(cè)方法被科研提出。人臉模式分1-2

平均等 平均等(假設(shè)檢驗(yàn)等(模糊推理等常用人臉檢測(cè)方?jīng)]有被研究出來(lái),科研一直在努力尋找解決這種局限性的方法。目前,常被用到的檢人臉面部的眼、耳、鼻等分散地分布于一張完整人臉上,它們的結(jié)構(gòu)關(guān)系由它們到符合這些規(guī)則的臉區(qū)域。分辨出任意一副圖像中的人臉與臉。在這種假設(shè)的基礎(chǔ)上,誕生了基于特征不變量的人臉檢測(cè)方法。這種方法在具體實(shí)現(xiàn)時(shí),一般段是先利用相關(guān)的圖像邊緣檢測(cè)算子確定人臉圖像中存在的眼、鼻、嘴等具體臉部特征,因?yàn)檫@些一般情況下都會(huì)固定人工神經(jīng)網(wǎng)絡(luò),是研究根據(jù)人類等生物的神經(jīng)網(wǎng)絡(luò)的特點(diǎn)一種算法模型。逐漸開始成為科研的研究焦點(diǎn)。從上述內(nèi)容可知,人臉是一種復(fù)雜的結(jié)構(gòu)化模型,很類方法的實(shí)現(xiàn)過(guò)程是:首先獲取一個(gè)或多個(gè)現(xiàn)成的標(biāo)準(zhǔn)人臉模板,或者由科研自行設(shè)檢測(cè)率(TruePositiveTPR

但并不能體現(xiàn)算法對(duì)負(fù)樣本(錯(cuò)誤的臉圖像)的排除能力,所以需要引進(jìn)誤檢率指標(biāo)誤檢率(FalsePositiveFPRnn其中,nfp為誤判為人臉

漏檢率(FalseNegativeFNR1 本文主要工利用圖像數(shù)據(jù)庫(kù)進(jìn)行檢測(cè)實(shí)驗(yàn),并應(yīng)用上價(jià)指標(biāo)評(píng)價(jià)算法的檢測(cè)效果。的膚色模型,利用人臉的膚色信息過(guò)濾掉圖像中的大量臉區(qū)域,分割得到被檢測(cè)的驗(yàn)證實(shí)驗(yàn)在平臺(tái)進(jìn)行操作,在Caltech和newGe iaTech兩個(gè)人臉圖像數(shù)據(jù)第二章人臉圖像膚域分人臉圖像的膚色分割是指將一副圖像的臉區(qū)域過(guò)濾掉,并得到人臉區(qū)域的過(guò)程,它是當(dāng)前計(jì)算機(jī)視覺和數(shù)字圖像處理領(lǐng)域的研究熱點(diǎn)。為了準(zhǔn)確地將臉區(qū)域過(guò)濾掉,RGB、CMY、YUV、HSV等[8]YUVYUV、YIQ、YCbCr三者,它們的原理十分相近,但在實(shí)現(xiàn)細(xì)節(jié)上有細(xì)微差異;HSV顏色空間比(Red(Green綠、藍(lán)三色最敏感,但RGB顏色空間并不適合用于設(shè)計(jì)合適有效的膚色分割方法。在RGBRGB顏色空間模型如圖2-1所示。藍(lán) 品紅青 白黑

紅綠 黃2-1RGB顏色空間(Cyan(Magna三色來(lái)描述顏色[10]。現(xiàn)今人們使用的各種彩色、彩色印刷系般采用的都是CMY到CMY的轉(zhuǎn)換關(guān)系如式(2-1)所示。

C1RM1GY1B

圖。因?yàn)閅UV空間的以上特點(diǎn),它被廣泛地采用于現(xiàn)今的彩色電視體系中,并且它還完美Y分量后的彩色信號(hào)也能作為黑白電視的輸入信號(hào)。RGB到Y(jié)UV、YCbCr、YIQ的轉(zhuǎn)換關(guān)系如式(2-2)所示。Y0.299R0.587GUBYVR

Cb0.564(BYCr0.713(RYI0.596R0.274G0.322BQ0.211R0.523G

(Hue(SaturationH用角度值度量,取值范圍為0 360,紅色作為H分量的起始點(diǎn)0,從逆時(shí)針方向計(jì)飽和度S是一個(gè)比例值,取值范圍為01,值越大代表的顏色越鮮艷。亮度V則表示色彩的明亮程度,取值范圍也為01,V值從低到高地代表黑色和白色。RGB到HSV的轉(zhuǎn)換關(guān)2-2HSV顏色空間模型max_valuemax(R,G,B),min_valuemin(R,G,(GB)/(max_valuemin_value), Rmax_valueh2(BR)/(max_valuemin_value), Gmax_4(RG)/(max_valuemin_value), Bmax_ (2-H h h0,Vmax(R,G,h60360 hS(max_valuemin_value)/max_本文從互聯(lián)網(wǎng)上獲取了1000幅各式各樣的皮膚樣本,部分樣本如圖2-3所示,進(jìn)Y、I、Q分量各自的均值和方差。由式(2-2)可知,YI、Q分量的值并不Y分量而直接去判別I、Q分量的話,會(huì)對(duì)判別結(jié)果造成影響。2-32-5所示(各分量值都?xì)w一化到[0,1]區(qū)間Y值的變化,I、Q的值會(huì)有較Q分量。2-4YI2-5YQ從上圖觀察發(fā)現(xiàn),通過(guò)聚類分析可以將膚色樣本分為兩簇。K-均值(K-means)聚2-62-72-6Y、I

2-7Y、Q均值和方差作為參數(shù),建立膚色模型。膚色模型的數(shù)學(xué)表達(dá)式一般為如下形式:pexp(0.5(xx)T[cov(x)]1(x (2-記上述兩個(gè)樣本聚類為ClusterA、ClusterB,其中ClusterA中各樣本I分量均值為0.1423,Q0.0311,I、Q0.0015、0.0003。ClusterBI分量均值為0.1262,Q分量均值為0.0103,I、Q分量的方差為0.0018、0.0003。YClusterAClusterAI、Q均值和方差建立如下膚色模型 pQexp(0.5(Q0.0311)T(0.0003)1(Q 方差建立如下膚色模型pIexp(0.5(I0.1262)T(0.0018)1(I pQexp(0.5(Q0.0103)T(0.0003)1(Q I、Q分量隨Y變化的情況,設(shè)計(jì)如下算法:pIpQ0Y0.65(2-6)(2-7)pQ第三,確定每點(diǎn)的膚色概率為ppIpQ2,得到檢測(cè)圖像的膚色概率圖像。2-8本章主要介紹了常用顏色空間的種類和它們各自的特點(diǎn)。其中,RGB空間下的圖像不適合進(jìn)行膚色分割,因?yàn)镽GB空間中的顏色的亮度信息和色度信息混合在了一起,容易受到光線強(qiáng)弱的影響;YIQ、YCbCrYIQ空間,圖像從RGB空間轉(zhuǎn)換到Y(jié)IQ空間再進(jìn)行處理。1000YIQY、I、Q三坐標(biāo)值生物神經(jīng)網(wǎng)胞體、樹突、軸突和突觸這幾個(gè)主要的部分組成[15]。神經(jīng)元示意圖如圖3-1所示[16]。3-1生物神經(jīng)元人工神經(jīng)網(wǎng)人工神經(jīng)網(wǎng)絡(luò)(ArtificialNeuralNetwork,ANN,簡(jiǎn)稱為神經(jīng)網(wǎng)絡(luò)或類神經(jīng)網(wǎng)絡(luò))[17],立起來(lái)的人工機(jī)器學(xué)習(xí)系統(tǒng)。ANN中各層通過(guò)不同的連接方式組成不同形式的網(wǎng)絡(luò)。隨著科研幾十年來(lái)的不斷研究發(fā)展,ANN已經(jīng)在模式識(shí)別,估計(jì),生物醫(yī)學(xué),甚至經(jīng)1943年,WarrenMocullochWalterPitts通過(guò)研究發(fā)現(xiàn),生物的神經(jīng)細(xì)胞的工作方式要么是興奮,要么是抑制,他們據(jù)此首先提出了第一個(gè)人工神經(jīng)元模型,M-P模型。單個(gè)示意圖如圖3-2所示。M-P模型有以下特點(diǎn):....Ty3-2M-P圖3-2中,xi(i1, 只有1或0兩種輸出結(jié)果:1,wxiy

M-P模型的特點(diǎn)可以看出,它過(guò)于簡(jiǎn)單,連接權(quán)值不能學(xué)習(xí),應(yīng)用背景不廣泛,因型示意圖如圖3-3所示。uyuy 3-3nyf(u)f(wixi

x(i1,nXxx,x)TRni n其中,xi(ix(i1,nXxx,x)TRni n稱為輸入向量;神經(jīng)元與突觸間的連接權(quán)值常被寫成向量形式W(w,w ,w)TRn yf(XTW

f(x)

f(x)

xx

1f(x)1 11f(x)1e 輸出層輸出。前向網(wǎng)絡(luò)的結(jié)構(gòu)示意圖如圖3-4所示。

3-4反饋輸入到輸入層參與網(wǎng)絡(luò)的調(diào)節(jié)、運(yùn)行。帶反饋前向網(wǎng)絡(luò)的結(jié)構(gòu)示意圖如圖3-5所示。

3-5結(jié)構(gòu)示意圖如圖3-6所示。3-63-7意圖分別如圖3-8、3-9所示。3-8無(wú)監(jiān)督學(xué)習(xí)與有監(jiān)督學(xué)習(xí)最大的不同點(diǎn)在于它不需要利用學(xué)習(xí)樣本對(duì)網(wǎng)絡(luò)進(jìn)行訓(xùn)練調(diào)的制神經(jīng)神經(jīng)網(wǎng)3-9卷積神經(jīng)網(wǎng)卷積神經(jīng)網(wǎng)絡(luò)(ConvolutionalNeuralNetworks,s)[19],是近年重新引起科研pyns度學(xué)習(xí)最早的一員又逐漸開始成為眾多科學(xué)領(lǐng)域的研究熱點(diǎn)之一,尤其是在模式分類領(lǐng)域中。s是明。為s算s是第一個(gè)真正意義上成功訓(xùn)練多層網(wǎng)絡(luò)結(jié)構(gòu)的機(jī)器學(xué)習(xí)算法。s應(yīng)用在圖像輸出人臉和臉兩種結(jié)果;隱藏層,包含有五個(gè)不同功能的子層。它的網(wǎng)絡(luò)結(jié)構(gòu)示意圖如圖3-10所示: 3-10開開結(jié)20X203-11本文設(shè)計(jì)的卷積神經(jīng)網(wǎng)絡(luò)的輸入圖像是經(jīng)過(guò)處理后的大小為2020的窗口圖像,這種出結(jié)果只會(huì)存在人臉和臉兩種結(jié)果,所以設(shè)計(jì)的網(wǎng)絡(luò)輸出層的節(jié)點(diǎn)數(shù)為2。信號(hào)f1(和f2的卷積定義如式(3-9),簡(jiǎn)記為f1(f2,其中的星號(hào)是卷

s(t)

f1()f2(t 離散序列x(i),h(j)(i,j0,1, ky(k)x(k)h(k)x(i)h(k

433822大小的卷積核。這些卷積核和網(wǎng)sigmoid函數(shù)中每個(gè)位置的激活值,作為本層的輸出特征圖。小的圖像經(jīng)過(guò)兩次卷積和降采樣后最終得到44

3-12降采樣層的功能是對(duì)通過(guò)卷積層后的特征圖進(jìn)行子抽樣,目的是減少網(wǎng)絡(luò)傳遞的數(shù)據(jù)常用的S型函數(shù),即Sigmoid激勵(lì)函數(shù)為系統(tǒng)的激勵(lì)函數(shù)。設(shè)網(wǎng)絡(luò)的輸入net由式(3-11)netx11x22

其中,x1,x2,,xn為該神經(jīng)元的輸入信號(hào),1,2, 設(shè)神經(jīng)元的輸出f(net)由式(3-12)計(jì)算得到: f(net)(1enet)21enet(1enet)21

(3-其中1enet,可以看出當(dāng)net0時(shí),0.5,而net的在區(qū)間(-0.6,0.6現(xiàn)求關(guān)于net的導(dǎo)數(shù),注意到: 11net1

1,net

net f(x)

(1)FERET、MIT、ORL數(shù)據(jù)庫(kù),獲取一部分人臉訓(xùn)練樣本;然后從以上,本文一共收集到了8000幅人臉訓(xùn)練樣本。本文獲取的部分人臉訓(xùn)練樣本如3-133-13(2)臉訓(xùn)練樣本的收為臉的訓(xùn)練樣本。本文首先從上述常用的人臉數(shù)據(jù)庫(kù)里收取一部分臉訓(xùn)練樣本;然的部分臉訓(xùn)練樣本如圖3-14

圖3-14部分臉訓(xùn)練樣用B(ErrorBakPopagtio,B,誤差反向)算法[21]對(duì)絡(luò)進(jìn)行訓(xùn)。Pt6t研,絡(luò)的第二次研究熱潮。BP算法能夠較好地解決多層神經(jīng)網(wǎng)絡(luò)的訓(xùn)練問(wèn)題。盡管基于BP的網(wǎng)絡(luò)P在提出后,就很快地就成為科研界中應(yīng)用最為廣泛的多級(jí)網(wǎng)絡(luò)訓(xùn)練算法。BP算法對(duì)人工神。第一步,從訓(xùn)練樣本數(shù)據(jù)集里隨機(jī)或者依次取出一個(gè)訓(xùn)練樣本X,Yp),將X輸入到神第二步,計(jì)算并記錄神經(jīng)網(wǎng)絡(luò)的實(shí)際輸出Op層處理,最后從輸出層輸出的過(guò)程。網(wǎng)絡(luò)的實(shí)際輸出Op由式(3-15)計(jì)算得到:OF (F(F(XW(1))W(2) )W(n) 第一步,計(jì)算由前向階段得到實(shí)際的輸出Op與相應(yīng)的樣本數(shù)據(jù)的理想輸出Yp的22

E1m 2j

(

opj

設(shè)定本文的卷積神經(jīng)網(wǎng)絡(luò)輸入層的輸入矢量為X(x1,x2 ,xN),中間層的輸出矢為H(h1,h2,,hL),網(wǎng)絡(luò)最終的實(shí)際輸出矢量為Y(y1,y2,,yM),而訓(xùn)練的目標(biāo)輸出矢量為D(d1,d2 ,dM);輸入層的輸入單元i到中間層的隱藏單元j的權(quán)值是Vij,1Nhjf(Vijxij

ykf(Whjkjf(x)

第二步,最初的權(quán)值Vij,Wjk和最初的閾值j,k設(shè)置接近于0的極小隨機(jī)正數(shù)設(shè)置最初的精度控制參數(shù)和學(xué)習(xí)率目標(biāo)輸出矢量為D;層的實(shí)際輸出矢量Yk(dkyk)yk(1yk中間層的隱藏單元用式(3-21)計(jì)算L個(gè)誤差M

h(1

k

kW

23:Wjk(n)(/(1L))(Wjk(n1)1)kVij(n)(/(1N))(Vij(n1)1)j

k(n)(/(1L))(k(n1)1)

j(n)(/(1L))(j(n1)1)

Wjk(n1)Wjk(n)

Wjk

Vij(n1)Vij(n)

k(n1)k(n)j(n1)j(n)

kj

第八步,每次k1M完成一個(gè)循環(huán)后,判斷輸出的指標(biāo)是否滿足網(wǎng)絡(luò)的精度要E:不滿足,返回(3),繼續(xù)迭代訓(xùn)練;滿足,進(jìn)入最后一步。第四章實(shí)驗(yàn)結(jié)果與分析實(shí)驗(yàn)開發(fā)環(huán)本文的檢測(cè)算法和驗(yàn)證程序均在平臺(tái)上進(jìn)行編寫。全稱Matrix近數(shù)學(xué)表達(dá)式,非常容易理解和學(xué)習(xí)。還擁有強(qiáng)大的可視化功能,可以很方便地C語(yǔ)言相比,執(zhí)行效率較低,因此只適合在算法的設(shè)計(jì)階段進(jìn)行驗(yàn)證算法檢測(cè)實(shí)治亞理工學(xué)院人臉數(shù)據(jù)庫(kù)750幅相同背景、不同表情和不同角度的人臉圖像。結(jié)果進(jìn)行比較,比較數(shù)據(jù)如表4-1、4-2所示。表4-1不同算法表4-2不同算法在new iaTech人臉數(shù)據(jù)庫(kù)上的檢測(cè)結(jié)果比較(750幅圖像文的算法的誤檢率大大低于前面兩者;檢測(cè)率在newGe iaTech數(shù)據(jù)庫(kù)上分別提高了高了6.57%;檢測(cè)時(shí)間相比二者有高有低。本文的算法取得了較好的檢測(cè)效果。圖4-1算法在Caltech庫(kù)的部分檢測(cè)結(jié)圖4-2算法在new iaTech庫(kù)的部分檢測(cè)結(jié)果(不同表情和不同角度本章介紹了實(shí)驗(yàn)所使用的人臉圖像庫(kù)的信息,實(shí)驗(yàn)驗(yàn)證程序在平臺(tái)進(jìn)行編OriginalAdaboost算法和文獻(xiàn)[24]介紹的算法的實(shí)驗(yàn)結(jié)果進(jìn)行了對(duì)比第五章總結(jié)與展望總間轉(zhuǎn)換到Y(jié)IQY、I、Q三坐標(biāo)值分別投影到Y(jié)I、YQ平面的圖像,觀察發(fā)I、Q均值和方差,建立膚色的模型,最后進(jìn)行分割膚色。和12000幅臉樣本,利用基于BP算法的網(wǎng)絡(luò)訓(xùn)練算法對(duì)卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,并儲(chǔ)最后,在平臺(tái)進(jìn)行編寫本文的驗(yàn)證程序編寫,在Caltech和newGeiaTechnewGeia展參考文[1].人臉檢測(cè)技術(shù)現(xiàn)狀與發(fā)展研究[J].科技信息,2012,(24):137-:10.3969/j.issn.1001-[2],艾海舟,祐,.人臉檢測(cè)研究綜述[J].計(jì)算機(jī)學(xué)報(bào),2002,25(5):449-[3]SungKK,PoggioT.Example-basedlearningforview-basedhumanfacedetection[J].PatternysisandMachineInligence,IEEETransactionson,1998,20(1):39-51.[4],艾海舟,,等.基于多關(guān)聯(lián)模板匹配的人臉檢測(cè)[J].學(xué)報(bào),2001,12(1):94-102.[5] [D].信息工程大學(xué),[6],,雷震.人臉檢測(cè)技術(shù)的研究進(jìn)展[J].電腦知識(shí)與技術(shù),2009,5(9):7211-7213.[7]易叢琴,,.基于膚色分割的彩像的人臉檢測(cè)[J].工業(yè)大學(xué)學(xué)報(bào):自然科學(xué)版,2003,32(4):65-68.[8],.基于顏色-空間特征的彩像檢索方法[C]//幾何設(shè)計(jì)與計(jì)算的新進(jìn)展.2005.[9]斌,,.一種基于最大相似子陣的彩像檢索算法[J].計(jì)算機(jī)科學(xué),2012,39(7):282-286. [10],.圖像的色彩空間研究[J].六盤水師范學(xué)院學(xué)報(bào),2005,17(6):15-18.[11],,越,等.基于HSI顏色空間的交通標(biāo)志圖像分割算法研究[J].中國(guó)高新技術(shù)企業(yè)旬刊,2014,(3):93-94.:10.3969/j.issn.1009-2374.2014.03.045./help/images/convert-from-hsv- GarciaC,TziritasG.Facedetectionusingzedskincolorregionsmergingandwaveletpacketysis[J].IEEETransactionsonMultimedia,1999,1(3):264-277.,.[J].,2009,(18):30-30..神經(jīng)元和神經(jīng)網(wǎng)絡(luò)模型[J].科學(xué)1992,/upload/encyclopedia_2/,,.人工神經(jīng)網(wǎng)絡(luò)的發(fā)展及應(yīng)用[J].電子設(shè)計(jì)工程,2011,19(24):62-65.:10.3969/j.issn.1674-6236.2011.24.022.艾買買提.人工神經(jīng)網(wǎng)絡(luò)及其應(yīng)用[J].和田師范??茖W(xué)校學(xué)報(bào),2009,28(1).,,,等.基于卷積神經(jīng)網(wǎng)絡(luò)的車牌照字符識(shí)別研究[C]//第十二屆圖象圖形學(xué)學(xué)術(shù)會(huì)議集.2005. KanadeT,BalujaS,RowleyHA.NeuralNetwork-BasedFaceDetection[J].IEEETransactionsonPatternysis&MachineInligence,1998,20(1):23-38.,,卓東風(fēng).BP神經(jīng)網(wǎng)絡(luò)在圖像邊緣檢測(cè)中的應(yīng)用[J].計(jì)算機(jī)工程與設(shè)計(jì),2011,32(6):2146-2149.,錢春陽(yáng),.一種BP網(wǎng)的學(xué)習(xí)速率與動(dòng)量項(xiàng)自適應(yīng)算法[J].小型微型計(jì)算機(jī)系統(tǒng),2013,34(8):1872-1876.:10.3969/j.issn.1000-1220.2013.08.032.符翔,韓,安永生.應(yīng)用人工神經(jīng)網(wǎng)絡(luò)優(yōu)化五點(diǎn)法水平井井網(wǎng)[J].油氣地質(zhì)與采ZulhadiZ,ShahrelS.FaceDetectionUsingCombinationofNeuralNetworkandAdaboost[C].2011IEEERegion10Conference,Indonesia:TENCON,2011:335-338.謝我由衷地謝意,謝謝在我需要的時(shí)候伸出了溫暖的雙手。通過(guò)本階段的努力,《基于特征融合的人臉檢測(cè)算法研究》也終于順利完成了,在此,由衷感謝導(dǎo)師老師在此期間對(duì)我畢業(yè)設(shè)計(jì)的幫助,每次遇到,都會(huì)以她豐富的學(xué)識(shí)對(duì)我進(jìn)行指導(dǎo),讓我順利解決;感謝感謝大學(xué)四年期間所有教導(dǎo)過(guò)老師,沒有,我就不可能系統(tǒng)地學(xué)習(xí)到應(yīng)該掌握的各種知識(shí),謝謝的辛苦付出;感謝九班的各位同學(xué),是讓業(yè)余生活不再那么單調(diào),認(rèn)識(shí)很幸運(yùn);感謝寢室的三位室友,與相處讓學(xué)習(xí)到了很多為人處世方面的東西,希望和我都有一個(gè)光明的未來(lái)。感謝父母,感謝二十年來(lái)的養(yǎng)育之恩,沒有就沒有現(xiàn)在的我,希望STUDYANDIMPLEMENTATIONOFCONVOLUTIONALNEURALNETWORKSFacedetectionistodeterminewhetherornotthereareanyfacesintheimageand,ifso,returnthelocationandextentofeachface.Asakeytechnologyforinformationprocessing,facedetectionhas eapopularareaofimportance,veryactiveresearchtopicinComputerVisionandPatternRecognitioninrecentyears.Theresearchoffacerecognitioncanbetracedbacktothetwentysixtiesandseventies,andfordecadesoftortuousdevelopmentnow,thetechnologyhasmatured.Facedetectionisakeypartofanautomaticfacerecognitionsystem,butintheearlytime,thefacerecognitionresearainlyinviewofthestrongconstraintsoffaceimages(suchassomeimageswithoutbackground),itassumedtofacelocationoftheimageknownoreasytoget,sotheproblemoffacedetectionwerenottakenseriously.Inrecentyears,withthedevelopmentofelectroniccommerceapplications,facerecognitionis ingthemostpotentialbiometricidentityverificationmethod.Inthisapplicationbackground,anautomaticfacerecognitionsystemmusthavetheabilitytoadaptimagesinteralenvironment,andthoseproblemsmakesfacedetectionbeganasanindependentsubjectwhichisdrawingthemoreandmoreresearchers'attention.Now,theapplicationbackgroundoffacedetectionhasfarexceededthescopeoffacerecognitionsystem,basedonthecontentretrieval,digitalprocessing,andvisualmonitoring,whichhastheimportantapplicationvalue.Theresearchoffacedetectionhastheimportantacademicvalue.Humanfaceisakindofnaturalstructuralwithquitecomplexdetails,andthechallengeofdetectingthissasfollows:Becauseoftheappearance,facialexpression,skincolorandsoon,thehumanfacehasthepatternofthevariability.Thecommonfacemayexistglasses,beardsandotherThefaceimageisinevitablyaffectedbytheshadowoftheilluminationasthe3-Dobject.Thevariationoffacepose.Inthispr,tosolvetheseproblems,andaftertheselectioncomparisonofotherfacedetectionmethods,theneuralnetworkisselectedasthealgorithmofthispr.Theconvolutionalneuralnetworks(s)isonekindoftheneuralnetworks,whichwasdesignedspecificallyforimagerecognition.Itsadvantagesinimageprocessingaremainlyreflectedinthefollowingaspects:ThetopologicalstructureoftheinputimageisgreatconsistentwiththenetworkThefeatureextractionandclassificationstagesarecarriedoutsimultaneouslyandgeneratedatthetraintime.Weightsharingcanreducethetrainingparametersofthenetwork,makethestructureoftheneuralnetwork esimpleanptable.Fromtheabovecharacteristics,asanewgreateffectivefacedetectionmethod,thedifferenceofconvolutionalneuralnetworksandtraditionalmethodisthatsthroughthedirecteffecttotheinputsample,andusethesampletotrainthenetwork,tofinishtheultimatedetectiontasks.Itisafacedetectionmethodwithoutparameterinput,whichcaneliminatethecomplexprocessofmodeling,parameterestimation,parameterestimationandparametertestandreconstructionmodeletc.Accordingtothisidea,thisprchosesthefacedetectionmethodbasedontheconvolutionalneuralnetworks.Inthiss,thenodenumberofinputlayeris400(20x20),thenodenumberofoutputlayeris2(oneforface,theotherfornon-face),andthehiddenlayerhasfiveparts:Inputlayer:thesizeoftheinputwindowusedinthispris20x20,whichisusuallythesmallestwindowthatcanbeusedinfacedetection,becausethiswindowcontainsakeypartoftheface.Therefore,thenodenumberofinputlayerisdesignedto400,correspondingtotheeachpixelofthe20x20imagewindow.Hiddenlayer:thislayerconnecttoinputlayer,ithasbeendividedintofiveparts.Theyaretwoconvolutionlayers,twopoolinglayers,andonefullconnectionlayer.Theconvolutionlayershavethefunctionofenhancingthefeature.Thepoolinglayerscanreducethedataprocessingtyandretaintheusefulinformationbyusingtheprincipleoflocalcorrelation.Andtheconnectionlayercalculatethevaluebyusingthesigmoidexcitationfunction.Outputlayer:thenodenumberis2(oneforface,theotherfornon-face),theseresultscomefromthelastconnectionlayer.Trainingofnetwork:thisprusedthealgorithmbasedonbackpropagation(BP)totraintheconvolutionalnetwork.Somepre-processingsuchaslightnesscompensation,histogramequalization,andthemostimportantskincolorsegmentationhasdonebeforeinputtingimagetothenetwork.Colorinformationisanimportantfeatureoftheimage.Skincolorcanbeusedtofilteralotofirrelevantbackground,reducetheamountofcomputation,andshortenthedetectiontimeofthefacedetection.ThecommonlycolorspacesareRGB,YUV,YIQ,YCbCr,HSI,HSV,etc.TheprinciplesofYUV,YIQandYCbCraresimilar,buttheimplementationdetailsaredifferent.AndHSVandHSIarethecolorspacemodelwhichisconsistentwiththevisualfeaturesofhumaneyes.ThecolordistributionoftheskinisgreatlyinfluencedbytheilluminationintheRGBspace.Becausethethreecomponents,R,GandB,notonlycontainthecolorinformationoftheimage,butalsothebrightnessinformation.ThesegmentationofskincolorregionisaffectedbytheilluminationchangesifusingtheRGBspace,andtheresultsarenotreliable,soitneedtoseparatethecolorinformationandtheluminanceinformation.AlthoughthecolorspaceofHSVandHSIismoreintuitive,buttheoperationismorecomplex,theoperationefficiencyislow,andtheconversionisinconvenient.IntheYIQandotherspaces,thecolorinformationandluminanceinformationYareseparated,thecolorinformationhasacertainclustering,canbedefinedbytheclusteringmethodinarangeofcolorvalues.Inthispr,thecolorspaceofYIQisusedtoextractskincolorfeature.Thisisthecoreofthealgorithm,andtheworko

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論