基于局部紋理ASM模型的人臉表情識別_第1頁
基于局部紋理ASM模型的人臉表情識別_第2頁
基于局部紋理ASM模型的人臉表情識別_第3頁
基于局部紋理ASM模型的人臉表情識別_第4頁
基于局部紋理ASM模型的人臉表情識別_第5頁
已閱讀5頁,還剩13頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)

文檔簡介

1、基于局部紋理asm模型的人臉表情識別第6卷第3期2011年6月智能系統(tǒng)camtransactionsonintelligentsystemsvol6no.3jun.201ldoi:10.3969/j.issn.1673-4785.2011.03.007基于局部紋理asm模型的人臉表情識別彭程,劉帥師,;0-)11,田彥濤(1.吉林大學(xué)通信工程學(xué)院,吉林長春130025;2.吉林大學(xué)工程仿生教育部重點實驗室,吉林長春130025)摘要:針對主動形狀模型(asm)迭代過程容易陷入局部最優(yōu)解的不足,提出了一種基于局部紋理模型的改進asm算法,即ewasm.在局部紋理模型構(gòu)建中,以每個特征點的中垂線方

2、向搜索其鄰域信息以確定最佳匹配位置,對衡量匹配程度的馬氏距離加以推廣,進而得到改進的擴展加權(quán)局部紋理模型,它由中心局部紋理模型,前局部紋理模型和后局部紋理模型共3個子模型加權(quán)組成,并對加權(quán)參數(shù)進行實驗優(yōu)化,使各個特征點之間的聯(lián)系更加緊密,模型的魯棒性更好.通過表情識別實驗對提出的ewasm算法和傳統(tǒng)asm算法進行對比,選用rbf神經(jīng)網(wǎng)絡(luò)分類器進行表情分類,實驗結(jié)果表明ewasm算法收斂速度更快,識別率也得以提高,并解決了局部最小問題,能更有效地表征表情.關(guān)鍵詞:人臉表情識別;主動形狀模型;局部紋理模型;rbf神經(jīng)網(wǎng)絡(luò)分類器中圖分類號:tp391文獻標(biāo)識碼:a文章編號:1673-4785(201

3、1)03-023108anactiveshapemodelforfacialexpressionrecognitionbasedonalocaltexturemodelpengcheng,liushuaishi,wanchuan,tianyantao,.(1.schoolofcommunicationengineering,jilinuniversity,changchun130025,china;2.keylaboratoryofbionicengineering(ji一1inuniversity),ministryofeducation,changchun130025,china)abst

4、ract:animprovedactiveshapemodel(asm)calledewasm(expandedweightedasm)basedonalocaltex-turemodelwasproposedbecauseewasmovercomesthedisadvantagethattheactiveshapemodeliseasytoinvolveinlocaloptimalsolutionintheiterativeprocess.inthelocaltexturemodel,searchingadjacentinformationofeachlandmarkalongitsperp

5、endicularbisectormadethematchpositionbest.itimprovedandpromotedmahalanobisdistancewhichmeasuredthematchingdegree.thenthelocaltexturemodelwasextendedtoincludethecenterlocaltexturemodel,forwardlocaltexturemodel,andbackwardlocaltexturemode1.afterthat,theweightedparameterswereoptimizedexperimentally.thu

6、seachlandmarkismorecloselyrelatedandthelocaltexturemodelismorerobust.finallyfacialexpressionrecognitionexperimentswereconductedcomparingewasmwithclassicalasm,andarbfneuralnetworkwasusedasaclassificationintheexpressionrecognition.experimentsshowthattheewasmalgorithmsolvedthelocalminimumproblemandachi

7、evedabetterconvergencerateandrecognitioneffect.keywords:facialexpressionrecognition;activeshapemodel;localtexturemodel;rbfneuralnetworkclassifier人臉表情不僅在人與人的交流中發(fā)揮著重要的作用,而且是實現(xiàn)人機交互,使計算機能夠更準(zhǔn)確地理解人的表情和意圖的一個重要研究內(nèi)容.一個完整的人臉表隋識別系統(tǒng)由人臉檢測,特征提取和表情分類3個部分組成.其中特征提取在整個表情識別過程收稿日期:20101126.基金項目:吉林省科技發(fā)展計劃重點資助項目(20071152

8、);吉林大學(xué)985工程工程仿生科技創(chuàng)新平臺項目資助;吉林大學(xué)研究生創(chuàng)新基金資助項目(20101027).通信作者:田彥濤.email:tianyt.中是一個關(guān)鍵環(huán)節(jié).目前最受關(guān)注的特征提取方法是cootes等人于1995年提出的主動形狀模型(activeshapemodel,asm)方法j,其模型允許一定程度上形狀的變化,可以更好地定位物體的內(nèi)外輪廓,又不會脫離目標(biāo)對象的本質(zhì)特征;但該模型對初始形狀的定位非常敏感,本質(zhì)上是一個求局部最優(yōu)的過程,有時不能發(fā)現(xiàn)全局最優(yōu)解,存在著一定的局限性,因此吸引了國內(nèi)外廣大學(xué)者對其進行研究.1998年,cootes等人進一步提出了主動表觀模智能系統(tǒng)第6卷型(a

9、ctiveappearancemodel,aam).aam建立了關(guān)于人臉的形狀與紋理的組合模型,因此定位更精確,但運算速度與asm相比較慢.m.rogers和j.grahaml4用一種具有魯棒性的最小二乘技術(shù)來最小化全局統(tǒng)計模型和未知形狀之間的差值,這一改進使得全局統(tǒng)計模型表示的形狀不容易受特征點中的噪聲和野值的影響,但計算工作量較大.vanginnenken等人提出一種改進局部紋理模型方法,用局部無序圖像計算得到的局部紋理特征代替?zhèn)鹘y(tǒng)asm的法線模型,用k近鄰分類器對特征點進行匹配,但在特征屬性較多時k近鄰分類器的分類精度大大降低.fanlquie等人運用asm方法檢測嘴唇的輪廓,使用5條曲

10、線代表嘴唇的輪廓,進而降低了參數(shù)個數(shù),將彩色信息加入asm,獲得了較好的匹配效果.g.hamarneh等人將asm的特征擴展到時間空問的形狀,并且設(shè)計出一種新的算法,使得時間空間形狀模型能更好地與圖像序列中的目標(biāo)輪廓匹配.李皓等人提出了多模板asm定位算法,先利用全局模板定位總體,再利用局部模板定位局部,從而改善asm紋理平滑區(qū)域特征點定位不精確的問題.chen等人l1.把局部變量引入到asm中,進行圖像變形檢測和形狀修正,從而有效避免了圖像的變形,提高了匹配準(zhǔn)確性.以上這些改進方法只保留傳統(tǒng)asm的基本思想,具體操作過程與傳統(tǒng)asm方法差別較大,在改進asm的同時也增加了復(fù)雜性.而本文針對a

11、sm易陷入局部最優(yōu)的缺點,提出了局部紋理模型的改進算法(expandedweightedasm,ewasm),以每個特征點的中垂線方向搜索其鄰域信息以確定最佳匹配位置,根據(jù)每個特征點的鄰域信息,對衡量匹配程度的馬氏距離準(zhǔn)則函數(shù)加權(quán)擴展,由3個子模型共同描述局部紋理模型的特性,更準(zhǔn)確定位目標(biāo)圖像,通過特征點間的制約解決局部最小問題,并且通過實驗比較和分析,驗證了改進算法的有效性.1ewasm算法1.1主動形狀模型主動形狀模型是基于統(tǒng)計學(xué)習(xí)模型的特征點提取方法,其首先提取面部形狀的特征點集合,形成訓(xùn)練集,通過統(tǒng)計分析構(gòu)造樣本的全局形狀模型.然后利用局部紋理模型在目標(biāo)圖像中搜索特征點的最佳匹配位置,

12、同時根據(jù)匹配結(jié)果調(diào)整全局模型的相關(guān)參數(shù),從而使模型與目標(biāo)圖像的實際輪廓逐步逼近,最終準(zhǔn)確定位目標(biāo).考慮全局形狀模型:=+p6.式中:是一個形狀;x表示平均形狀;p是主成分特征向量構(gòu)成的變換矩陣;為權(quán)值向量,使用主成分分析法控制前t個特征值的系數(shù),不同的對應(yīng)不同的形狀,并且對6加以限定:一a<b</a,i=1,2,t,其中a(aa+l,a0,=1,2,2凡)是協(xié)方差矩陣的特征值.給定局部紋理模型為:1n=g,i=ifpsc=(g一)(g).式中:g是對第i幅訓(xùn)練圖像的第個標(biāo)定點的灰度信息歸一化后的紋理向量,即1g=廣,ii=1=g,2一g,1,g,2+1一g,2,其中第i個特征點的灰

13、度信息是以該特征點為中心沿法線方向上下各取k個點的灰度來表示,即g,=g,gg強+】;是平均紋理;s.是協(xié)方差矩陣在目標(biāo)圖像搜索確定標(biāo)定點的最佳匹配位置時,希望準(zhǔn)確定位每個特征點,因此需搜索特征點附近的鄰域信息,最直接的方法就是分析鄰域的灰度信息,以確定最佳匹配位置.匹配程度用式(1)的馬氏距離來描述.d(g)=(g一)(sc,)(g一g).(1)式中:g;提由目標(biāo)搜索圖像在點附近采樣得到的歸一化紋理向量;d(g)最小值對應(yīng)的點即是最佳候選點.1.2ewasm算法雖然asm方法的有效性己被廣泛證實,但是傳統(tǒng)的asm仍存在諸多不足.1)asm的魯棒性不夠理想,迭代過程的收斂性非常依賴于初始形狀的

14、定位,初始位置的改變往往影響迭代次數(shù),甚至導(dǎo)致無法達到收斂;2)asm本質(zhì)上是一個求局部最優(yōu)的過程,有時不能發(fā)現(xiàn)全局最優(yōu)解,容易陷入局部最小.針對這些問題,本文提出了ewasm算法.如圖1(a),ewasm算法中,以點p為中心到其相鄰特征點(p,p)連線的垂線f方向上下各取相同像素,得到特征點p的灰度信息,點p,與點p的灰度信息求取同點p對以上3個特征點分別建立局部紋理模型j,并命名為中心局部紋理模型,前局第3期彭程,等:基于局部紋理asm模型的人臉表情識別?233?部紋理模型和后局部紋理模型,這3個子模型的構(gòu)建過程一致,差別只在于采樣點的位置不同.根據(jù)初始定點的位置,前局部紋理模型的特征點在

15、中心局部紋理模型的特征點的前面,同理,后局部紋理模型的特征點在中心局部紋理模型的后面.采用相同的方法對訓(xùn)練集中每幅圖像的特征點進行上述處理,最終可以得到針對某個特征點p相對應(yīng)的3個平均向量和3個協(xié)方差矩陣,分別記為,:和,.p(a)ewasm算法(b)傳統(tǒng)asm算法圖1ewasm算法與傳統(tǒng)asm算法中灰度信息求取對比fig.1grayinformationcomparisonbetweenewasmandclassicalasm把3個子模型的局部紋理模型根據(jù)式(1)的匹配準(zhǔn)則進行加權(quán)求和,進而匹配準(zhǔn)則函數(shù)可擴展為d(zm,z:,)=0(一zrn)().(,rn一,m)+b(z:一-lb)().

16、(z:一-fb)+c(一,:)()(一z;).(2)式中:,是目標(biāo)搜索圖像對應(yīng)特征點p的歸一化后的中心局部紋理向量,前局部紋理向量和后局部紋理向量,同樣求取d(,z,)的最小值就是點p的最佳匹配位置;a,b,c是對應(yīng)的加權(quán)參數(shù),分別為3個局部紋理子模型的權(quán)重,需滿足a+b+c=1和a,b,c0.文獻13構(gòu)建的加權(quán)模型,其參數(shù)人為設(shè)定,沒有依據(jù).而本文可以通過實驗優(yōu)化調(diào)整,從而確定加權(quán)參數(shù)的滿意值,因此更為精確.比較式(1)和式(2)可知,ewasm算法的匹配準(zhǔn)則是傳統(tǒng)asm算法的匹配準(zhǔn)則的擴展,即式(1)是式(2)的一個特例,并且式(2)包含了3個子模型的紋理信息,特征信息更廣.由此可見,ew

17、asm算法的優(yōu)點如下.1)充分利用了面部特征區(qū)域的紋理信息來構(gòu)造紋理向量,提供了更可靠的依據(jù)來確定目標(biāo)圖像.而傳統(tǒng)asm方法如圖1(b),特征點p的灰度信息是以點p的法線f方向上下各取相同像素獲得,與相鄰特征點p.,p的相關(guān)信息無關(guān),因此傳統(tǒng)方法沒有充分利用紋理信息.2)匹配準(zhǔn)則得到了擴展,局部紋理模型通過3個子模型的加權(quán)求和,使各個特征點的聯(lián)系更為緊密,互相控制和制約,若一個特征點發(fā)生嚴(yán)重偏離,其相鄰的特征點可以把它拉回至最佳位置,這樣也解決了模型容易陷入局部最優(yōu)的問題.3)充分利用給定點鄰域內(nèi)其他特征點的信息以及各特征點之問的聯(lián)系,保證定點的準(zhǔn)確性,魯棒性更好.2實驗結(jié)果與分析實驗使用國際

18、標(biāo)準(zhǔn)的專門用于表情識別研究的數(shù)據(jù)庫jaffe(japanesefemalefacialexpression).ewasm與傳統(tǒng)asm特征點定位實驗中,訓(xùn)練樣本140幅,測試樣本70幅.由于在表情識別中,鼻子和面部輪廓對表情的影響不大,因此實驗中只標(biāo)定眉毛,眼睛和嘴巴共40個特征點,相對其他asm研究算法,ewasm方法定點較少,減少了計算量,提高了收斂速度.表情分類實驗中選出生氣,厭惡,恐懼,高興,中性,悲傷,驚訝7種手動定點的140幅表情圖像樣本作為訓(xùn)練樣本,其中各種表情的樣本數(shù)目均為20幅.測試樣本為自動定點的65幅表情圖像,各種表情的樣本數(shù)目依次為:10幅,10幅,8幅,9幅,10幅,8

19、幅,10幅.由于臉部特征向量與臉部表情之間的關(guān)系是一種非線性映射關(guān)系,而利用線性分類器不能準(zhǔn)確地分類表情;因此選取了在理論上可以逼近任何非線性函數(shù)的神經(jīng)網(wǎng)絡(luò)分類器,其具有收斂速度快,所需參數(shù)少,局部最佳逼近等優(yōu)點.其中選取rbf神經(jīng)網(wǎng)絡(luò)分類器進行表情分類,高斯函數(shù)作為基函數(shù),輸入層的節(jié)點數(shù)為8o,與輸入特征向量的維數(shù)相等,輸出層的節(jié)點數(shù)選定為7,即類別數(shù).2.1加權(quán)參數(shù)選擇實驗ewasm算法的加權(quán)參數(shù)a,b,c作為3個子模型的權(quán)值決定每個子模型,所占的比重,即每個特征點的分量.由于中心局部紋理模型作為特征點的主要模型,在3個子模型中所占比重應(yīng)最大,而前局部紋理模型和后局部紋理模型比重幾乎相等;

20、因此a,b,c可選為0.4,0.3,0.3,0.5,0.25,0.25,0.6,0.2,0.2,0.7,0.15,0.15,0.8,0.1,0.1和0.9,0.05,0.05.但當(dāng)a,b,c為0.4,0.3,0.3時,前局部紋理模型和后局部紋理模型所占比重過大,中心局部紋理模型的核心作用無法體現(xiàn)出來,因此舍去這組權(quán)值,當(dāng)a,b,c為0.7,0.15,0.15,0.8,0.1,0.1和0.9,0.05,0.05時,前局部紋理模型和后局部紋理模型所占比重過小,在模型構(gòu)建中作用微弱,因此也舍去這3組權(quán)值,實驗初步設(shè)定a,b,c為0.5,?234?智能系統(tǒng)第6卷0.25,0.25及0.6,0.2,0.

21、2較為合理.圖2為ewasm特征點定位實驗的加權(quán)參數(shù)比較.其中(a),(b)是同一幅圖像并且初始狀態(tài)相同,(o),(d)是同一幅圖像并且初始狀態(tài)相同.圖2(a),(c)是加權(quán)參數(shù)為0.5,0.25,0.25迭代7次的結(jié)果,(b),(d)是加權(quán)參數(shù)為0.6,0.2,0.2迭代7次的結(jié)果.可見加權(quán)參數(shù).,b,c設(shè)定為0.6,0.2,0.2的搜索效果相對較好一些.在ewasm算法表情識別實驗中,徑向基寬度系數(shù)r可調(diào)節(jié)高斯函數(shù)的響應(yīng)范圍,依次設(shè)為0.10.9.表1的加權(quán)參數(shù).,b,c為0.6,0.2,0.2,當(dāng)r=0.3和0.4時,達到最高識別率為80.91%,此時設(shè)定徑向基寬度系數(shù)為0.3或0.4取

22、得最佳值.表2的加權(quán)參數(shù)血,b,c為0.5,0.25,0.25,當(dāng)r=0.5時,達到最高識別率為77.69%,故此時設(shè)定徑向基寬度系數(shù)為0.5.通過ewasm特征點定位實驗和表情分類實驗可見,加權(quán)參數(shù)05,6,c的滿意值選定為0.6,q2,0.2時,特征點定位更準(zhǔn)確,表情識別率最高;因此本文通過實驗優(yōu)化調(diào)整,從而確定加權(quán)參數(shù).,b,c的滿意值為0.6,0.2,0.2.一一(b)一一(d)圖2ewasm實驗中加權(quán)參數(shù)a,b,c的結(jié)果對比fig.2comparisonofweightedparametersa,b,cinewasmexperiment表1基于ewasm與rbf表情識別結(jié)果(n=0.

23、6,b=0.2,c=0.2)table1expressionrecognitionresultsbasedontheewasmalgorithmandrbf(n=0.6,b=0.2,c=0.2)表2基于ewasm與rbf表情識別結(jié)果(=0.5,b=0.25,c=0.25)table2expressionrecognitionresultsbasedonewasmalgorithmandrbf(.=0.5,b=0.25,c=0.25)第3期彭程,等:基于局部紋理asm模型的人臉表情識別2.2ewasm算法實驗圖3和圖4分別是初始化相同情況下傳統(tǒng)asm與ewasm算法的搜索過程對比,傳統(tǒng)asm算法

24、最終迭代l5次得到搜索結(jié)果,而本文提出的ewasm算法只需要迭代7次,比傳統(tǒng)asm迭代次數(shù)少,并且定位效果更精確,傳統(tǒng)asm算法在左眼眉尖與嘴巴處定位發(fā)生了錯誤,而ewasm算法通過特征點之間互相作用,可以將偏差較大的點拉回至更準(zhǔn)確的位置.因此實驗結(jié)果表明提出的ewasm算法提高了搜索的精度,加快了收斂速度.同樣圖5中,在初始條件相同的情況下,ewasm算法最終搜索效果明顯優(yōu)于傳統(tǒng)asm的搜索效果,傳統(tǒng)asm算法在嘴巴處定位發(fā)生了錯誤,并且ewasm需要的迭代次數(shù)更少,由此也驗證了ewasm算法的有效性.(a)初始化(h)迭代7次圖3傳統(tǒng)asm算法的搜索過程fig.3classicalasma

25、lgorithmsearchperformance(a)初始化(b)迭代3次圖4ewasm算法的搜索過程fig.4ewasmalgorithmsearchperformance(a)傳統(tǒng)asm達代15次(b)ewasm迭代5次圖5傳統(tǒng)asm與ewasm算法對比fig.5comparisonofsearchperformancebetweenclassicalasmandewasm2.3基于rbf神經(jīng)網(wǎng)絡(luò)分類器表情識別實驗2.3.1表情識別實驗比較將ewasm算法與傳統(tǒng)asm算法的表情識別結(jié)果進行比較,如表1與表3,其中訓(xùn)練樣本和測試樣本同前文表情識別實驗一致,表中徑向基寬度系數(shù)r依次為0.10

26、.9.表3基于傳統(tǒng)asm與rbf表情識別結(jié)果(0:0.6,b=0.2,c=0.2)table3expressionrecognitionresultsbasedonclassicalasmandrbf(.=0.6,b=0.2,c=0.2)從表3中可以看出,當(dāng)r=0.4和0.5時,傳統(tǒng)asm的表情識別率最高為70.04%.由前文所示的表1可見,改變不同的基函數(shù)寬度系數(shù)r得到ewasm平均表情識別率的最高值為8o.91%,明顯優(yōu)于傳統(tǒng)asm算法,再次驗證了ewasm算法的有效性.2.3.2改變樣本圖像下表情識別實驗比較在2.3.1節(jié)的表情識別實驗中,測試樣本的10個人與訓(xùn)練樣本中的10個人是相同的

27、,為了進一步說明ewasm算法的可行性,本文改變訓(xùn)練樣本和智能系統(tǒng)第6卷測試樣本,再次采用rbf神經(jīng)網(wǎng)絡(luò)分類器進行表情識別實驗,其中訓(xùn)練樣本選取jaff數(shù)據(jù)庫中6位女性的表情圖像共126幅,測試樣本在另外4位女性的表情圖像樣本中選取,共70幅,其中各種表情的樣本數(shù)目均為10幅.ewasm算法與傳統(tǒng)asm算法的表情識別結(jié)果如表4與表5所示,徑向基寬度系數(shù)r依次為0.10.9,其中ewasm算法中加權(quán)參數(shù)0,b,c為0.6,0.2,0.2.表4中當(dāng)r=0.5和0.6時,ewasm算法的表情識別率最高為75.7l%,表5中當(dāng)r=0.4和0.5時傳統(tǒng)asm的表情識別率最高為65.71%,由此表明本文提

28、出的ewasm算法具有可行性和有效性,但由于本次實驗訓(xùn)練樣本中的人與測試樣本中的人不同,故表情識別率沒有2.3.1中表情實驗的識別率高.表4不同樣本下基于ewasm與rbf表情識別結(jié)果(.=0.6,b=0.2,c=0.2)table4expressionrecognitionresultsbasedonewasmandrbfwitlldifferentsamples(0:0.6,b=0.2,c=0.2)表5不同樣本下基于傳統(tǒng)asm與rbf表情識別結(jié)果(o=0.6,b=0.2,c=0.2)table5expressionrecognitionresultsbasedonclassicalasma

29、ndrbfwithdifferentsamples(=0.6,b=0.2,c:0.2)2.4基于ewasm與rbf的表情識別結(jié)果分析基于ewasm算法與rbf神經(jīng)網(wǎng)絡(luò)分類器的表情識別實驗結(jié)果表明,最高識別率能達到80.91%,識別效果受到以下2個方面的影響.1)本文表情識別實驗是自動搜索表情特征點作為神經(jīng)網(wǎng)絡(luò)的輸入,特征點為40個,相對其他asm的方法,特征定點較少,計算量更小,搜索速度更快,但特征點定位的準(zhǔn)確性可能降低,因此rbf識別率會受到影響.2)表情圖像中因一些表情變化比較輕微,還有第3期彭程,等:基于局部紋理asm模型的人臉表情識別?237?一些圖像表情是復(fù)合表情,因此難以識別準(zhǔn)確.

30、例如圖6中,(a)和(b)分別是生氣表情和悲傷表情,但由于表情變化過于輕微被誤認(rèn)為中性表情;(c)是厭惡中夾雜恐懼,所以也被誤判;(d)是恐懼的表情中帶著驚訝,故被誤判.(c)(d)圖6識別失敗的表情舉例fig.6examplesofunsuccessfulexpressionrecognition3結(jié)束語本文在傳統(tǒng)asm算法基本思想的基礎(chǔ)上,針對其迭代過程容易陷入局部最優(yōu)解的不足,提出了一種改進局部紋理模型的ewasm算法,ewasm算法對衡量模型匹配程度的馬氏距離進行了推廣,從而得到了擴展加權(quán)局部紋理模型,并對其相應(yīng)的加權(quán)參數(shù)進行實驗優(yōu)化,使各個特征點互相制約,有效地解決了局部最小問題.實

31、驗表明提出的ewasm算法具有可行性和有效性,算法的迭代次數(shù)減少,進而縮短了定位的時間,提高了表情識別率.由于傳統(tǒng)的asm只能描述一些線性的形狀變化,而非線性的形狀變化往往在實際問題中更加普遍,因此目標(biāo)形狀的非線性是有待解決的問題,這是實現(xiàn)自動人臉表情識別從實驗室平臺轉(zhuǎn)化到實際應(yīng)用的關(guān)鍵.參考文獻:1cootestf,taylorcj.activeshapemodels-theirtrainingandapplicationj.computervisionandimageunderstanding,1995,61(1):38-59.2cootestf,taylorcj,edwardsgj.ac

32、tive印-pearancemodelsc/europeanconferenceoncomputervision.berlin,germany,1998:484-498.3matthewsi,bakers.activeappearancemodelsrevisitedj.internationaljournalofcomputervision,2004,60(2):135164.4rogersm,grahamj.robustactiveshapemodelsearchj.lecturenotesincomputerscience,2002,2353:517-530.5vanginnekenb,

33、frangiaf,staaljj,eta1.activeshapemodelsegmentationwithoptimalfeaturesj.ieeetransactionsonmedicalimaging,2002,21(8):924-933.6koenderinkjj,vandoornaj.thestructureoflocallyorderlessimagesj.internationaljournalofcomput-ervision,1999,31(2/3):159168.7faruquieta,majumdara,rajputn,eta1.largevocabularyaudio-

34、?visionspeechrecognitionusingac-tiveshapemodelsc/internationalconferenceonpatternrecognition.barcelona,spain,2000:3-8.8hamarnehg,gustavssont.deformablespatialtemporalshapemodels:extendingasmto2d+timec/britishmachinevisionconference.manchester,uk,2001:1322.9李皓,謝琛,唐朝京.改進的多模版asm人臉面部特征定位算法j.計算機輔助設(shè)計與圖形學(xué),

35、2010,22(10):17621768.lihao,xiechen,tangchaojing.animprovedalgorithmforfacialfeaturelocationbymultitemplateasmj.journalofcomputeraideddesign&computergraphics.2010,22(10):17621768.10chensy,zhangj,guanq,eta1.detectionandamendmentofshapedistortionsbasedonmomentinvariantsforactiveshapemodelsj.ietimag

36、eprocessing,2011,5(3):273-285.11冀貞海,孫寧,鄒采榮,等.基于加權(quán)主動形狀建模的人臉特征定位方法j.電子與信息,2007,29(4):8o0.803.jizhenhai,sunning,zoucairong,eta1.facealignmentbasedonweightedactiveshapemodelsj.journalofelectronics&informationtechnology,2007,29(4):8o0803.12孫正興,姚偉.從視頻中恢復(fù)三維人臉實時方法j.智能系統(tǒng),2009,4(5):427-432.sunzhengxing,ya

37、owei.arealtimemethodforrecovering3dfacesfrommonocularvideoj.caaitransac-tionsonintelligentsystems,2009,4(5):427-432.13cootestf,hilla,taylorcj,eta1.theuseofactiveshapemodelsforlocatingstructuresinmedicalimagesj.imageandvisioncomputing,1994,12(6):355.366.?238?智能系統(tǒng)第6卷作者簡介彭程,女,1987年生,碩士研究生,主要研究方向為模式識別,計

38、算機視覺.劉帥師,女,1981年生,博士研究生,主要研究方向為模式識別,計算機視覺.萬川,男,1985年生,博士研究生,主要研究方向為模式識別,計算機視覺.田彥濤,男,1958年生,教授,博士生導(dǎo)師,博士.吉林大學(xué)自動化研究所所長,中國自動化學(xué)會理事,中國自動化學(xué)會機器人專業(yè)委員會常務(wù)委員,吉林省自動化學(xué)會理事長,吉林省通信學(xué)會副理事長,吉林省電機工程學(xué)會常務(wù)理事,中科院沈陽自動化研究所先進制造技術(shù)實驗室學(xué)術(shù)委員會委員,中國自動化學(xué)會機器人編委,吉林大學(xué)(信息科學(xué)版)副主編.主要研究方向為復(fù)雜系統(tǒng)建模,優(yōu)化與控制,機器視覺與模式識別等.近5年,完成國家863計劃項目1項,國家自然科學(xué)基金項目1項,吉林省科技發(fā)展計劃項目3項,國家863智能機器人網(wǎng)點實驗室基金項目1項;目前負(fù)責(zé)承擔(dān)國家863計劃項目和國家自然科學(xué)基金項目等國家級科研項目3項,吉林省科技發(fā)展計劃重點項目3項.曾被評為國家機械部優(yōu)秀科技青年,機械部和教育部跨世紀(jì)學(xué)科帶頭人,2004年被評為吉林省拔尖創(chuàng)新人才.發(fā)表學(xué)術(shù)論文70余篇.2011模糊工程與智能交通國際學(xué)術(shù)會議2011internationaljointconferenceonfuzzyengineeringandintelligenttransp0rtati0n(feit2011)2011internati

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論