一種新的直線特征提取方法_第1頁(yè)
一種新的直線特征提取方法_第2頁(yè)
一種新的直線特征提取方法_第3頁(yè)
一種新的直線特征提取方法_第4頁(yè)
全文預(yù)覽已結(jié)束

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

一種新的直線特征提取方法

1特征提取與選擇20世紀(jì)60年代初,這種評(píng)估體系迅速發(fā)展。一般說來,模式識(shí)別問題指的是對(duì)一系列過程或事件的分類與描述?,F(xiàn)在,模式識(shí)別主要是指用計(jì)算機(jī)的方法來模擬和實(shí)現(xiàn)人對(duì)各種事物或現(xiàn)像的分析、描述、判斷和識(shí)別能力。大部分模式識(shí)別系統(tǒng)的組成如圖1所示。圖1中,特征提取與選擇是模式識(shí)別系統(tǒng)的關(guān)鍵環(huán)節(jié),關(guān)系到系統(tǒng)最終識(shí)別效果的好壞。特征提取和選擇的基本任務(wù)是從眾多的特征中找出一組對(duì)分類最有效的特征,也就是把高維特征空間變換為低維特征空間,以便有效地設(shè)計(jì)分類器。由于在很多實(shí)際問題中常常不容易找到那些最有效的特征,這就使特征提取和選擇成為模式識(shí)別系統(tǒng)中最困難的任務(wù)之一,越來越受到人們的重視。特征提取和選擇常用的方法有歐氏距離法、概率距離法、統(tǒng)計(jì)距離法、統(tǒng)計(jì)值方法、基于判別熵最小法、散度準(zhǔn)則法等。下面著重介紹點(diǎn)、線、面的特征提取。2快速邊界跟蹤法點(diǎn)特征主要是指角點(diǎn)和局部輪廓插值點(diǎn)(統(tǒng)稱為代表點(diǎn))。費(fèi)旭東提出了一種利用模式識(shí)別知識(shí)通過查表的方法從鏈碼中提出角點(diǎn)的方法。其主要思想是:對(duì)鏈碼中的每一個(gè)點(diǎn),連同其前后一定范圍內(nèi)的若干個(gè)鏈碼點(diǎn)一起進(jìn)行考察,根據(jù)這一小段鏈碼的情況,查一張事先造好的查找表,就可以判定該點(diǎn)是不是角點(diǎn)。得到角點(diǎn)后還可以進(jìn)一步考察兩個(gè)相鄰的角點(diǎn)在必要的地方插入局部輪廓的插值點(diǎn)作為補(bǔ)充,以提高擬合精度。文獻(xiàn)的研究和測(cè)試表明,這種方法能夠?qū)崿F(xiàn)實(shí)時(shí)提取高質(zhì)量的代表點(diǎn),是一種較好的點(diǎn)特征提取方法。吳宇嵐提出了一種快速邊界跟蹤法,對(duì)二值圖中的邊界跟蹤可得到其鏈碼表示,且對(duì)內(nèi)、外邊界進(jìn)行跟蹤時(shí),跟蹤方向相反,以利于后續(xù)處理時(shí)加以區(qū)分。文獻(xiàn)提出了一種圖像上的特征角點(diǎn)(如眼角,嘴角等)的方法,其主要思想是:首先利用角點(diǎn)檢測(cè)方法提取圖像中的角點(diǎn),然后通過Zernike矩和神經(jīng)網(wǎng)絡(luò)對(duì)它們進(jìn)行篩選,從而達(dá)到自動(dòng)提取圖像上特征角點(diǎn)的目的。下面以文獻(xiàn)中提出的方法來分析人臉特征點(diǎn)提取的方法,提取人臉的合適特征是進(jìn)行正確識(shí)別的關(guān)鍵。就一般情況而言,用于識(shí)別人臉特征分為幾何特征和代數(shù)特征兩大類。這兩類特征提取方法在人臉識(shí)別的研究中都取得了較好的成果,特別是對(duì)人臉幾何特征的提取。由于模式識(shí)別方面問題本身的復(fù)雜性,在一般背景的圖像中獲得這些有用的特征點(diǎn)是較為困難的,所以以往在這方面的研究通常僅針對(duì)于一些特定的人臉圖像(即要求被識(shí)別的人臉?biāo)巿D像背景單一,人臉在圖像中的大小適中等)。這樣的要求在很大程度上限制了此類方法的應(yīng)用場(chǎng)合,它們通常都沒有利用或較少利用了人臉的這類模式所具有的大量的先驗(yàn)知識(shí)。觀察人類對(duì)某類模式的識(shí)別過程,發(fā)現(xiàn)我們總是自覺或不自覺地在其中運(yùn)用了大量先驗(yàn)知識(shí)的成分。同樣可以想到,如果在提取某類模式的特征時(shí)僅從圖像本身入手而不考慮有關(guān)待識(shí)別模式先驗(yàn)知識(shí)的了解,則不太可能得到滿意的結(jié)果。下面分析正是從這樣的觀點(diǎn)出發(fā),提出了一種提取人臉圖像幾何特征的新方法,它的主要思路是首先用角點(diǎn)提取方法獲得圖像中的一些角點(diǎn)的特征,然后將以角點(diǎn)為中心的某一區(qū)域內(nèi)圖像的Zernike矩同BP神經(jīng)網(wǎng)絡(luò)相結(jié)合,用以篩選人臉上的重要特征點(diǎn)。它能夠在中等復(fù)雜背景的圖像中過濾大部分無用的角點(diǎn)而保留住有用的特征角點(diǎn),如果再結(jié)合這些特征點(diǎn)之間的約束關(guān)系,則可以較好的完成識(shí)別任務(wù)。2.1旋轉(zhuǎn)不變性的表現(xiàn)Zernike矩所利用的正交多項(xiàng)式集是一在單位圓內(nèi)的完備正交集,若要計(jì)算給定圖像的Zernike矩,必須首先將坐標(biāo)原點(diǎn)移至圖像的中心且將圖像的像素坐標(biāo)映射到單位圓內(nèi),散落于單位圓外的像素則不予考驗(yàn)。在這里應(yīng)注意到A*nm=An,-m,A*nm為Anm的共軛。若設(shè)某圖像的Zernike矩為Anm,在經(jīng)過角度為φ的圖像平面內(nèi)旋轉(zhuǎn)之后,其Zernike矩是A′nm,則二者的關(guān)系為A′nm=Ae-jmΦnme?jmΦnm,因此可以說Zernike矩的模是不隨圖像旋轉(zhuǎn)而發(fā)生變化的,即具有旋轉(zhuǎn)不變性。表1中列出了從0到7階的Zernike矩和它們的數(shù)量,在識(shí)別時(shí)正是利用這些矩所組成的一個(gè)特征向量對(duì)目標(biāo)進(jìn)行分類的。2.2神經(jīng)網(wǎng)絡(luò)的訓(xùn)練利用文獻(xiàn)提出的邊緣提取方法檢測(cè)圖像中較為重要的邊緣,其優(yōu)點(diǎn)是在提取圖像邊緣時(shí)無須對(duì)其進(jìn)行卷積,這樣就避免了邊緣的偏移。之后,采用文獻(xiàn)中的部分算法檢測(cè)圖像中的角點(diǎn),利用較重要邊緣與這些角點(diǎn)的交集可獲得候選的特征角點(diǎn)位置。在獲得這些候選角點(diǎn)之后,先計(jì)算以每個(gè)角點(diǎn)為中心,以r為半徑的一個(gè)圓形小區(qū)域的Zernike矩(事先設(shè)定其階數(shù),這里選用了7階Zernike矩),向量(1,A00,A11,A20A22,…,A71A73A75A77)作為訓(xùn)練樣本對(duì)BP神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,然后將由不同階的矩所組成某點(diǎn)的特征向量送入訓(xùn)練好的神經(jīng)網(wǎng)絡(luò),以判斷該點(diǎn)是否可能屬于不同類別的n類特征點(diǎn)的集合。在實(shí)驗(yàn)中選取較為穩(wěn)定的眼角和鼻角為初始點(diǎn),然后利用文獻(xiàn)或文獻(xiàn)中的方法,并根據(jù)人臉模型的特征點(diǎn)之間的約束進(jìn)行其它點(diǎn)的匹配。在完成角點(diǎn)的匹配之后,先根據(jù)模型的約束從角點(diǎn)的集合中尋找合適的匹配,如果模型中的大部分點(diǎn)匹配成功,則認(rèn)為完成了總體匹配。在較重要邊緣的集合中,以模型的約束關(guān)系確定非角點(diǎn)的特征點(diǎn)位置。如果大部分的特征點(diǎn)都不能得到正確的匹配,則應(yīng)重新選取兩個(gè)初始點(diǎn)繼續(xù)上述過程。這部分工作的目的主要是減少候選對(duì)象,降低計(jì)算量并提高結(jié)果的可信性。在后續(xù)的實(shí)驗(yàn)中,所用的神經(jīng)網(wǎng)絡(luò)為普通的BP神經(jīng)網(wǎng)絡(luò),由于選用了7階Zernike矩,所以輸入層的神經(jīng)元數(shù)為21個(gè),輸入矢量定義為[1,A00,A11,A20A22,…,A71A73A75A77](其中20個(gè)為Zernike矩,另外一個(gè)為1);隱含層神經(jīng)元數(shù)亦設(shè)定為21個(gè);輸出層神經(jīng)元為1個(gè)。每一類特征對(duì)應(yīng)著一個(gè)神經(jīng)網(wǎng)絡(luò),如果某一網(wǎng)絡(luò)的輸出大于某一事先設(shè)定好的閥值Th,則認(rèn)為該角點(diǎn)可能屬于此類特征;如果某一角點(diǎn)對(duì)每一類神經(jīng)網(wǎng)絡(luò)的輸出都小于Th,則表示此點(diǎn)不是重要的特征角點(diǎn)。實(shí)驗(yàn)中選擇了四幅圖像上的特征點(diǎn)作為神經(jīng)網(wǎng)絡(luò)的訓(xùn)練樣本,圖2為神經(jīng)網(wǎng)絡(luò)的輸出誤差ε與迭代次數(shù)的關(guān)系曲線,可見在訓(xùn)練200次(每一次包含4幅圖像上的樣本點(diǎn))后輸出逐步趨于穩(wěn)定。作用于神經(jīng)元的作用函數(shù)是Sigmoid型函數(shù)(fsigmoid(x)11+e-λx)(fsigmoid(x)11+e?λx)。該算法較好地完成了提取人臉圖像上特征角點(diǎn)的目的。從中可以看出經(jīng)過篩選后的角點(diǎn)數(shù)目大大減少,十分有利于后續(xù)工作的完成。3圖像理解的范圍線特征主要是指直線以及直線間的相互關(guān)系,如共線、平行、垂直等。對(duì)直線的檢測(cè)在圖像理解中占有重要的位置。下面首先討論傳統(tǒng)的直線檢測(cè)方法Hough變換(HT),隨后詳細(xì)討論如何從物體的鏈碼表示中直接、快速地提取直線。3.1圖像空間到參數(shù)空間的變換HT是一種常用的直線檢測(cè)方法,它的優(yōu)點(diǎn)在于對(duì)噪聲不敏感以及能對(duì)多種參數(shù)曲線甚至是任意形狀的曲線進(jìn)行檢測(cè)。主要缺點(diǎn)是:〈1〉計(jì)算復(fù)雜度和空間復(fù)雜度都較高,即使利用了邊沿元的方向信息,處理時(shí)間仍較長(zhǎng)?!?〉在圖像空間到參數(shù)空間的變換中,容易丟失直線端點(diǎn)及長(zhǎng)度信息。為補(bǔ)回這些重要信息,必須進(jìn)行反變換或特殊處理。因此,多年來各國(guó)的研究人員提出了種種改進(jìn)算法,但未見取得大的突破,尤其是HT的處理速度,對(duì)實(shí)時(shí)圖像處理來說是難以接受的。如果在實(shí)時(shí)系統(tǒng)中采用了HT,而未使用陣列處理器或?qū)S玫腍T芯片來實(shí)現(xiàn),那么它將成為提高系統(tǒng)處理速度的主要障礙。因此,放棄經(jīng)典的HT,研究一種能夠在物體的鏈碼表示的基礎(chǔ)上直接、快速地檢測(cè)直線的方法很有必要。3.2鏈碼段直線檢測(cè)直線一般出現(xiàn)在物體的邊沿、棱線上,如果分割得好,必定在物體的輪廓線上。通過邊界跟蹤得到的鏈碼,表示的恰好是物體的輪廓信息,因此在鏈碼的基礎(chǔ)上檢測(cè)直線的存在與否是合理的。新型線特征提取方法的思想是:對(duì)于一段直線而言,它在鏈碼上表現(xiàn)為在一定范圍內(nèi)只出現(xiàn)一個(gè)方向,或有兩個(gè)方向交替出現(xiàn)。按照這一思想,對(duì)表示某物體的鏈碼進(jìn)行掃描,記錄每次鏈碼方向出現(xiàn)的持續(xù)長(zhǎng)度,得到如下表示:其中,X,Y為鏈碼起始點(diǎn)的坐標(biāo),Di(i=1,2,…,k)為跟蹤方向,Ci(i=1,2,…,k)為其持續(xù)長(zhǎng)度,EndTag為結(jié)束標(biāo)志。從已獲得的數(shù)據(jù)I中檢測(cè)直線,有如下判據(jù)(其中T為長(zhǎng)度閾值,表示欲檢測(cè)的長(zhǎng)度大于T的直線):判據(jù)1:I中某一Di的計(jì)算值Ci>T時(shí),就認(rèn)為存在一條直線L,其起點(diǎn)可根據(jù)鏈碼起點(diǎn)坐標(biāo)(x,y)與Di在I中的位置得到,其方向與鏈碼方向Di一致,長(zhǎng)度為Ci,這是只有單一跟蹤方向的情況。判據(jù)2:對(duì)I中的鏈碼段Di到Dj,若滿足以下條件,也認(rèn)為存在一條直線L:1.這段鏈碼中只有兩個(gè)方向D1,D2交替出現(xiàn);2.D1,D2為最相鄰的兩個(gè)鏈碼方向;3.Di到Dj的統(tǒng)計(jì)數(shù)據(jù)之和C>T,C=∑Ck,k=i,…,j.這是兩個(gè)跟蹤方向交替出現(xiàn)的情況。其中,條件2對(duì)四方向鏈碼而言是自動(dòng)滿足的。判據(jù)3:使用文獻(xiàn)中求代表點(diǎn)的方法對(duì)滿足判斷2的鏈碼段進(jìn)行處理,如果沒有代表點(diǎn)存在,則該鏈碼段表示的是直線;否則,就不是直線。由三種判據(jù)可以對(duì)各種直線進(jìn)行特征提取了。4提取面特征的公式物體的面積,周長(zhǎng),形心及三階標(biāo)準(zhǔn)矩等特征組成該物體的面特征。其中,周長(zhǎng)可由鏈碼長(zhǎng)度得到,面積和形心可由代表點(diǎn)直接求三階標(biāo)準(zhǔn)矩的過程中同時(shí)得到。下面給出由代表點(diǎn)計(jì)算三階標(biāo)準(zhǔn)矩的計(jì)算公式,詳細(xì)的計(jì)算過程參見文獻(xiàn)。Μ(p,q)=∑iΤi(p,q)/[(p+1)×(p+2)]Ei(p,0)=Xp+2i+1-Xp+2iM(p,q)=∑iTi(p,q)/[(p+1)×(p+2)]Ei(p,0)=Xp+2i+1?Xp+2iEi(p,q)=Xp+2i+1p+2i+1×Yqi+1qi+1-Xp+2ip+2i×Yqiqi-Ti(p+1,q-1)×(q/p+

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論