![《模式識別原理與應用》課件第13章_第1頁](http://file4.renrendoc.com/view7/M01/08/19/wKhkGWbarUCADcUjAACqfQbmgKw960.jpg)
![《模式識別原理與應用》課件第13章_第2頁](http://file4.renrendoc.com/view7/M01/08/19/wKhkGWbarUCADcUjAACqfQbmgKw9602.jpg)
![《模式識別原理與應用》課件第13章_第3頁](http://file4.renrendoc.com/view7/M01/08/19/wKhkGWbarUCADcUjAACqfQbmgKw9603.jpg)
![《模式識別原理與應用》課件第13章_第4頁](http://file4.renrendoc.com/view7/M01/08/19/wKhkGWbarUCADcUjAACqfQbmgKw9604.jpg)
![《模式識別原理與應用》課件第13章_第5頁](http://file4.renrendoc.com/view7/M01/08/19/wKhkGWbarUCADcUjAACqfQbmgKw9605.jpg)
版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領
文檔簡介
第13章圖像識別13.1圖像識別的基本原理13.2人臉識別13.3簽名識別13.4車牌識別習題13.1圖像識別的基本原理如圖13-1所示,一個圖像識別系統(tǒng)主要包括三個部分:圖像信息的獲取、特征提取和分類判決。圖像信息的獲取就是把圖片、底片、文字圖形等用掃描設備變換為電信號以備后續(xù)處理;特征提取就是抽出能反映事物本質的特征;分類判決是根據所提取的特征做出分類結論的過程。其中,特征提取和分類判決關系密切。圖13-1圖像識別流程框圖
1.統(tǒng)計圖像識別方法統(tǒng)計圖像識別方法以統(tǒng)計模式識別為基礎,采用特征向量描述圖像模式,根據決策函數(shù)進行模式判決分類。不同的決策函數(shù)對應不同的模式分類方法。目前主要的統(tǒng)計圖像識別方法有兩類:基于似然函數(shù)的模式分類方法(例如Bayes判決準則、Fisher判決準則等)和基于距離函數(shù)的模式分類方法(例如KNN方法)。
2.結構圖像識別方法結構圖像識別方法以結構模式識別為基礎,采用形式語言理論的概念描述圖像模式。它分析圖像的結構,把復雜結構的圖像看成是由簡單的子圖像所組成,又把最簡單的子圖像作為基元,從基元的集合出發(fā),按照一定的文法(構圖規(guī)則)去描述較復雜的圖像。在結構圖像識別中,給定一個輸入模式基元串,判別其是否被文法識別器(又稱自動機)接受。
3.模糊圖像識別方法
模糊圖像識別方法以模糊模式識別為基礎,采用模糊集合的概念代替確定子集,從而得到模糊的識別結果。模糊圖像識別利用模糊信息進行圖像模式決策分類,使計算機或機器帶有接近人類的智能。
4.神經網絡圖像識別方法神經網絡圖像識別以神經網絡模式識別為基礎,利用人工神經網絡的學習能力和容錯性進行圖像識別。神經網絡分類器不需要對輸入的模式做明顯的特征提取,網絡的隱含層本身就具有特征提取的功能,特征信息體現(xiàn)在隱含層連接的權值之中。此外,神經網絡的并行結構決定了它對輸入模式信息的不完備或特征的缺損不敏感。圖像識別的應用十分廣泛,例如,身份認證中的人臉識別、虹膜識別、指紋識別和簽名識別,辦公自動化中的光學字符識別,交通管制中的車牌識別,機械加工中零部件的識別、分類,從遙感圖片中分辨農作物、森林、湖泊和軍事設施,氣象觀測數(shù)據或氣象衛(wèi)星照片準確預報天氣等。13.2人臉識別人臉識別技術就是利用計算機技術從人臉圖像中分析提取出有效的識別信息來“辨認”身份的技術。人臉識別已成為計算機視覺和模式識別領域最具挑戰(zhàn)的研究內容之一。人臉識別技術廣泛應用于智能人機接口、視頻會議系統(tǒng)、犯罪身份識別、有效證件的核對、各種安全檢測及機器視覺監(jiān)控等領域。人臉識別方法大致可分為幾何特征法、模板匹配法和模型法。
(1)幾何特征法是通過提取人臉的幾何特征,包括人臉部件歸一化的點間距離和比率以及人臉的一些特征點(如眼角、嘴角、鼻尖等),構成二維拓撲結構進行識別。人臉識別要求所構造的幾何特征既要清晰區(qū)分不同對象人臉的差異,又要對光照背景條件不敏感。常規(guī)的幾何特征量很難滿足這些要求,從而該方法的識別效果不理想。
(2)模板匹配法是利用人臉的全局特征,根據人臉模板和相關參數(shù)來進行識別的。這種方法簡單易行,但對人臉角度、大小和光照條件這些全局特征非常敏感,對人臉本質區(qū)別的細節(jié)特征并不敏感。模板匹配法優(yōu)于幾何特征法。
(3)模型法是通過統(tǒng)計分析和匹配學習找出不同人臉之間的區(qū)別。該方法包括特征臉方法(Eigenface)、費歇爾臉(Fisherface)方法、神經網絡方法和HMM方法等。與模板匹配法相比,模型法的模板是通過樣本學習獲得的,而非人為設定的。因此,該方法從原理上更為先進合理,實驗中也表現(xiàn)出更好的檢測和識別效果。特征臉方法是建立在主分量分析(PrincipleComponentAnalysis,PCA)基礎上的;費歇爾線性判別(FisherLinearDiscriminantAnalysis,FLDA)使類間離散度矩陣和類內離散度矩陣之間的判別式的比率達到最大;費歇爾臉方法是PCA與FLDA的結合。
本節(jié)以一種基于支持向量機和小波變換的人臉識別方法為例,介紹人臉識別。首先利用小波變換把人臉圖像分解為3層;然后,把費歇爾臉方法分別應用到不同分辨率上的3個低頻子圖,得到3個分類結果;最后,利用SVM網絡融合3個分類結果,得到最終的分類決策。13.2.1費歇爾臉方法費歇爾臉方法是PCA與FLDA的結合,它包含兩步:先利用PCA把人臉模式從高維圖像空間映射到低維空間,然后利用FLDA根據特征向量進行判別。假設一幅人臉圖像是一個2-Dp×q陣列,把圖像zi按列的順序拉直為一個d=p×q維的列向量。Z={z1,z2,…,zN}為訓練集合,包含N個圖像。協(xié)方差矩陣定義為(13-1)其中(13-2)令e1,e2,…,er為R的r個最大特征根對應的特征向量,以它們?yōu)榱邢蛄拷M成矩陣E=(e1,e2,…,er)。把原始圖像集合Z={z1,z2,…,zN}投影到PCA變換空間,得到相應的特征向量集合Y={y1,y2,…,yN},其中(13-3)在第二步中,把FLDA應用于Y={y1,y2,…,yN}。假定訓練集合的N個圖像包含m類。類間離散度矩陣定義為(13-4)類內離散度矩陣定義為(13-5)其中:Ni為第i類Ci包含的樣本個數(shù);為所有樣本的均值;
為第i類Ci的均值。最優(yōu)投影矩陣為正交列向量組成的矩陣,使類內離散度矩陣的判別式達到最小,同時使類間離散度矩陣的判別式達到最大,即(13-6)其中,w1,w2,…,wm-1為SB和SW的廣義特征向量,對應m-1個最大廣義特征根η1,η2,…,ηm-1,即(i=1,2,…,m-1)(13-7)由于SB是m個矩陣之和,其中每個矩陣的秩至多為1,因此,SB的秩至多為m-1。訓練圖像zi的特征向量vi為yi在FLDA-變換空間的投影:(i=1,2,…,N)(13-8)對于一幅測試圖像,利用上式提取其特征向量,然后與訓練圖像的特征向量進行比較,得到分類結果。一般使用最近均值原則:計算測試圖像的特征向量與每一類訓練圖像的特征向量的均值之間的距離,選擇最近的類別作為識別結果。在費歇爾臉方法中,為了確定r,把協(xié)方差矩陣R的特征根λi(i=1,2,…,d)按降序排列,選擇r為滿足下式的最小的k:(13-9)其中,P為接近于1的常數(shù)。13.2.2小波分解小波分解是一種有效的多分辨分析工具,它把信號分解為不同的頻段。利用小波變換,先對一幅圖像的行作低通濾波和高通濾波,再對列作低通濾波和高通濾波,得到一個低頻近似子圖和3個高頻細節(jié)子圖,如圖13-2所示。圖13-2二維小波分解的結構示意圖其中,H和L分別表示高通濾波和低通濾波,“↓2”表示2取1的抽樣。分解一層時,得到4個子圖(LL1,LH1,HL1,HH1);作第二層分解時,用同樣的方式對低頻近似子圖LL1進行分解,也得到4個子圖(LL2,LH2,HL2,HH2);作第三層分解時,用同樣的方式對低頻近似子圖LL2進行分解,也得到4個子圖(LL3,LH3,HL3,HH3);依次類推,圖像的3層小波分解示意圖如圖13-3所示。圖13-4是灰度圖像Lena512×512,圖13-5是Lena的小波分解(分解3層)。圖13-3圖像的小波分解示意圖圖13-4
Lena512×512的原圖圖13-5
Lena512×512的小波分解13.2.3基于小波變換與SVM的人臉識別
假定訓練集合為Z={z1,z2,…,zN},包含m個類別。算法由以下三步組成:
(1)利用小波變換把圖像分解為3層,得到3個近似圖像LL1、LL2和LL3。一般采用Daubechies小波濾波器。把原始訓練集合Z={z1,z2,…,zN}轉換為3個訓練集合,即把同一分辨率的子圖構成一個訓練集合。
(2)把費歇爾臉方法分別應用于3個訓練集合,得到3個分類器:分類器1、分類器2和分類器3。在PCA變換中,為了確定r,取P=95%。計算測試圖像的特征向量與訓練圖像的特征向量的歐氏距離,并把它們轉換成隸屬度:(i=1,2,3;j=1,2,…,N)(13-10)其中:i是3個分類器的編號;j為訓練圖像的編號;dij為第i個分類器中測試圖像的特征向量與第j個訓練圖像的特征向量的歐氏距離;為第i個分類器的平均距離。第i個分類器中,測試圖像屬于第k個類的隸屬度為(i=1,2,3;k=1,2,…,m)(13-11)其中:Ck為第k類的樣本集合;Nk為Ck中樣本的個數(shù)。對于固定的分類器i,最大隸屬度原則是指,選擇k0滿足:(13-12)把測試圖像識別為第k0類。
(3)利用SVM網絡融合上述3個分類器。給定測試圖像,對于分類器i(i=1,2,3),得到m個隸屬度μik(k=1,2,…,m),構成1個隸屬度向量。3個隸屬度向量連接成為1個尺寸為3m的隸屬度特征向量。訓練SVM網絡來融合3個分類器的結果,其輸入為隸屬度特征向量,輸出為輸入圖像所屬的類別號。選擇FERET數(shù)據庫“b”中40個個體,其標號為1141~1180。對于每個個體,選取7幅圖像:ba,bj,bk,bd,be,bf和bg。它們是8bit人臉灰度圖像,具有不同的姿態(tài)和明暗變化。原始圖像的尺寸為384×256,將其降為192×128。在每一次實驗中,對每個個體隨機選擇6幅圖像作為訓練集合,剩下的一幅作為測試圖像。做100次識別實驗,統(tǒng)計識別率的均值和方差。采用db4把圖像分解為3層,并考慮邊界效應,得到LL1、LL2和LL3,它們的尺寸分別為99×67、53×37和30×22。表13-1給出了費歇爾臉方法的不同分類規(guī)則的結果,包括最大隸屬度原則(LM)、最近均值原則(NM)和SVM分類原則。測試圖像包括原圖、LL1、LL2和LL3。SVM分類中,核函數(shù)采用多項式函數(shù),用一對一的方法解決多類問題。實驗結果表明,基于小波變換與SVM的人臉識別優(yōu)于不同分類規(guī)則下的費歇爾臉方法,包括最大隸屬度原則(LM)、最近均值原則(NM)和SVM分類原則。13.3簽名識別13.3.1簽名圖像預處理與特征提取
在脫機簽名識別中,特征可以從簽名圖像的各種信息載體中提取,這些信息載體包括灰度簽名、二值簽名、簽名骨架以及簽名輪廓。通過灰度濾波、歸一化、二值化和細化等預處理操作,可以得到歸一化的只包含簽名軌跡的灰度簽名、歸一化的二值簽名和歸一化的簽名骨架。圖13-6給出了一幅簽名圖像的預處理結果。圖13-6簽名圖像的預處理結果(a)原簽名圖像;(b)歸一化的二值簽名;(c)歸一化的灰度簽名;(d)歸一化的簽名骨架
1.偽動態(tài)特征人們在書寫簽名時,運筆過程的輕重緩急及筆劃的方向都形成了一定的習慣,對應的簽名圖像的灰度級的分布也具有一定的穩(wěn)定性,根據這一點可以從簽名圖像的灰度信息中提取偽動態(tài)特征。偽動態(tài)特征包含高灰度區(qū)域和灰度重心兩組特征。前者是個五維向量,其各維分別對應高灰度區(qū)域面積占整個簽名面積的比例,以及根據歸一化二值簽名重心劃分的四個子區(qū)域的高灰度區(qū)域面積占整個高灰度面積的比例。后者為歸一化灰度簽名圖像重心的相對橫坐標和相對縱坐標。簽名中灰度較高的區(qū)域稱為高灰度區(qū)域,它代表簽名筆劃中書寫力度較大的區(qū)域,如重筆、頓筆及筆劃交叉重疊的部分。高灰度區(qū)域是根據一定的閾值從歸一化的灰度簽名圖像中提取出的。為了使高灰度區(qū)域的提取具有適應性(與簽名時用筆、紙無關),可用動態(tài)閾值法獲取閾值,該閾值取為前景灰度頻率峰值的70%處對應的兩個灰度中較大的一個。高灰度特征定義為高灰度區(qū)域的像素點數(shù)與灰度簽名中前景像素點的比值。根據對應的二值簽名的重心,把歸一化的灰度簽名圖像分為4個矩形區(qū)域。按上面的定義,提取四個子區(qū)域的高灰度特征,這樣得到的五個高灰度特征構成了一個五維的特征向量。特征向量的每維取值在0~1之間,并具有大小、平移不變性。高灰度特征從歸一化的灰度簽名中提取得到。簽名骨架方向灰度特征是將筆劃方向與灰度相結合。其提取方法是統(tǒng)計歸一化的灰度骨架簽名上各點在水平(0°方向)、垂直傾斜(90°方向)、正傾斜(45°方向)和負傾斜(135°方向)四個方向上的累計灰度,由此形成一個四維向量(G1,G2,G3,G4),然后將其歸一化到0~1之間,即得到簽名骨架方向灰度特征:(13-13)
2.Zernike矩特征
Zernike矩特征取的是階為10的前36個Zernike矩,是一個36維的向量。復數(shù)Zernike矩是從Zernike多項式得到的:(13-14)(13-15)其中:ρ為從(x,y)到形狀質心的半徑;θ為ρ與x軸之間的夾角;n、m為整數(shù),滿足n-|m|為偶數(shù)且|m|≤n。Zernike多項式為單位圓(x2+y2≤1)內一組正交的復值函數(shù)完備集。階(order)為n、重(repetition)為m的復數(shù)Zernike矩定義為(x2+y2≤1)(13-16)這里*表示復數(shù)共軛。直到階為10的前36個Zernike矩如表13-2所示。由于Zernike基函數(shù)的定義域在單位圓內,因此在計算Zernike矩之前,必須指定此單位圓。在實現(xiàn)時,將所有的形狀都歸一化到單位圓內。單位圓以形狀質心為中心,這就使得到的Zernike矩具有平移和尺度不變性。僅利用Zernike矩的幅度作為形狀描述,可得到旋轉不變性。再將得到的幅度除以形狀質量將其歸一化到[0,1]區(qū)間。
Zernike矩的思想與傅里葉變換的思想是類似的,即將信號擴展為正交基序列的組合。然而,在計算Zernike矩描述符時不需要知道邊界信息,因此它更適用于描述復雜形狀。和傅里葉描述符一樣,也可以構造任意高階的Zernike矩,這就克服了高階幾何不變矩很難構造的缺點。對形狀表示的準確程度依賴于從擴展式中截取的矩數(shù)目。
3.幾何特征
幾何特征是從歸一化的簽名骨架中提取的,包括簽名骨架的相對面積、寬高比、水平和垂直方向的相對重心、基線偏移量和筆畫傾斜度。
1)簽名骨架相對面積簽名骨架相對面積是歸一化二值簽名骨架中黑色像素點的數(shù)量與總像素數(shù)的比值,它從一個側面反映了簽名中的筆畫特征。
2)簽名圖像寬高比簽名圖像寬高比就是歸一化的簽名外邊框的高度與寬度之比。一個人簽名的高度和寬度之比是相對穩(wěn)定的,可以將其作為一個特征用于身份識別。由于經過預處理得到的歸一化二值簽名骨架已經去除了四周的背景區(qū)域,故直接用歸一化二值簽名骨架的高度除以寬度即可得到簽名圖像寬高比。之所以用高度除以寬度,是因為一般簽名都是寬大于高,這樣可以使得寬高比的取值在0和1之間。
3)簽名骨架水平和垂直方向的相對重心簽名骨架水平和垂直方向的重心由下式計算得到:(13-17)(13-18)其中:M、N分別是歸一化的二值簽名骨架圖像的寬度和高度;b(x,y)是歸一化的二值簽名骨架中位置(x,y)處的值,若該點在簽名骨架上,則取值為1,否則取值為0。將得到的重心分別除以寬度和高度,即可得到水平和垂直方向的相對重心。
4)基線偏移量(BLS)基線偏移量表明簽名軌跡相對于水平方向的整體偏離程度??珊唵蔚匕褮w一化的二值簽名骨架分成等寬的左右兩部分,以兩子圖像重心的縱坐標差值作為基線偏移量。這樣得到的基線偏移量在0上下取值,且其值一般不會超過高度的一半,為將其歸一化到0和1之間,將縱坐標之差除以簽名高度,然后將這個比值加上0.5,即得到最終的基線偏移量:(13-19)其中:和分別是右半部分簽名和左半部分簽名的重心;N是簽名的高度。
5)筆畫傾斜度筆畫傾斜度包括垂直像素比和正傾斜像素比,它們分別是通過統(tǒng)計垂直像素和正傾斜像素占簽名骨架像素的比例得到的。對骨架上的任一點(x,y),若(x,y-1)處的像素點也在骨架上,則認為(x,y)是一個垂直像素;若(x+1,y-1)處的像素點也在簽名骨架上,則認為(x,y)同時也是一個正傾斜像素。統(tǒng)計所有的垂直像素和正傾斜像素即可得到對應的筆畫傾斜度。13.3.2基于證據理論融合的簽名識別在脫機簽名識別中,只使用基于單一特征的神經網絡分類器一般難以取得理想的識別效果。要獲得滿意的性能,有必要綜合利用反映簽名不同特性的各類特征來訓練神經網絡。但是,如果簡單地將多類特征直接輸入單個神經網絡分類器進行訓練,會導致網絡規(guī)模過大,從而使網絡的訓練變得非常困難,甚至成為一件難以完成的事情。一個合理的解決方法是使用多個小規(guī)模的神經網絡分類器針對不同類別的特征分別進行訓練,然后組合多個小規(guī)模神經網絡分類器的判決得到最后的識別結果。這樣做可以降低網絡規(guī)模,從而降低訓練復雜度,同時也可以獲得較高的性能。
1.基于證據理論融合的簽名識別流程基于證據理論融合的簽名識別流程如圖13-7所示。首先,從簽名圖像的三種信息載體中提取三種識別用特征:偽動態(tài)特征、Zernike矩特征和幾何特征;然后,將這三種特征分別輸入BP神經網絡分類器得到3個初步識別結果;最后,以這3個結果為證據,利用證據理論對它們進行融合,得到最終識別結果。圖13-7基于證據理論融合的簽名識別流程
2.BP神經網絡分類器對于偽動態(tài)特征、Zernike矩特征和幾何特征,利用每種特征分別訓練一個單隱含層的BP神經網絡分類器,每個分類器的輸入節(jié)點數(shù)由對應的特征維數(shù)決定,而輸出節(jié)點數(shù)則是簽名的類別數(shù)。由此構造的3個BP神經網絡分類器的輸入層節(jié)點數(shù)分別是7、36和7,輸出層節(jié)點數(shù)則為25,對應簽名的類別數(shù)。
3.證據理論融合只使用一種特征得到的正確識別率一般難以達到實用要求,需要綜合利用從簽名圖像中提取的多種特征以提高系統(tǒng)識別率。我們將每種特征對應的神經網絡分類器的輸出作為一條證據,利用證據理論對來自不同分類器的識別結果進行融合,從而得到最終的識別結果。分類器的輸出有三個層次,分別是抽象層輸出、排序層輸出和度量層輸出。神經網絡分類器的輸出結果在度量層上,比抽象層輸出和排序層輸出能夠提供更多的信息。同時,考慮到分類器本身的可靠性不可能達到100%,我們把不可信的部分賦值給整個辨識框架。假設一個神經網絡分類器在測試集上得到的正確識別率是εr,則認為該分類器的輸出結果的可靠程度為εr,而其對整個辨識框架的支持度則被認為是1-εr。設T1,T2,…,TM為總的簽名類別數(shù),共M類,令辨識框架Θ={T1,T2,…,TM}。若一個神經網絡分類器的可靠度為εr,分類器的輸出為y1,y2,…,yM,將其歸一化為y′1,y′2,…,y′M,即可得到該分類器對應的證據m:(13-20)(13-21)利用Dempster證據理論合成公式分別對三個分類器提供的三條證據進行合成,得到新的證據m。也可以采用如下改進的證據理論合成公式,則n個證據m1,m2,…,mn的合成結果為(13-22)(13-23)其中,m∩(A)為證據的交運算:(13-24)為證據之間的沖突概率;這里,把證據沖突概率按各個命題的平均支持程度加權進行分配,即(13-25)q(A)為證據對A的平均支持程度。由于組合后的新證據的焦元是單元素集,因此對應的信任函數(shù)為(13-26)取具有最大信任度函數(shù)對應的類別作為融合后的識別結果。
4.實驗結果實驗所用的一個測試簽名數(shù)據庫包括不同年齡段的17位男性、8位女性,共25人,每人8個簽名,共200個簽名。對每個人的8個簽名,取其中的6個簽名作為參考簽名,另外2個用于測試。隨機生成參考集與測試集,并重復多次實驗,取平均識別率作為實驗結果。表13-3給出了10次實驗的結果,作為比較,表中同時給出了各種特征分別通過BP神經網絡分類器得到的識別結果。由表13-3可以看出,基于證據理論的融合簽名識別方法能有效提高系統(tǒng)的正確識別率,并且,利用改進的合成公式得到的識別結果要好于基本合成公式(Dempster)。13.4車牌識別13.4.1車牌識別系統(tǒng)簡介如圖13-8所示,車牌識別系統(tǒng)主要由三部分組成:圖像輸入、牌照定位與分割、字符識別。圖13-8車牌識別系統(tǒng)流程圖圖像輸入是指利用攝像機獲取包含車輛的圖像。在攝像機前方的檢測點安裝傳感器,當汽車通過檢測點時,傳感器向主機發(fā)出信號,系統(tǒng)自動攝下車輛的圖像,并將圖像輸入計算機。牌照定位與分割是在包含車輛的圖像中找到牌照區(qū)域的位置,并把牌照區(qū)域分割出來,得到牌照圖像。牌照定位決定其后的車牌字符識別,因此牌照定位是識別系統(tǒng)的關鍵。字符識別就是采用光學字符識別(OCR)技術對牌照圖像進行識別,得到車牌號碼,包括漢字、英文字母和阿拉伯數(shù)字。在牌照識別中,需要利用光學字符識別(OCR)技術識別出牌照圖像中的印刷體漢字、英文字母和阿拉伯數(shù)字,得到車牌號碼。可以根據目前標準車牌中字符的具體排列順序,設計不同的分類器。其中:印刷體漢字包括各省、直轄市的簡稱或軍警;英文字母為26個大寫字母;阿拉伯數(shù)字為0,1,…,9。光學字符識別先要使識別系統(tǒng)學習待辨識字符的特征,然后再利用這些先驗知識對輸入圖像進行判決,得到字符的識別結果。字符的特征包括平面上的點陣位置特征、頻率特征、投影特征、語義特征等。光學字符識別已經比較成熟,達到了實用水平。下面簡要介紹車牌圖像定位分割。13.4.2車牌圖像定位分割算法
經過大量實驗數(shù)據發(fā)現(xiàn),所有車輛牌照具有以下特征:
(1)目前車輛牌照的具體排列格式是由一個省份漢字(軍警牌則為其他字)后跟字母或阿拉伯數(shù)字組成的7個字序列。標準車牌的具體排列格式是:X1X2·X3X4X5X6X7,X1是各省、直轄市的簡稱或軍警,X2是英文字母,X3X4是英文字母或阿拉伯數(shù)字,X5X6X7是阿拉伯數(shù)字。除第一個漢字外,字母或數(shù)字的筆畫在豎直方向都是連通的。
(2)車輛牌照區(qū)域牌底與牌字顏色相差較大,邊緣非常豐富。
(3)車輛牌照子圖像區(qū)域長高比例一定,車牌原始尺寸每個字寬45mm,字高90mm,間隔符寬10mm,每個單元間隔12mm。根據汽車牌照的特點,需要充分利用這些特征,并結合一系列圖像處理,對車輛牌照進行定位與分割。車輛牌照定位與分割算法的關鍵步驟主要包括灰度化、灰度拉伸、邊緣檢測與模板匹配。
1.灰度化
為了便于后續(xù)的快速圖像處理,以及對不同顏色的車輛牌照進行統(tǒng)一處理,需要把攝像頭拍到的含車輛的圖像由24位真彩色轉化成灰度圖。一般采用現(xiàn)行標準的平均值法:其中:
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
- 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
- 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2025年CDMA第三代蜂窩移動通信系統(tǒng)合作協(xié)議書
- 2025年光纖用GECL4合作協(xié)議書
- 2025年中學教師勞動合同樣本(2篇)
- 2025年九年級班主任個人年終教學工作總結范文(二篇)
- 2025年個人投資公司協(xié)議標準范文(2篇)
- 2025年二手摩托車轉讓協(xié)議標準范文(2篇)
- 2025年個人終止合同申請(五篇)
- 2025年二次消防改造工程合同協(xié)議(2篇)
- 2025年個人房屋借款合同標準版本(三篇)
- 2025年五年級英語教師工作總結樣本(四篇)
- 基金應知應會專項考試題庫(證券類190題)附有答案
- 遼寧省沈陽市第七中學2023-2024學年七年級下學期期末數(shù)學試題
- 2024年湖南工業(yè)職業(yè)技術學院單招職業(yè)技能測試題庫附答案
- 快速入門穿越機-讓你迅速懂穿越機
- 水利安全生產風險防控“六項機制”右江模式經驗分享
- 2024年四川省成都市高新區(qū)中考數(shù)學二診試卷
- 幼兒園衛(wèi)生保健開學培訓
- 食材配送服務售后服務方案
- 礦井主要災害事故防治應急避災知識培訓課件
- 不老莓行業(yè)分析
- STARCCM基礎培訓教程
評論
0/150
提交評論