機器視覺原理及應(yīng)用 課件 第3、4章 雙目立體視覺、面結(jié)構(gòu)光三維視覺_第1頁
機器視覺原理及應(yīng)用 課件 第3、4章 雙目立體視覺、面結(jié)構(gòu)光三維視覺_第2頁
機器視覺原理及應(yīng)用 課件 第3、4章 雙目立體視覺、面結(jié)構(gòu)光三維視覺_第3頁
機器視覺原理及應(yīng)用 課件 第3、4章 雙目立體視覺、面結(jié)構(gòu)光三維視覺_第4頁
機器視覺原理及應(yīng)用 課件 第3、4章 雙目立體視覺、面結(jié)構(gòu)光三維視覺_第5頁
已閱讀5頁,還剩67頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

機器視覺原理及應(yīng)用3.1雙目立體視覺原理之后計算出兩個相機之間的關(guān)系,即旋轉(zhuǎn)矩陣R和平移矩陣T。獲得了兩個相機之間的轉(zhuǎn)換關(guān)系(R,T)之后,就可以通過三角測量法,求解目標的三維坐標。最后通過重投影矩陣獲得目標的相對于相機的三維坐標。

3.1.1雙目立體視覺測深原理圖3-1三角測量法示意圖3.1雙目立體視覺原理

3.1.2極線約束圖3-2極線約束關(guān)系3.2雙目立體視覺系統(tǒng)

雙目立體視覺系統(tǒng)由左右兩部攝像機組成。如圖3-3所示,圖中分別以下標l和r標注左、右攝像機的相應(yīng)參數(shù)。3.2.1雙目立體視覺系統(tǒng)分析圖3-3立體視覺的基本原理3.2雙目立體視覺系統(tǒng)

在平行光軸的立體視覺系統(tǒng)中如圖3-4所示,左右兩臺攝像機的焦距及其它內(nèi)部參數(shù)均相等,光軸與攝像機的成像平面垂直,兩臺攝像機的X軸重合,Y軸相互平行。3.2.2平行光軸的系統(tǒng)結(jié)構(gòu)圖3-4平行光軸的立體視覺系統(tǒng)示意圖3.2雙目立體視覺系統(tǒng)

非平行光軸模型如圖3-5所示,目標物(Object)上的任意一點,經(jīng)針孔模型在左、右相機的圖像面上分別成點像為和

。3.2.3非平行光軸的系統(tǒng)結(jié)構(gòu)圖3-5非平行光軸模型3.2雙目立體視覺系統(tǒng)

3.2.4雙目立體視覺的精度分析3.3圖像特征點3.3.1SIFT特征點DOG算子檢測SIFT算法下的圖像特征點的局部極值,通過比較每個像素點與其26個鄰域像素的值,將最大或最小的點保存為候選特征點,代表圖像的特征子集。尺度空間理論即是采用高斯核理論思想對初始的圖片進行尺度變換運算,得到圖片在多個不同尺度下的尺度空間的描述序列,最后在尺度空間下對得到的序列進行特征提取。1.尺度空間的生成在上一步中,得到了圖像的特征點,然后利用特征點鄰域像素的梯度方向分布特性對每個特征點賦一個方向,使得這些特征點具有旋轉(zhuǎn)不變性。光滑與粗糙程度、形狀、結(jié)構(gòu)和紋理等特征在圖像上的表象。SIFT計算特征向量算法2.DOG極值點檢測與定位3.特征點

方向分配4.特征點描述子的生成SIFT(ScaleInvariantFeatureTransform,尺度不變特征變換)方法是DavidLowe于1999年提出的,一種基于尺度空間的圖像局部特征表示方法,它具有圖像縮放、旋轉(zhuǎn)甚至仿射變換不變的特性,并于2004年進行了更深入的發(fā)展和完善。3.3圖像特征點3.3.2SURF特征點Bay提出的SURF(SpeededUpRobustFeatures)算法是一個速度較快、魯棒性能較好的方法。它是SIFT算法的改進,融合了Harris特征和積分圖像,加快了程序的運行速度。(1)建立積分圖像SURF算法的積分圖用于加速圖像卷積,所以加快了SURF算法的計算速度,計算時間減少。對于一個灰度圖像I計算公式如下:(2)構(gòu)建Hessian矩陣和高斯金字塔尺度空間在圖像坐標點(x,y)處,尺度為σ的Hessian矩陣為:3.3圖像特征點3.3.2SURF特征點SURF算法選用DOG算子代替LOG算子來近似的表達,得到類似的Hessian矩陣的結(jié)果:(3)定位極值點得到各像素點的Hessian矩陣后,根據(jù)其行列式的正負判斷是否為極值點,并使用非極大值抑制法在3×3×3立體鄰域檢測極值點。(4)確定主方向?qū)τ诿總€候選特征點作為中心,Harr小波統(tǒng)計了總響應(yīng)的60度扇區(qū)和X在Y方向的所有特征點,以中心角60度扇區(qū)模板遍歷整個圓形區(qū)域,如圖3-6所示,將最長的向量作為特征點的方向。(5)生成特征點描述子圖3-6選取特征點的主方向3.3圖像特征點3.3.3ORB特征點(1)oFAST特征檢測2011年Rublee等人提出了ORB(OrientedFastandRotatedBrief)算法,即帶有方向信息的FAST特征檢測oFAST和帶有旋轉(zhuǎn)角度的rBRIEF描述子組合的ORB算法。FAST算法,認為若某點像素值與其周圍某鄰域內(nèi)一定數(shù)量的點的像素值相差較大,則該像素可能是角點。而ORB算法用灰度質(zhì)心法(IntensityCentroid,簡稱IC)附加方向。其定義為:角點視為物體,物體質(zhì)心(即角點質(zhì)心)與角點灰度之間有偏移量存在,這個偏移量可以確定角點方向。oFAST組成如下所示:3.3圖像特征點3.3.3ORB特征點(2)rBRIEF特征描述rBRIEF特征描述是在BRIEF特征描述的基礎(chǔ)上加入旋轉(zhuǎn)因子改進的。BRIEF以特征點為中心,對鄰域內(nèi)5×5的隨機子窗口用σ=2的高斯核卷積。然后以一定采樣方式選取N個點對如公式所示進行二進制賦值。在特征點鄰域內(nèi)選取n對二進制特征點的集合,引入一個2×n的矩陣如公式所示:用oFAST特征點的方向θ,計算描述子旋轉(zhuǎn)矩陣,之后S矩陣更改為這樣就給描述子加上了方向信息。3.3圖像特征點3.3.4基于深度學(xué)習(xí)的特征點MihaiDusmanu等人提出的D2-Net方法使用卷積神經(jīng)網(wǎng)絡(luò)同時進行特征檢測與特征描述符提取。這里卷積神經(jīng)網(wǎng)絡(luò)具有兩個功能:它既是密集特征描述符也是特征檢測器。稀疏匹配一般采用檢測然后描述的方法。如圖3-7(a)所示。而D2-Net方法將兩者合二為一,通過神經(jīng)網(wǎng)絡(luò)得到的特征圖既代表特征檢測結(jié)果又代表特征描述結(jié)果,如圖3-7(b)所示。圖3-7不同檢測方法對比(a)(b)3.4立體匹配

立體匹配是從左右兩個方向?qū)δ繕诉M行拍攝,采集圖像數(shù)據(jù),然后對圖像中的像素進行分析,找到左右視圖所對應(yīng)的像素對,再通過計算得到像素的視差,根據(jù)相機的參數(shù)以及三角測距的原理來獲得物理世界的三維信息。按照特征點的稀疏程度將立體匹配分為稀疏匹配和稠密匹配。代價計算代價聚合視差估計立體圖像特征網(wǎng)絡(luò)4Dcost聚合網(wǎng)絡(luò)3Dcost

回歸圖3-8立體匹配網(wǎng)絡(luò)的算法流程3.4立體匹配3.4.2稀疏匹配

稀疏匹配是對參照圖和對照圖進行特征提取,并計算圖像特征的距離,使得特征距離最小的點即為要求的特征點,最后根據(jù)對應(yīng)特征點得到視差。在稀疏匹配中特征的選擇非常重要,匹配特征應(yīng)該對應(yīng)景物一定的特征,盡量避免產(chǎn)生誤匹配。常用到的特征包括:角點、邊緣、閉合區(qū)域、直線段等。左圖右圖匹配圖3-9立體匹配示意圖3.4.1稠密匹配3.4立體匹配

稠密匹配是基于生成的視差圖,對于所有像素都能生成確定視差值。稠密匹配通過改變兩組圖像的尺度或?qū)山M圖像劃分為許多具有相同尺寸的子窗口來確定對應(yīng)的區(qū)域,參照圖中待匹配的點為中心選定一個小區(qū)域,并以中心像素點鄰域像素分布特征來表征該點的像素特征,然后在對準圖當(dāng)中尋找一個像素,若該點特征與參照圖中待匹配點的特征滿足相似性準則條件時,則認為該點為對應(yīng)的匹配點。稠密匹配啟發(fā)式立體匹配算法深度網(wǎng)絡(luò)立體匹配算法序號名稱特點1半全局立體匹配算法半全局匹配是一種介于全局和局部匹配之間的算法,結(jié)合了兩者的優(yōu)點,在效率和準確性上達到較好的平衡。2全局立體匹配算法全局立體匹配算法通過建立對整張圖的約束,有效保留了圖像中的結(jié)構(gòu)信息,可較為準確的計算出稠密視差。3端到端的立體匹配算法端到端的立體匹配算法與以往的立體匹配算法不同的是,這類算法舍棄掉分而治之的解決方案,開始使用深度學(xué)習(xí)中的端到端思路。1.啟發(fā)式立體匹配算法3.4立體匹配3.4立體匹配2.深度網(wǎng)絡(luò)立體匹配算法代價計算代價聚合光流計算未校正圖像特征網(wǎng)絡(luò)5Dcost聚合網(wǎng)絡(luò)4Dcost

回歸

自由立體匹配與典型的行對齊立體匹配最大的區(qū)別在于匹配點的搜索范圍。自由立體匹配網(wǎng)絡(luò)通過增加垂直方向視差的搜索,并升級為5維矩陣來進行匹配代價計算。在代價聚合過程中,使用4維循環(huán)神經(jīng)網(wǎng)絡(luò)代替4維CNN卷積,以降低運算量。此外,還添加了新的模塊,提高匹配搜索過程的正確率,受到對極幾何的約束。這些改進使得自由立體匹配具有更高的準確性,但也導(dǎo)致運算量增加。圖3-10自由立體匹配網(wǎng)絡(luò)的理想算法流程3.5.1相機標定3.5案例-雙目立體視覺實現(xiàn)深度測量(1)相機標定板的制作參照棋盤格布局在計算機上畫出10*7(25mm*25mm)的棋盤格(2)采集標定板圖像改變標定板的姿態(tài)和距離,拍攝不同狀態(tài)下的標定的圖像10幅到20幅之間圖3-11制作棋盤格圖3-12采集圖像3.5.1相機標定3.5案例-雙目立體視覺實現(xiàn)深度測量(3)標定步驟1.運行calib_gui標定程序,對左相機進行標定,選擇Standrad;2.點擊Imagenames,輸入已經(jīng)拍攝好的左相機的12幅圖片的通配模式,如圖3-13所示;3.MATLAB加載左相機所有標定圖片后,點擊Extractgridcorners,在圖片上選擇四個拐點,按照左上—右上—右下—左下的順時針順序選擇,重復(fù)12次,如圖3-14所示;4.點擊Calibration,標定并查看標定結(jié)果,命令行會顯示內(nèi)參和畸變系數(shù);5.點擊Save,在目錄中保存標定的結(jié)果,將“Calib_Results.mat”改成“Calib_Results_left.mat”;6.點擊Comp.Extrinsic計算外參;7.重復(fù)第一步到第六步,對右相機進行標定,將右相機標定結(jié)果將“Calib_Results.mat”改成“Calib_Results_right.mat”;8.運行雙目校正程序stereo_gui,計算雙目校正參數(shù);9.點擊Loadleftandrightcalibrationfiles,默認輸入即可得到相機的內(nèi)外參(如果想得到優(yōu)化結(jié)果,點擊Runstereocalibration即可);圖3-13加載圖像圖3-14提取角點3.5.2實驗圖片采集和矯正3.5案例-雙目立體視覺實現(xiàn)深度測量(1)分別利用左右相機拍攝圖片(圖3-15),存成ImageLeft和ImageRight,在此為空間中的圓進行編號,左為圓1,中為圓2,右為圓3。(2)將拍攝的左右圖像進行矯正存為frameLeftRectTestL.bmp和frameRightRectTestL.bmp如圖3-16所示圖3-15左相機圖像右相機圖像圖3-16矯正后左相機圖像矯正后右相機圖3.5.3圓心坐標提取3.5案例-雙目立體視覺實現(xiàn)深度測量(1)利用MATLAB選擇感興趣區(qū)域;(2)在MATLAB中把圖像二值化,得到二值化后的圖像,如圖3-27所示;(3)利用質(zhì)心法提取空間中圓的圓心,如圖3-17所示;(4)輸出圓心坐標左圖像圓心坐標為X:705.34 812.09 960.49Y:638.02 803.98 678.38

右圖像圓心坐標為X:535.60 638.80 807.80Y:642.94 809.18 683.52圖3-17對圖像進行處理3.5.4視差和深度計算3.5案例-雙目立體視覺實現(xiàn)深度測量視差如公式所示:

通過計算,得到圓1與圓3深度差為84.4233mm,圓2與圓3深度差為98.6945mm,圓1與圓2深度差為15.2712mm(注:視差以像素為單位,轉(zhuǎn)化成mm需要乘以像元大小5.3um)。3.5.5計算三維坐標并三維輸出空間位置3.5案例-雙目立體視覺實現(xiàn)深度測量利用函數(shù)function[XL,XR]=stereo_triangulation(xL,xR,om,T,fc_left,cc_left,kc_left,alpha_c_left,fc_right,cc_right,kc_right,alpha_c_right)將標定時的得到的內(nèi)參和外參輸入到MATLAB命令行中,再調(diào)用函數(shù)即可得到空間點的三維坐標。XL1=[1.0e+003*-0.0446-0.0839-1.0829]XR1=[1.0e+003*0.0697-0.0888-1.0829]XL2=[1.0e+003*-0.1131-0.1883-1.0429]XR2=[1.0e+003*0.0001-0.1930-1.0445]XL3=[1.0e+003*-0.2491-0.1272-1.2348]XR3=[1.0e+003*-0.1302-0.1330-1.2407]3.5.5計算三維坐標并三維輸出空間位置3.5案例-雙目立體視覺實現(xiàn)深度測量XL1=[1.0e+003*-0.0446-0.0839-1.0829]XR1=[1.0e+003*0.0697-0.0888-1.0829]XL2=[1.0e+003*-0.1131-0.1883-1.0429]XR2=[1.0e+003*0.0001-0.1930-1.0445]XL3=[1.0e+003*-0.2491-0.1272-1.2348]XR3=[1.0e+003*-0.1302-0.1330-1.2407]至此得到空間中三個點的三維坐標如上,畫出三維空間中各個點的位置,如圖3-18所示。圖3-18三維坐標3.6雙目立體成像3.6.1立體攝像機原理(1)色差式原理色差式3D技術(shù),其本質(zhì)是利用三基色原理來達成3D顯示效果。將左右相機拍攝到的視角不同的左圖像和右圖像分別進行不同的顏色渲染,然后合成在同一幅圖像中,經(jīng)渲染后合成的兩幅圖像錯位重疊在一起。圖3-18色差式成像效果圖

圖3-19紅藍眼鏡

3.6雙目立體成像3.6.1立體攝像機原理(2)快門式原理快門式3D顯示技術(shù)主要是利用的是人眼的滯留現(xiàn)象來達到將左右圖像分別、同時、獨立的導(dǎo)入雙眼的目的??扉T式3D顯示技術(shù)的具體方法是將左圖像和右圖像連續(xù)、交錯的顯示在屏幕上,與此同時快門式3D眼鏡的左右液晶鏡片的開和關(guān)由紅外信號發(fā)射器同步控制,使左右圖像能夠分別、獨立、同時的輸送到左、右雙眼,然后大腦根據(jù)接收到的具有視差的左右圖像合成3D立體圖像。圖3-20快門式三維立體成像示意圖

圖3-21快門式3D眼鏡

3.6雙目立體成像3.6.1立體攝像機原理(3)偏振式原理

偏振式3D顯示技術(shù)的理論基礎(chǔ)是光的偏振原理,光是一種電磁波,由相互垂直的電場和磁場形成,而自然光是由眾多電磁波相互混合而成的,這導(dǎo)致它在各個方向均勻的振動,若自然光通過偏光膜,則在偏光膜的作用下,在各個方向都有振動的自然光將變成一種偏振光,其振動方向與偏光膜方向完全一致。圖3-22偏振式3D顯示技術(shù)原理圖

圖3-23偏振式3D眼鏡

3.6雙目立體成像3.6.1立體攝像機原理(4)裸眼式原理裸眼式3D顯示技術(shù)主要由于色彩灰度的不同而使人眼產(chǎn)生視覺上的錯覺,而將二維的計算機屏幕感知為三維圖像?;谏蕦W(xué)的有關(guān)知識,三維物體邊緣的凸出部分一般顯高亮度色,而凹下去的部分由于受光線的遮擋而顯暗色圖3-24裸眼3D原理圖

圖3-25裸眼3D顯示

3.6雙目立體成像3.6.2立體攝像機拍攝技術(shù)(1) 打開AEE運動攝像機,如圖(a)所示,對周圍環(huán)境進行拍攝。(2) 打開2D轉(zhuǎn)3D顯示屏,并將畫面保持在2D轉(zhuǎn)3D的設(shè)置中,如圖(b)所示。(3) 佩戴偏振式眼鏡便可觀看由AEE運動相機所拍攝的3D畫面,實踐效果如圖(c)所示。圖3-26AEE運動攝像機

圖3-27

顯示屏

圖3-28

視覺實踐圖

3.7案例-雙目立體視覺三維測量3.7.1相機標定在相機標定的實驗過程中,使用的是兩部攝像機對棋盤格進行拍攝,總共采集了12對圖像。具體的過程如下:(1)制作棋盤格參照棋盤格的布局在計算機上畫出10*7的棋盤格,并打印出來粘貼在一塊板上,如圖3-29所示圖3-29棋盤格3.7案例-雙目立體視覺三維測量3.7.1相機標定(2)兩臺攝像機拍攝棋盤格將棋盤格擺出各種不同角度的姿態(tài),同時用攝像機進行拍攝,根據(jù)算法的需要拍攝了左右各12幅不同的圖像。利用MATLAB相機標定工具箱進行角點提取、圖像重投影、誤差分析等求出攝像機的內(nèi)、外參數(shù),利用非線性優(yōu)化對標定結(jié)果進行優(yōu)化。圖3-30左相機采集圖像圖3-31右相機采集圖像圖3-32位置關(guān)系圖3.7案例-雙目立體視覺三維測量3.7.2立體匹配根據(jù)標定好的攝像機采集物體圖像,得到物體的雙目圖像對,緊接著對起初的圖像對進行校正。獲得匹配點之后,采用視差函數(shù)求得視差圖,如圖3-33所示。圖3-33中各個區(qū)域的不同灰度值反映了雙目圖像對的視差信息,從實驗得出的視差圖可以看出視差圖較為平滑,而且不同物體之間的視差也比較明顯。圖3-34為左右兩圖像合成在一張圖中的效果,如果帶上紅藍立體眼鏡,可感覺到圖3-34的立體場景。圖3-33視差圖圖3-34實際物體圖3.7案例-雙目立體視覺三維測量3.7.3三維重建在視差與標定的基礎(chǔ)上,進一步得到物體的三維重建結(jié)果,通過修改程序中深度的參數(shù),去除了一些不必要的干擾的得到效果圖如圖3-35所示:圖3-35三維深度圖TheEnd機器視覺原理及應(yīng)用《機器視覺原理及應(yīng)用》第4章面結(jié)構(gòu)光三維視覺4.1單幅相位提取方法4.2多幅相位提取方法4.3相位展開方法4.4案例-基于條紋投影結(jié)構(gòu)光三維掃描儀的牙模掃描4.5案例-鞋底打磨4.1單幅相位提取方法單幅相位提取是圖像處理中常用的技術(shù)之一,用于從圖像中提取出相位信息。以下是一些常見的單幅相位提取方法:

傅里葉變換法窗傅立葉脊法二維連續(xù)小波變換法BEMD法VMD法變分圖像分解法4.1單幅相位提取方法單幅相位提取是圖像處理中常用的技術(shù)之一,用于從圖像中提取出相位信息。以下是一些常見的單幅相位提取方法:

傅里葉變換法窗傅立葉脊法二維連續(xù)小波變換法BEMD法VMD法變分圖像分解法傅里葉變換(法語:TransformationdeFourier、英語:Fouriertransform)是一種線性積分變換,用于信號在時域(或空域)和頻域之間的變換,在物理學(xué)和工程學(xué)中有許多應(yīng)用。傅里葉4.1單幅相位提取方法4.1.1傅里葉變換法在FPP測量中,CCD采集到的條紋圖公式如下所示:其中為背景,和分別為調(diào)制部分和相位部分,為載頻頻率。

4.1.2窗傅里葉脊法

4.1.2窗傅里葉脊法

4.1.3二維連續(xù)小波變換法

二維連續(xù)小波變換是一種將二維信號或圖像進行頻域分解的數(shù)學(xué)工具。相對于離散形式的小波變換,二維連續(xù)小波變換是連續(xù)時間和連續(xù)尺度的擴展。根據(jù)二維連續(xù)小波變換定義,二維連續(xù)小波變換為:

4.1.3二維連續(xù)小波變換法

在二維連續(xù)小波變換中,小波函數(shù)的選擇對于變換結(jié)果是至關(guān)重要的。常用的小波基函數(shù)有Fan小波基、Morlet小波基、Paul小波基等。每種小波基函數(shù)具有不同的時頻分辨率特性和方向選擇性,適合于不同類型的信號或圖像。選取合適的小波基函數(shù),可以使得變換結(jié)果更加準確和有意義。例如,F(xiàn)an小波基為:

4.1.3二維連續(xù)小波變換法

在對條紋圖進行二維連續(xù)小波變換后,可以通過檢測小波變換系數(shù)的小波脊來獲取位置處的條紋相位。小波脊是指在二維連續(xù)小波變換中,使得小波變換系數(shù)取得最大值的位置。進而,通過以下公式計算該位置處的條紋相位:

4.1單幅相位提取方法(1)概念4.1.4BEMD法BEMD法是指基于經(jīng)驗?zāi)B(tài)分解的方法(BidimensionalEmpiricalModeDecomposition)。這種方法是一種信號處理技術(shù),用于將非線性和非平穩(wěn)信號分解成若干個具有不同頻率特征的子信號。BEMD法包含兩個步驟:首先,將信號分解為一系列的本征模態(tài)函數(shù)(IMF)。這些IMF主要包含原始信號在不同頻率下的成分。然后,通過迭代過程,進一步將IMF分解為子IMF,直到獲得滿足特定條件的IMF。BEMD法被廣泛應(yīng)用于信號處理、圖像處理、模式識別等領(lǐng)域,具有較高的適應(yīng)性和魯棒性。一個信號包含若干個本征模態(tài)函數(shù)(IntrinsicModeFunction,IMF),EMD則自適應(yīng)地將信號中所含IMF按頻率從高到低的順序依次提取出來。它的基本思想是首先找出信號的極值,包括極大值和極小值,然后對這些極值點進行插值,來獲得信號的上下包絡(luò)線和均值包絡(luò)線。最后利用篩的算法,把本征模態(tài)函數(shù)一步一步分離出來。這樣最終把信號分解為若干個經(jīng)驗?zāi)B(tài)分量和近似分量。4.1單幅相位提取方法(2)EMD實現(xiàn)過程4.1.4BEMD法第五步,判斷h(x,y)是否滿足篩選條件,如果不滿足,繼續(xù)重復(fù)1-4步驟,如果滿足,把h(x,y)作為一個IMF,記為c1(x,y);第六步,從s(x,y)減去得到的h(x,y),得到剩余值序列r1(x,y)=s(x,y)-h(x,y),對重復(fù)以上5個步驟得到第2個、第3個直至第n個IMFcn(x,y),當(dāng)滿足一定的條件時,停止處理,經(jīng)過上述6個步驟,將信號分解成若干個IMFcn(x,y)和一個余項rn(x,y):。經(jīng)驗?zāi)B(tài)分解存在模態(tài)混合問題,在同一模態(tài)函數(shù)里會有其他不同尺度的信號混雜,或者統(tǒng)一尺度的信號出現(xiàn)在不同本證模態(tài)函數(shù)里。

4.1.4BEMD法

(3)MOBEMD算法中脊估計和包絡(luò)面估計的步驟4.1單幅相位提取方法首先進行脊位置獲?。旱谝徊?,對噪聲條紋圖像進行濾波預(yù)處理;第二步,對濾波后的條紋圖利用形態(tài)學(xué)函數(shù)進行開啟處理,其中采用的形態(tài)學(xué)函數(shù)為一個半徑為2個像素左右的圓盤形函數(shù),取值僅為0或者1。該函數(shù)對條紋圖的作用特性為:條紋圖中除處于凸曲面和狹窄曲面之上以外的灰度值都會被該函數(shù)抑制。也就是說條紋脊附近的灰度值得到保持,而其余部分的灰度值受到抑制而變?yōu)?或趨向于0,從而得到了形態(tài)學(xué)開啟后的條紋灰度圖;第三步,對上一步中得到的條紋灰度圖進行二值化處理,即把灰度得到保持的像素灰度值置為1,而把被抑制的像素灰度值置為0。通過二值化處理,經(jīng)形態(tài)學(xué)開啟后操作的條紋灰度圖變?yōu)橐幌盗醒丶咕€分布的黑白分明的條帶圖。通過形態(tài)學(xué)的進一步細化處理,這些條帶線可以被轉(zhuǎn)化為具有單像素寬度的單值線,在此單值線圖中可能殘留一些孤立的點,這些點可以通過“去端”操作來消除;第四步,將上一步中獲取的單值線圖作為初始脊位置圖,并通過迭代方法來獲取更加精確的脊位置圖R0(x,y)。4.1.4BEMD法

(4)MOBEMD算法中脊估計和包絡(luò)面估計的步驟4.1單幅相位提取方法

4.1單幅相位提取方法4.1.5VMD法

變分模態(tài)分解屬于新近提出的一種自適應(yīng)信號分析方法,其建立在變分法和維納濾波基礎(chǔ)上,能自適應(yīng)的將具有幾種不同模態(tài)的信號進行分離,即能得到帶限本征模態(tài)函數(shù)。首先,對于每一個本征模態(tài),通過Hilbert變換計算相應(yīng)的解析信號獲得單邊頻譜。其次,對每一個單邊譜模態(tài),通過混合一個中心頻率的指數(shù)調(diào)制項移動每一個頻譜到“基帶”。最后,通過解調(diào)信號的高斯光滑性(梯度的范數(shù))估計帶寬。綜上所述,對于一維信號,通過變分模態(tài)分解分析構(gòu)成如下約束變分問題公式如下所示:4.1.6變分圖像分解法

Fourier變換、二維小波變換和經(jīng)驗?zāi)B(tài)分解屬于頻域或者時頻分析的方法,在對FPP條紋分析過程中,它們是從頻域的角度來分析FPP條紋。通常,F(xiàn)PP條紋背景被認為是緩慢變化的,即其Fourier變換譜集中在零頻點附近,而條紋部分由于受載頻項的調(diào)制其頻譜會遠離原點,這樣背景部分和條紋部分在頻域上是分開的。在Fourier變換方法中可以通過帶通濾波濾除背景部分來保留條紋部分。采用變分圖像分解對FPP條紋圖進行描述是非常直觀的,因為變分圖像分解建立在空間域,具有f=μ+ν+w這種簡潔的形式。而Fourier變換的思想是將FPP條紋圖變換到頻域,從頻域中分析三個部分的特性和進行濾波處理。此外,采用變分圖像分解還具有其他優(yōu)勢,比如其可以借助已經(jīng)建立的圖像空間和變分圖像分解模型,尋找適合描述FPP條紋分析的有效模型,如采用TV-Hilbert-L2模型來描述FPP條紋圖。4.1.6變分圖像分解法

采用變分圖像分解和MO-BEMD對圖4-3a進行處理,這里采用低通濾波(LP)和離散小波變換(DWT)進行預(yù)濾波。圖4-3d-圖4-3-f分別為MO-BEMD-LP,MO-BEMD-DWT和變分圖像分解提取出的背景部分,圖4-3g-圖4-3i為MO-BEMD-LP,MO-BEMD-DWT和變分圖像分解提取出的條紋部分。采用MO-BEMD-LP,MO-BEMD-DWT和變分圖像分解提取的背景部分的信噪比為31.0,27.2和31.6dB,提取的條紋部分信噪比為15.1,14.5和20.3dB。多幅相位提取方法主要以相移法為代表的基于多幅條紋圖的相位提取。由于多幅投影條紋圖比單幅投影條紋圖提供了更多的信息,通常相移法比其他方法具有更高的精度。與相移法相比,基于單幅投影圖的條紋相位提取是在某一時刻只采集一幅圖像,受環(huán)境擾動的影響較小,更適合動態(tài)過程的三維測量和顯示。相移法主要是通過精密儀器對相位進行特定長度的步進產(chǎn)生多幅具有不同相位的條紋圖,再對這些條紋圖進行處理以獲得所需的相位,最終獲得所需檢測的物理量。相移法通用式可以下公式表示:4.2多幅相位提取方法

4.2多幅相位提取方法四步相移是FPP條紋分析中一種常用的方法。右圖給出了四步相移提取條紋圖像的過程

4.2多幅相位提取方法圖1、圖2、圖3展示了四步相移法測量一塑料盒三維形狀過程:首先通過投影儀投射相移條紋圖到被測物體,相機采集不同相移條件下的變形條紋圖(圖1)。然后通過四步相移法提取包裹相位(圖2),進一步進行解包裹和去載頻得到解包裹相位(圖3)。

4.2多幅相位提取方法圖1四步相移條紋圖圖2四步相移提取包裹相位圖圖3解包裹相位圖4.3.1格雷碼格雷碼(GrayCode)是數(shù)字電子技術(shù)和自動化檢測中的一種重要編碼。為了求解出指定掃描點的空間坐標信息,必須準確地標識出每一個匹配單元,并由此確定出標識單元來得到其解碼序列,進而解算出掃描點的空間坐標信息,因此格雷碼圖像的編解碼便成了確定解碼序列的重要手段。格雷碼編碼方法屬于時間編碼,在編碼圖像中只包含黑、白兩種顏色的條紋,且黑、白兩種顏色分別對應(yīng)于二進制數(shù)中的0和1。在格雷碼編碼圖像的構(gòu)成上,格雷碼編碼圖像可由黑、白、白、黑或白、黑、黑、白兩種模式來構(gòu)建。4.3.1格雷碼N幅正弦相移條紋投射圖案僅能針對一個條紋周期T的空間進行解碼,被測空間范圍大則需要周期大,那么編碼圖案中相鄰像素點的灰度差變小,致使灰度噪聲影響增大、編解碼準確度降低。格雷碼編解碼方法則不受被測深度空間限制,此方法已經(jīng)得到廣泛應(yīng)用,但被測空間越大則所需投射圖案越多。格雷碼通常采用黑色條紋和白色條紋進行編碼,黑色條紋對應(yīng)碼值為0,白色條紋對應(yīng)碼值為1,且相鄰兩個的碼字之間只有一位不同,抗干擾能力強。

4.3.2外差多頻4.3.2外差多頻

4.3.3三頻相位展開方法(式1)(式2)

(式3)

4.3.3三頻相位展開方法(式4)該三頻相位展開方法將具有適當(dāng)波長的三個條紋圖案投影到物體上,可

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論