光電學院畢業(yè)設計論文開題報告_第1頁
光電學院畢業(yè)設計論文開題報告_第2頁
光電學院畢業(yè)設計論文開題報告_第3頁
光電學院畢業(yè)設計論文開題報告_第4頁
光電學院畢業(yè)設計論文開題報告_第5頁
已閱讀5頁,還剩1頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領

文檔簡介

1、本科畢業(yè)設計(論文)開題報告題目 采用Kinect傳感器的身份識別實驗系統(tǒng)設計 專 業(yè) 電子科學與技術(shù)(光電子方向) 姓 名 凌晗 學 號 1120101018 班 級 04121003 指導教師 柯鈞 學 院 光電學院 2014 年 4 月 5 日一、題目背景、研究現(xiàn)狀和研究意義(選題背景、國內(nèi)外研究現(xiàn)狀、研究意義。)健全的交互式人體追蹤已經(jīng)在游戲、人機交互、安全工程、遠程呈現(xiàn)以及衛(wèi)生保健等行業(yè)中得到應用。然而,既能識別一般的身體動作,同時又要以滿足實時交互所需的速率在硬件上進行實現(xiàn)的技術(shù)研究目前還遠遠不能滿足需求。隨著微軟Kinect深度攝像機的出現(xiàn),這一工作被大大簡化。面向交互應用,基于

2、深度圖像進行動態(tài)動作識別,最明顯的技術(shù)特點就是識別的高速率,即能夠?qū)崿F(xiàn)實時識別功能,以及識別的精確度。利用深度圖像進行模式識別是近年來興起的技術(shù),這主要得益于深度圖攝像機的成本降低。特別是微軟推出Kinect設備,極大地激發(fā)了研究者們的興趣。與飛行時間技術(shù)(time of flight,TOF)、結(jié)構(gòu)光、三維激光掃描等深度相機相比,Kinect深度相機的優(yōu)勢在于拍攝的深度圖分辨率高,成本低。以往的利用可見光圖像的單目識別常常遭遇光照變化、陰影、物體遮擋以及環(huán)境變化等因素的干擾。利用深度圖像進行模式識別可以很好地克服以上可見光圖像模式識別常遇到的困難。深度圖像中像素的灰度值僅與視場窗口平面到物體

3、表面的距離有關。因此,深度圖像首先具有空間顏色無關性,不會遇到光照、陰影等因素的影響。其次,深度圖像的灰度值與圖像的橫、縱坐標組合在一起,在一定的空間范圍內(nèi),可以用來表示物體在3D空間中的坐標,因此可以等效成在3D空間中進行模式識別。再者,如果利用圖像深度信息進行模式識別,就相當于單目3D空問模式識別,可以克服遮擋或重疊問題。更重要的是,深度圖攝像機的成像原理可以很好地保證相機標定的魯棒性,適應各種環(huán)境變化,使之容易自調(diào)節(jié)重新標定且不需要測量標定物。這樣,系統(tǒng)研發(fā)可以更多關注識別算法本身,而不會過分依賴于標定等前端工作的準確性,極大地簡化了實際應用系統(tǒng)的復雜程度。利用深度圖像進行模式識別是近年

4、來興起的一種方法。一家以色列的公司PrimeSense于2010年4月推出為微軟XBOX專用的三維測量技術(shù)的外部設備Kinect(由動力學“kinetic”與連接“connect”2個詞匯組成的原創(chuàng)混合詞)。該設備使用一種類似結(jié)構(gòu)光而不是向空間發(fā)射特定形狀的技術(shù),叫光編碼(1ight coding)技術(shù),其檢測裝置只需要一塊普通的CMOS芯片,因此成本大大降低,可作為民用化設備。其原理是對三維空間進行縱深標記,標記的信號光源采用的是激光散斑(1aser speckle),當激光照射到粗糙物體或穿透毛玻璃后形成隨機衍射斑點,這些斑點會隨著距離而產(chǎn)生不同的圖案,因此相機拍攝前首先對三維空間進行一次

5、標定。在PrimeSense的專利上標定的方法是:每隔一段距離,取一個參考平面,把參考平面上的散斑圖案記錄下來。當檢測物體時,所拍攝場景的散斑圖像與標定的參考圖像依次計算相關系數(shù),存在物體的位置會出現(xiàn)峰值,將每一層參考平面處的峰值疊加,然后經(jīng)過一些插值計算,就能夠得到整個三維場景形狀了。研究Kinect體感探測器及其應用開發(fā),可以在其深度圖像獲取技術(shù)的基礎上探索新的深度圖像獲取技術(shù)。同時,作為應用最為廣泛的深度探測器,Kinect的應用已經(jīng)被拓展到游戲行業(yè)以外,研究其應用開發(fā)能夠更深層次的探索深度圖像技術(shù)在各個領域中的應用,利用這個平臺創(chuàng)新出更多的技術(shù)。微軟已經(jīng)為Kinect的開發(fā)應用提供了相

6、應的官方開發(fā)工具,Kinect已經(jīng)發(fā)展成一個孕育新的體感技術(shù)的平臺。二、研究目標、研究內(nèi)容和擬解決的關鍵問題(研究目標、主要內(nèi)容及關鍵問題。)(宋體,小四,行間距22磅)研究目標:本次畢業(yè)設計的研究目標主要分為兩個部分。第一,研究Kinect傳感器所利用的深度圖像信息獲取技術(shù),并深度剖析其技術(shù)原理及優(yōu)缺點。第二,在理解Kinect傳感器深度圖像信息獲取技術(shù)的基礎上,繼續(xù)探索它在各個領域的應用。利用Kinect體感技術(shù)開發(fā)新的人體識別應用。在這個過程中追求新技術(shù)應用的創(chuàng)新性和實用性。主要內(nèi)容: 1、通過文獻調(diào)查,實驗等方法了解深度圖像信息獲取技術(shù)的發(fā)展及其應用,深層次的了解Kinect傳感器獲取

7、深度圖像的原理和方法,對于硬件系統(tǒng),要了解Kinect傳感器的硬件組成和原理,對于軟件系統(tǒng),要了解其light coding技術(shù)算法。并在此基礎上探索其實現(xiàn)高速實時深度圖像采集的原理。2、深入學習Kinect開發(fā)技術(shù),深入的學習了解Kinect官方SDK(開發(fā)套件)的使用方法和編程技巧,可以熟練地使用開發(fā)工具根據(jù)開發(fā)思路開發(fā)出相應的Kinect應用,并熟練掌握Kinect應用程序的調(diào)試技術(shù)。3、在熟練掌握Kinect開發(fā)技術(shù)的基礎上,利用Kinect傳感器開發(fā)用戶人體識別系統(tǒng)。將人體從復雜背景中利用深度信息進行分離出來。4、在完成簡單的人體識別程序開發(fā)后,探索更具創(chuàng)新性的Kinect應用,提出

8、相應的開發(fā)思路,完成可行性分析并最終使用Kinect開發(fā)工具開發(fā)出具有創(chuàng)新性和實用性的應用。關鍵問題: 1、在閱讀相關文獻的基礎上,要對Kinect傳感器的工作原理有一個深刻的理解,針對每一個模塊的工作原理深入了解。2、提出Kinect體感技術(shù)具有一定創(chuàng)新性和實用性的應用開發(fā)方案。三、 研究方案(擬采用的研究方法、技術(shù)路線、實驗方案及可行性分析)(宋體,小四,行間距22磅)研究方法:采用目標指向型研究方法,首先充分了解Kinect體感技術(shù)現(xiàn)有的應用領域和技術(shù),并在此基礎上提出一個具有創(chuàng)新性的應用開發(fā)方案,并以此方案為基礎,研究Kinect傳感器在相關領域的應用開發(fā)技術(shù),有側(cè)重的研究相應的程序算

9、法設計思路。技術(shù)路線:Kinect傳感器獲得深度圖像利用深度圖像信息進行人體初步分割與定位根據(jù)人體輪廓信息結(jié)合可見光圖像進行人體與背景的分離,從而識別人體 利用可見光圖像和深度圖像識別人體各部分(例如人臉)根據(jù)人體各部分的實時位置形成相應的指令反饋給計算機計算機根據(jù)反饋的指令進行相應的操作實驗方案: 1、閱讀Kinect開發(fā)包中demo程序的源代碼,并觀察其運行的輸出,掌握對Kinect進行編程的基本技巧和方法。了解并學會使用Kinect的數(shù)據(jù)獲取功能。2、針對人體識別的功能,首先設計一個可以單幀圖像識別人體的算法,利用深度圖像信息結(jié)合可見光圖像進行圖像處理,從而得到所要識別的人體。然后進行人

10、體實時識別與跟蹤。3、以第2步為基礎,開發(fā)更為復雜的人體識別追蹤程序。在深度圖像中通過識別到的人體,進一步的通過人臉識別來進行身份識別。并在此基礎上開發(fā)利用識別到的人體進行人機交互方面的新應用??尚行苑治觯?利用深度信息可以很輕松的將目標從背景中分離出來,獲得目標的輪廓位置信息。并且由于整個算法只是一個深度信息的比較算法,運算量非常小,可以做到實時的識別和追蹤。此外,由于C#語言中有豐富的鼠標和鍵盤虛擬接口函數(shù),所以不需要設計額外的程序接口,人體識別程序的運行結(jié)果可以很方便的導入到其他程序中應用。四、研究工作進度安排 (宋體,小四,行間距22磅)2013.3.15-2013.4.1 文獻閱讀,

11、國內(nèi)外研究現(xiàn)狀調(diào)查,人體身份識別的方案設計2013.4.1-2013.4.15 Kinect for Windows SDK 開發(fā)套件編程方法學習,翻譯英文文獻,深入了解現(xiàn)有應用的技術(shù)細節(jié),完成畢業(yè)設計的開題報告。2013.4.15-2013.5.1 實驗階段,結(jié)合Kinect開發(fā)套件與Kinect傳感器進一步熟悉開發(fā)技術(shù),完成人體識別、分割及跟蹤程序,然后完成人體識別功能,進行中期檢查報告的撰寫。2013.5.1-2013.5.15 完善人體識別程序,提高響應速度和精度。2013.5.15-2013.5.30 在完成人體識別程序的基礎上,提出新的具有創(chuàng)新性的Kinect應用開發(fā)方案,并完成相應的編程開發(fā)和測試工作。2013.6.1-2013.6.15 總結(jié)整個畢業(yè)設計,撰寫畢業(yè)設計論文。五、參考文獻 (宋體,小四,行間距22磅)【1】Kinect應用開發(fā)實戰(zhàn)-用最自然的方式與機器對話 余濤 機械工業(yè)出版社 2012【2】Kinect深度信息的研究及其在檢測中的應用 魏琳、黃鑫材 杭州電子科技大學學報第33卷第5期 2013.10【3】Greg Borenstein.Making Things See:3D vision with Kinect, Processing, Arduino, and MakerbotM.Make: Books,2012.【4】Human Detect

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論