基于加速度傳感器的人體行為識(shí)別系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)_第1頁(yè)
基于加速度傳感器的人體行為識(shí)別系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)_第2頁(yè)
基于加速度傳感器的人體行為識(shí)別系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)_第3頁(yè)
全文預(yù)覽已結(jié)束

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、基于加速度傳感器的人體行為識(shí)別系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)在物聯(lián)網(wǎng)高速開(kāi)展的時(shí)代,智慧醫(yī)療的應(yīng)用越來(lái)越廣泛,因此,人體行為識(shí)別就變得越來(lái)越重要,成了目前眾多研究中必不可少的課題。人體行為識(shí)別有基于視覺(jué)的和基于傳感器的兩個(gè)方向。本文中研究的基于加速度傳感器的人體行為識(shí)別方法屬于后者,是人體行為識(shí)別研究中重要的一部分。相比較基于視覺(jué)的人體行為識(shí)別,基于傳感器的行為識(shí)別方法具有人性化、獲取數(shù)據(jù)自由等優(yōu)點(diǎn)。行為識(shí)別的描繪方法有3種,分別是基于模板匹配、統(tǒng)計(jì)形式識(shí)別和基于語(yǔ)義描繪。最早期的人體行為識(shí)別方法是基于模板匹配方法,該方法常用的動(dòng)態(tài)時(shí)間規(guī)整算法(DTW)已經(jīng)應(yīng)用于步態(tài)識(shí)別。然而,統(tǒng)計(jì)形式識(shí)別方法與基于模版匹

2、配方法相比,具有更高的識(shí)別精度,所以統(tǒng)計(jì)形式識(shí)別方法是基于加速度傳感器的人體行為識(shí)別的常用識(shí)別方法。統(tǒng)計(jì)形式識(shí)別中常用的統(tǒng)計(jì)識(shí)別方法分別為:決策樹(shù)、K 近鄰、貝葉斯、SVM、神經(jīng)網(wǎng)絡(luò)和隱馬爾科夫模型(HMM)等,隱馬爾科夫模型已經(jīng)在文獻(xiàn)4中應(yīng)用于長(zhǎng)期行為識(shí)別,文獻(xiàn)5中 SVM 算法對(duì)人體行為識(shí)別的研究。目前加速度傳感器已經(jīng)被應(yīng)用于各個(gè)領(lǐng)域中,本文所闡述的基于加速度傳感器的人體行為識(shí)別系統(tǒng)是通過(guò)對(duì)加速度信號(hào)進(jìn)展處理和信號(hào)特征提取來(lái)獲得特征矩陣,通過(guò)分析設(shè)計(jì)出分類(lèi)器,從而將站立、行走、跑步、上樓、下樓這5種行為有效地進(jìn)展識(shí)別。1 信號(hào)采集要通過(guò)加速度的變化來(lái)識(shí)別人體當(dāng)前的行為,就必須有一套成熟的系

3、統(tǒng)和方法來(lái)獲取人在運(yùn)動(dòng)時(shí)的詳細(xì)數(shù)據(jù)變化情況。而這樣的系統(tǒng)應(yīng)該具備以下要求:受環(huán)境干擾較小,耐用性強(qiáng);采樣頻率足夠高;設(shè)備體積小,便于攜帶;可以做到實(shí)時(shí)傳輸采集到的數(shù)據(jù);設(shè)備功耗足夠低等。2 特征提取特征提取是指在加速度信號(hào)中通過(guò)信號(hào)處理挖掘出一些反響人體運(yùn)動(dòng)狀態(tài)的信息。特征提取將信號(hào)采集與行為分類(lèi)連接起來(lái),是人體運(yùn)動(dòng)狀態(tài)識(shí)別中的關(guān)鍵?;诮陙?lái)對(duì)于人體運(yùn)動(dòng)識(shí)別系統(tǒng)中信號(hào)特征的統(tǒng)計(jì)分析我們可以將加速度特征提取的方法歸納為時(shí)域分析法、頻域分析法和時(shí)頻分析法 3 類(lèi)。時(shí)域分析法是指從采集到的時(shí)域加速度數(shù)據(jù)中直接提取特征矢量。常用的時(shí)域特征有均值、方差或標(biāo)準(zhǔn)差、兩軸相關(guān)系數(shù)等。3 分類(lèi)方法如今的研究中

4、有很多關(guān)于人體行為識(shí)別的方法,實(shí)際上在研究的試驗(yàn)中用到的有基于模板匹配的MEI、MHI、二維網(wǎng)絡(luò)和 DTW,以及基于狀態(tài)空間的隱馬爾科夫及其改進(jìn)模型、動(dòng)態(tài)貝葉斯網(wǎng)絡(luò)、人工神經(jīng)網(wǎng)絡(luò)以及支持向量機(jī)。4 總結(jié)與展望隨著科技的開(kāi)展,加速度傳感器已經(jīng)具有體積小、質(zhì)量輕、功耗小、本錢(qián)低、可靠性高等特點(diǎn)。但還是有些需要解決的問(wèn)題,例如:有些傳感器需要固定在人體上,會(huì)給人的行動(dòng)造成不便;實(shí)驗(yàn)數(shù)據(jù)并不完全是人的自然活動(dòng);系統(tǒng)可以識(shí)別的動(dòng)作有限;基于加速度傳感器的算法穩(wěn)定性不夠高等。目前基于加速度傳感器的人體行為識(shí)別的研究還不成熟,無(wú)論是硬件設(shè)備,還是算法都會(huì)有很大的開(kāi)展空間,所以在這個(gè)方面的研究會(huì)有更加廣闊的將來(lái)。例如:信號(hào)采集的傳感器可以是組合傳感器,這樣可以進(jìn)步算法的穩(wěn)定性和廣泛性;特征提取和行為分類(lèi)的算法還可以進(jìn)步;還有就是把加速度的研究領(lǐng)域拓寬,盡

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論