3D掃描世界蓄勢待發(fā)_第1頁
3D掃描世界蓄勢待發(fā)_第2頁
3D掃描世界蓄勢待發(fā)_第3頁
3D掃描世界蓄勢待發(fā)_第4頁
全文預(yù)覽已結(jié)束

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

精品文檔-下載后可編輯D掃描世界蓄勢待發(fā)當(dāng)年微軟開發(fā)Kinect3D傳感器的時(shí)候,其中一個(gè)關(guān)鍵性的任務(wù)就是校準(zhǔn)算法,以便迅速、準(zhǔn)確地識(shí)別人體各部位,尤其是手部,以確保Kinect適用于任何家庭環(huán)境,任何年齡的人群,任何穿著和任何背景物。使用基于計(jì)算機(jī)的方法做校準(zhǔn)具有其局限性,原因在于在Kinect生成的圖像中電腦可能無法識(shí)別手部,或錯(cuò)誤地識(shí)別了手部的存在。因此,微軟此前宣布要向全人類求助,借助亞馬遜的土耳其機(jī)器人完成圖像標(biāo)記識(shí)別。這是一個(gè)在線的服務(wù),公眾通過執(zhí)行簡單但計(jì)算機(jī)不擅長的任務(wù)而獲得報(bào)酬。結(jié)果,Kinect現(xiàn)在能識(shí)別所有(或大多數(shù))樣子的手。這實(shí)在太棒了!

當(dāng)然,如果你唯一關(guān)心的只是基于手部動(dòng)作的游戲,你會(huì)認(rèn)為這是一個(gè)天大的好消息,但是從商業(yè)機(jī)器人角度看,手部只是我們需要機(jī)器識(shí)別的成千上萬的“東西”之一。試想一下,如果一個(gè)機(jī)器人能迅速地識(shí)別家里、辦公室或工廠里的任何對象:機(jī)器人看到或接觸的任何東西都能被馬上識(shí)別出來。這才是個(gè)真正偉大的進(jìn)步。

所以問題是:我們能不能實(shí)現(xiàn)這一目標(biāo)?我們可以用某種方式自動(dòng)識(shí)別或依靠公眾識(shí)別一切潛在的對象嗎?

這種類型的數(shù)據(jù)收集涉及到一個(gè)先有雞還是先有蛋的問題:如果你有一個(gè)對象均被恰當(dāng)標(biāo)記的數(shù)據(jù)庫,基于存儲(chǔ)在數(shù)據(jù)庫的“知識(shí)系統(tǒng)”,你便可以開始構(gòu)建各類應(yīng)用程序,而這些應(yīng)用程序反過來又可以生成更多的數(shù)據(jù),讓你進(jìn)一步完善數(shù)據(jù)庫的“知識(shí)系統(tǒng)”。問題是,你第一步需要一個(gè)數(shù)據(jù)庫!有時(shí)候,企業(yè)會(huì)認(rèn)為建立這套數(shù)據(jù)庫是很有價(jià)值的。比如Kinect之于微軟。另一個(gè)例子是谷歌的“語音指令”,通過語音讓系統(tǒng)執(zhí)行搜索、發(fā)電子郵件以及其他任務(wù)。每次你說出一個(gè)詞,你的Android手機(jī)就會(huì)問:“你的意思是……嗎?”然后提供一個(gè)字詞列表供你選擇想要表達(dá)的意思,在這個(gè)過程中,你幫助完善了谷歌得語音識(shí)別系統(tǒng)。隨著時(shí)間的推移,不同人講話模式的變化和細(xì)節(jié)都會(huì)作為語音數(shù)據(jù)被捕獲,使數(shù)據(jù)庫更貼近實(shí)際的語言使用習(xí)慣。沒有這種持續(xù)改進(jìn),語音到文本將永遠(yuǎn)不會(huì)成為一個(gè)智能便利的應(yīng)用。

現(xiàn)在回到機(jī)器人技術(shù)的問題上。我認(rèn)為機(jī)器人研究團(tuán)體應(yīng)更加關(guān)注數(shù)據(jù)的重要性。機(jī)器人技術(shù)涉及的很多東西都需要一個(gè)大規(guī)模的數(shù)據(jù)庫(需要強(qiáng)調(diào)大規(guī)模),以實(shí)現(xiàn)技術(shù)上的可行性(譬如對象識(shí)別),因此這項(xiàng)功能不能依賴純理論研究、機(jī)器人專家或算法,而必須掌握“切向技術(shù)”的市場趨勢,例如網(wǎng)絡(luò)或智能手機(jī)。因此,為了讓機(jī)器人技術(shù)能有實(shí)現(xiàn)的一天,我們需要關(guān)注具有收集海量數(shù)據(jù)能力的技術(shù),為了機(jī)器人技術(shù)以外的需求,也為了在技術(shù)成熟的時(shí)候把它應(yīng)用在機(jī)器人技術(shù)上。

其實(shí),我們最需要的數(shù)據(jù)類型是3D數(shù)據(jù)。那么,我們該如何收集每一個(gè)潛在對象的3D數(shù)據(jù)呢?幸運(yùn)的是,一個(gè)大規(guī)模的關(guān)于Kinect感應(yīng)器的駭客社區(qū),以及像MatterPort這樣的創(chuàng)業(yè)公司正在實(shí)現(xiàn)快速3D渲染技術(shù),只需要使用Kinect從幾個(gè)角度拍攝對象不同的圖像就可以實(shí)現(xiàn)。這項(xiàng)技術(shù)現(xiàn)在還不成熟,不過隨著傳感器和算法的改進(jìn),你能預(yù)見用3D技術(shù)再現(xiàn)一個(gè)場景就會(huì)像拍一張照片般容易。其他能夠同時(shí)補(bǔ)抓光的強(qiáng)度和角度、允許用戶在已經(jīng)拍好的照片重新調(diào)焦的技術(shù),如Lytro和其他“計(jì)算機(jī)攝像頭”,同樣可以實(shí)現(xiàn)3D圖像的生成。

正如我在上文提到,機(jī)器人專家不可能單獨(dú)完成所有的3D掃描。我們希望其他技術(shù)能推動(dòng)這一趨勢的發(fā)展。因此,這里是一個(gè)想法。如果在線零售商看到通過展示商品細(xì)致3D模型帶動(dòng)銷售的商業(yè)價(jià)值(而不是過去我們在網(wǎng)站看到的二維圖像),并為圖像標(biāo)記諸如顏色、重量、功能的描述,那么成千上萬的物品原則上都能被機(jī)器搜索。Google在2022年的IEEE機(jī)器人與仿生學(xué)國際會(huì)議上提出過一個(gè)相似的想法,并在去年五月的GoogleI/O開發(fā)者大會(huì)重申了這個(gè)見解。也許不僅網(wǎng)絡(luò)零售商能供應(yīng)3D掃描,消費(fèi)者也可以,只要他們意識(shí)到在eBay上傳3D圖像進(jìn)行銷售是更有效的生財(cái)之道。

如果這種情況成為現(xiàn)實(shí),那么所有的3D圖像將可以聚合成一個(gè)的數(shù)據(jù)庫,讓機(jī)器人可以便捷地使用它作為參考。一個(gè)機(jī)器人將收集眼前一個(gè)物體的3D傳感數(shù)據(jù),然后與參考圖像進(jìn)行匹配。隨著時(shí)間的推移和反饋數(shù)據(jù)(譬如“是的,羅西,這是一個(gè)盤子”)的累積,機(jī)器人的目標(biāo)識(shí)別能力將不斷提高。

所以,如果你想要更智能的機(jī)器人,你應(yīng)該開始要求

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論