田皓洋-工程倫理_第1頁(yè)
田皓洋-工程倫理_第2頁(yè)
田皓洋-工程倫理_第3頁(yè)
田皓洋-工程倫理_第4頁(yè)
田皓洋-工程倫理_第5頁(yè)
全文預(yù)覽已結(jié)束

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、精選優(yōu)質(zhì)文檔-傾情為你奉上關(guān)于“美國(guó)Uber汽車無(wú)人駕駛撞死行人”的案例分析姓名:田皓洋學(xué)號(hào):8學(xué)院:航空航天學(xué)院專業(yè):電子與通信工程 小組:周三34節(jié)第10組內(nèi)容提要:本文以美國(guó)Uber汽車無(wú)人駕駛撞死行人”為案例,分析了uber汽車無(wú)人駕駛造成交通意外,使無(wú)人駕駛技術(shù)的安全性受到大家的質(zhì)疑,以及對(duì)于發(fā)生交通意外的責(zé)任判定產(chǎn)生了分歧。關(guān)鍵詞:uber,無(wú)人駕駛汽車,安全一、案例介紹近幾年,無(wú)人駕駛汽車從概念成為了現(xiàn)實(shí)。車企、互聯(lián)網(wǎng)企業(yè)紛紛涌入這個(gè)全新領(lǐng)域。各種品牌的無(wú)人駕駛汽車宣傳片都顯示,無(wú)人駕駛解放了駕駛員的雙手,你可以玩手機(jī),一遍觀賞沿途風(fēng)景、或者小睡一覺(jué),總之,很安全。但是美國(guó)東部時(shí)

2、間3月19日晚間10時(shí)許(北京時(shí)間3月20日),一輛Uber自動(dòng)駕駛車在亞利桑那州坦貝市(Tempe)向北行進(jìn)時(shí),以65公里的時(shí)速撞上了當(dāng)時(shí)一位推著自行車、穿越斑馬線的49歲女子,致其身亡。事發(fā)時(shí),雖有駕駛者在車上,但車輛以自動(dòng)駕駛模式行進(jìn)。事后的現(xiàn)場(chǎng)畫(huà)面顯示,除了女子的自行車遭撞變形外,Uber進(jìn)行自動(dòng)駕駛路測(cè)的沃爾沃XC90車頭也被撞。據(jù)悉,這是全球首起涉及自動(dòng)駕駛汽車路測(cè)撞死行人的交通事故。據(jù)警方介紹,晚上10點(diǎn)左右,49歲的受害者伊萊恩赫茨伯格(Elaine Herzberg)在位于菲尼克斯市郊區(qū)坦貝市的一條四車道公路上行走,途中被一輛Uber無(wú)人駕駛測(cè)試車撞倒,后來(lái)在醫(yī)院因傷勢(shì)過(guò)重而

3、死亡。二、案例分析1.案例所需要的相關(guān)理論1) 無(wú)人駕駛汽車無(wú)人駕駛汽車是通過(guò)車載傳感系統(tǒng)感知道路環(huán)境,自動(dòng)規(guī)劃行車路線并控制車輛到達(dá)預(yù)定目標(biāo)的。它是利用車載傳感器來(lái)感知車輛周圍環(huán)境,并根據(jù)感知所獲得的道路、車輛位置和障礙物信息,控制車輛的轉(zhuǎn)向和速度,從而使車輛能夠安全、可靠地在道路上行駛。集自動(dòng)控制、體系結(jié)構(gòu)、人工智能、視覺(jué)計(jì)算等眾多技術(shù)于一體,是計(jì)算機(jī)科學(xué)、模式識(shí)別和智能控制技術(shù)高度發(fā)展的產(chǎn)物,也是衡量一個(gè)國(guó)家科研實(shí)力和工業(yè)水平的一個(gè)重要標(biāo)志,在國(guó)防和國(guó)民經(jīng)濟(jì)領(lǐng)域具有廣闊的應(yīng)用前景2) 無(wú)人駕駛技術(shù)的運(yùn)用谷歌是最有可能掃除當(dāng)前所有短期障礙并將成千上萬(wàn)輛無(wú)人駕駛車帶到公路的公司。谷歌公司有一

4、個(gè)傳統(tǒng):讓自己的員工率先去體驗(yàn)公司研發(fā)的新科技和新產(chǎn)品,谷歌將之美名其曰:Eating your own dog food(吃你自家的狗糧)。無(wú)人駕駛車已經(jīng)獲得了加利福尼亞州立法獲批,谷歌可能會(huì)在該州部署數(shù)百輛無(wú)人駕駛車,用來(lái)接送公司員工上下班。2.案例中涉及的倫理問(wèn)題1)無(wú)人駕駛汽車造成交通事故以后的責(zé)任追究;2)在駕駛過(guò)程中遇到安全問(wèn)題的選擇;3)在使用無(wú)人駕駛的過(guò)程中將安全問(wèn)題交給機(jī)器來(lái)保證是否合理。3.分析案例中倫理責(zé)任主體或利益攸關(guān)方涉及多方利益,包括uber、沃爾沃、政府、生產(chǎn)廠家等。4.應(yīng)對(duì)涉及倫理問(wèn)題的原則和思路1)現(xiàn)有法律中為涉及無(wú)人駕駛造成交通事故的責(zé)任追究問(wèn)題如果我們希望

5、讓機(jī)器人為我們做更多的事情,例如當(dāng)我們的全職司機(jī)或給我們運(yùn)送貨物,那么我們可能就需要賦予他們法律主體資格。機(jī)器人畢竟并不是人,賦予其法律主體資格不符合社會(huì)常理。但是,法律主體資格的概念說(shuō)的并不是誰(shuí)是或不是活生生的人以及誰(shuí)能或不能被訴諸公堂?!叭绻覀儗?duì)待機(jī)器人就像對(duì)待真人一樣,那么法律就應(yīng)該認(rèn)可我們與機(jī)器人之間的互動(dòng)等同于我們與真人之間的互動(dòng)?!表f弗寫(xiě)道,“有時(shí)候,這要求我們承認(rèn):機(jī)器人是可接受保險(xiǎn)的實(shí)體,就像真人或企業(yè)一樣;而且,機(jī)器人的責(zé)任是獨(dú)立的?!标P(guān)鍵的問(wèn)題是:如果我們不將機(jī)器人定義為負(fù)有某種和義務(wù)的實(shí)體,那么我們將很難有效地驅(qū)使它們。現(xiàn)在,像谷歌(微博)這樣打造無(wú)人駕駛汽車的公司,面

6、臨的處境就非常耐人尋味。假設(shè)谷歌賣(mài)了一倆無(wú)人駕駛汽車給你,然后它出了車禍。那么,誰(shuí)該為此事故造成的損失負(fù)責(zé)呢?是你?還是谷歌?驅(qū)動(dòng)汽車的算法、感應(yīng)器以及所有控制系統(tǒng),均是谷歌設(shè)計(jì)和研制的。就連谷歌內(nèi)部員工也認(rèn)為,損失賠償責(zé)任不應(yīng)由車主承擔(dān),而應(yīng)由谷歌負(fù)責(zé)。2)在無(wú)人駕駛工程中遇到安全問(wèn)題的選擇曾有論者設(shè)想過(guò)這樣的場(chǎng)景:想象你的自動(dòng)駕駛汽車停在路口等待前面的行人過(guò)馬路,這時(shí)候,你的車子發(fā)現(xiàn)后面有另一輛卡車沖過(guò)來(lái),看起來(lái)無(wú)可避免地要發(fā)生追尾事故了,但是你坐在前排座位上,這樣的事故只會(huì)給你帶來(lái)一點(diǎn)小傷至少不會(huì)致命。如果你的汽車具備規(guī)避程序,就可以立馬躲開(kāi),移到旁邊的車道去,而卡車就會(huì)沖進(jìn)路口,碾壓行

7、人。這種情況下,無(wú)人駕駛汽車事前設(shè)定的“規(guī)避”程序,是善還是惡的?在“電車難題”被提出的上個(gè)世紀(jì)六十年代,手握操縱桿的是“人”,但現(xiàn)在,面臨拷問(wèn)的是人工智能。要作答其實(shí)更為艱難。因?yàn)槿说牡赖逻x擇多樣,倫理學(xué)各個(gè)流派產(chǎn)生了各種各樣的回答,比如,功利主義者可能認(rèn)為犧牲一個(gè)人比犧牲五個(gè)人更為道德;自由主義者可能認(rèn)為每個(gè)生命的主體權(quán)利是平等的,為了五個(gè)人犧牲一個(gè)人同樣是“惡”;而情感主義者則認(rèn)為道德沒(méi)有客觀性,怎么選擇取決于個(gè)人情感的表達(dá)。但問(wèn)題是,在這種情境下設(shè)計(jì)無(wú)人駕駛汽車的程序,不啻于要完成人類集體作答,并形成統(tǒng)一的答案,這在哲學(xué)意義上是不可能完成的任務(wù)。此次Uber無(wú)人車撞死行人的事故,雖然不

8、牽涉復(fù)雜的情境,但仍然會(huì)引發(fā)和以往種種討論的共振,引發(fā)“人工智能將怎樣做出倫理選擇”的不安。美國(guó)警方公布的情況,潛在將問(wèn)題指向了測(cè)試人員的開(kāi)小差,顯示“坐在駕駛座上的測(cè)試安全員并沒(méi)有密切關(guān)注著道路狀況”、“當(dāng)車輛撞上行人的一刻,安全員才突然發(fā)現(xiàn)狀況”,這是事實(shí)陳述,但也是將機(jī)器的問(wèn)題重新歸為具體的人的問(wèn)題。具體的人在法律和道德上承擔(dān)結(jié)果是容易的、能操作的,難的是人類發(fā)明的技術(shù)如何嵌入人類生活的倫理。三、案例總結(jié)進(jìn)過(guò)本文的分析,基于下述原因,無(wú)人駕駛技術(shù)有待加強(qiáng)。1. 技術(shù)上的漏洞 無(wú)人駕駛技術(shù)作為一向新興的科技在他的出發(fā)電考慮他是一向非常便民的科技,但是因?yàn)樯婕暗饺松戆踩珕?wèn)題,所以在無(wú)人駕駛技

9、術(shù)的使用上我們需要更加的小心,不能夠有一點(diǎn)的差錯(cuò),本次事故就是因?yàn)榧夹g(shù)的不成熟造成了重大的交通事故,所以在此技術(shù)未成熟之前并不能夠投入使用。2. 沒(méi)有相關(guān)法律來(lái)約束這次事故發(fā)生以后,責(zé)任的追究顯得特別乏力,就是因?yàn)橄嚓P(guān)的政府沒(méi)有一個(gè)相關(guān)的法律來(lái)討論責(zé)任的追究,所以我認(rèn)為我們需要制定一套完善的法律來(lái)判定出現(xiàn)事故之后的責(zé)任追究,這樣也給廣大無(wú)人駕駛技術(shù)的技術(shù)人員一個(gè)警鐘,讓技術(shù)人員在測(cè)試的過(guò)程中更加的重視。3. 實(shí)際操縱和測(cè)試選擇簡(jiǎn)單來(lái)說(shuō)就是工程倫理的選擇自動(dòng)駕駛汽車停在路口等待前面的行人過(guò)馬路,這時(shí)候,你的車子發(fā)現(xiàn)后面有另一輛卡車沖過(guò)來(lái),看起來(lái)無(wú)可避免地要發(fā)生追尾事故了,但是你坐在前排座位上,這樣的事故只會(huì)給你帶來(lái)一點(diǎn)小傷至少不會(huì)致命。如果你的汽車具備規(guī)避程序,就可以立馬躲開(kāi),移到旁邊的車道去,而卡車就會(huì)沖進(jìn)路口,碾壓行人這種情況下,無(wú)人駕駛汽車事前設(shè)定的“規(guī)避”程序,是善還是惡的?在這種情境下設(shè)計(jì)無(wú)人駕駛汽車的程序,不啻于要完成人類集體作答,并形成統(tǒng)一的答案,這在哲學(xué)意義上是不可能完成的任務(wù)。上述背景產(chǎn)生了吊詭的結(jié)果,那就是,人撞死人反而是可理解的,而機(jī)器撞死人是不能接受的因?yàn)椤皺C(jī)器”是按照人類倫理規(guī)則事先設(shè)定程序的,程序不周或有所選擇,都可能被指責(zé)為有意的“惡”。所以如何保證人類生活的倫理還需要有待商榷。4. 對(duì)安全問(wèn)題的忽視將會(huì)造成更多的安全事故很明顯無(wú)人駕駛技術(shù)是一向

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論