版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)
文檔簡介
智能機器人技術(shù)與應(yīng)用“十四五”職業(yè)教育人工智能技術(shù)應(yīng)用專業(yè)系列教材第14課機器人安全與法律231知識目標(1)熟悉與機器人相關(guān)的安全問題。(2)熟悉機器人倫理基礎(chǔ)知識。(3)熟悉人工智能與機器人面臨的法律問題。能力目標(1)掌握專業(yè)知識的學習方法,培養(yǎng)閱讀、思考與研究的能力。(2)積極參加“研究性學習小組”活動,提高組織和活動能力,具備團隊精神。素質(zhì)目標(1)熱愛學習,掌握學習方法,提高學習能力。(2)熱愛讀書,善于分析,勤于思考,培養(yǎng)關(guān)心機器人的社會進步。(3)體驗、積累和提高“大國工匠”的專業(yè)素質(zhì)。學習目標
愿景
體驗
創(chuàng)意
實踐重點難點(1)熟悉機器人倫理社會基礎(chǔ)。(2)熟悉人工智能與機器人的法律問題。目錄與機器人相關(guān)的安全01機器人的倫理基礎(chǔ)02人工智能面臨的法律問題03機器人的發(fā)展方向04第14課機器人安全與法律自動化技術(shù)的快速進步,例如固定機器人、協(xié)作和移動機器人、動力外骨骼和自主車輛等,可以改善工作條件,但也可能在制造工作場所引入了工作場所危害。危險源在特定的機器人系統(tǒng)中往往各不相同,危險的數(shù)量和類型與自動化過程的性質(zhì)和裝備的復雜性直接有關(guān)。與危險相關(guān)的風險隨著所用機器人的類型及其應(yīng)用、安裝、編程、操作和維護方式而變化。與機器人相關(guān)的安全0101
與機器人相關(guān)的安全與機器人相關(guān)的事故多數(shù)發(fā)生在維修期間,即工人們不得不進入圍欄內(nèi)進行單元測試和故障查找時,實際上這些悲劇都是可以避免的。與傳統(tǒng)工業(yè)機器人相比,協(xié)作機器人不依賴籠子進行簡單隔離這一安全措施,而是使用力反饋和力傳感器以及3D攝像機和激光雷達等來實現(xiàn)與人類的安全互動。同時,協(xié)作機器人擁有輕量的機械
臂和末端執(zhí)行器,以減少人們在與機器人接觸時
受到嚴重傷害的風險。
圖14-11機器人工作環(huán)境機器人安全性能機器人行業(yè)安全規(guī)范系統(tǒng)性安全守則01
與機器人相關(guān)的安全01
與機器人相關(guān)的安全14.1.1機器人安全性能產(chǎn)品的總體安全性評價指標包括產(chǎn)品本身的安全等級、環(huán)境的限制條件以及人們對安全性的期望水平。同理,機器人自身通過了什么等級的安全認證,使用者是否按照規(guī)范操作,人們是否充分認識并接受機器人的危險性,都是評價一個機器人系統(tǒng)是否安全時需要考慮的重要因素。(1)各種機器人通常都配備有各自的安全技術(shù),但其安全功能本身還比較初級,例如將物理的圍欄換成了虛擬圍欄、檢測到有人靠近時自動停止,還不能算是完整的協(xié)作安全技術(shù)。(2)通過ISO/TS15066認證的成本太高,從市場的逐利性來看不劃算。因此,除了歐美等大公司對安全性有硬性要求外,其他機器人企業(yè)并不很重視。(3)國內(nèi)一般更注重機器人的功能性,而對于機器人的安全性能不太重視,即使機器人具備碰撞檢測功能,那也只算錦上添花而已。01
與機器人相關(guān)的安全(4)機器人的安全性不高還在于“人”的問題。一些中小型企業(yè)管理者的自我保護意識偏弱,機器人領(lǐng)域的安全管理人才較少等。多重因素之下,導致國內(nèi)協(xié)作機器人在安全性技術(shù)上比較缺乏,鮮見通過安全認證的工業(yè)機器人。01
與機器人相關(guān)的安全14.1.2機器人行業(yè)安全規(guī)范在市場上銷售的機器人除了必須遵守一般的設(shè)計與安全規(guī)范外,涉及機器人行業(yè)的安全規(guī)范主要有以下幾項:(1)國際電工委員會(IEC)的IEC61508標準《電氣/電子/可編程電子安全系統(tǒng)的功能安全》是工業(yè)安全領(lǐng)域的通用標準,既可以用作編寫細分領(lǐng)域安全標準的基礎(chǔ),也可以在沒有專用安全標準的領(lǐng)域中直接應(yīng)用。(2)IEC60204-1《機械安全機器電氣設(shè)備第1部分一般要求》
提出了安全停止的三大類別。01
與機器人相關(guān)的安全(3)IEC61800-5-2,對應(yīng)的中國國家標準為GB/T12668.5.2《可調(diào)速的電動設(shè)備標準.第5-2部分:功能安全要求》。該標準主要針對安全編碼器、安全伺服驅(qū)動器(STO、SOS、SLS、SBC、SafetyStop1/2等功能)、伺服電機等系統(tǒng)提出了功能安全要求。(4)國際標準化組織ISO公布的ISO10218《工業(yè)機器人安全要求》,規(guī)定了機器人在設(shè)計和制造時應(yīng)遵循的安全原則;ISO10218-2規(guī)定了在機器人集成應(yīng)用、安裝、功能測試、編程、操作、維護以及維修時,對人身安全的防護原則。01
與機器人相關(guān)的安全(5)ISO發(fā)布的ISO/TS15066《在操作人員與機器人協(xié)作工作時,如何確保操作人員安全的技術(shù)指南》是專門針對協(xié)作機器人編寫的安全規(guī)范,同時也是ISO10218-1和ISO10218-2關(guān)于協(xié)作機器人操作內(nèi)容的補充。ISO/TS15066也可以作為機器人系統(tǒng)集成商在安裝協(xié)作型機器人時做“風險評估”的指導性和綜合性文件,它為機器人行業(yè)解答了以下幾個問題,包括如何定義人機協(xié)作行為;如何量化機器人可能對人造成的傷害;在以上基礎(chǔ)上,對協(xié)作機器人的設(shè)計有什么要求等。01
與機器人相關(guān)的安全14.1.3系統(tǒng)性安全守則由于機器人系統(tǒng)復雜而且危險性大,對機器人進行的任何操作都必須注意安全。無論什么時候進入機器人的工作范圍,都可能導致嚴重的傷害。因此,只有經(jīng)過培訓認證的人員才可以進入機器人的工作區(qū)域。為保證工業(yè)機器人在運用過程中的安全性,保證操作人員安全,需要注意例如:(1)萬一發(fā)生火災(zāi),應(yīng)使用二氧化碳滅火器。(2)急停開關(guān)(E-Stop)不允許被短接。01
與機器人相關(guān)的安全(3)機器人處于自動模式時,任何人員都不允許進入其運動所及的區(qū)域。
圖14-12機器人工作安全區(qū)域01
與機器人相關(guān)的安全(4)任何情況下都不要使用機器人原始啟動盤,而是使用其復制盤。(5)停機時,機器人的夾具上不應(yīng)置物,必須空機。(6)在發(fā)生意外或運行不正常等情況下,機器人均可使用E-Stop鍵以停止運行。(7)在自動狀態(tài)下,機器人即使運行速度非常低其動量仍很大,所以在進行編程、測試及維修等工作時,必須將機器人置于手動模式。(8)氣路系統(tǒng)中的壓力可達0.6MPa,任何相關(guān)檢修都要切斷氣源。(9)在手動模式下調(diào)試機器人,如果不需要移動機器人時,必須及時釋放使能器(負責控制信號的輸入和輸出叫做使能)。(10)調(diào)試人員進入機器人工作區(qū)域時,必須隨身攜帶示教器,以防被他人誤操作。(11)在得到停電通知時,要預(yù)先關(guān)斷機器人的主電源及氣源。01
與機器人相關(guān)的安全(12)突然停電后,要在來電之前先關(guān)閉機器人的主電源開關(guān),并及時取下夾具上的工件。(13)維修人員必須保管好機器人鑰匙,嚴禁非授權(quán)人員在手動模式下進入機器人軟件系統(tǒng),隨意翻閱或修改程序及參數(shù)。(14)在《用戶指南》中,關(guān)于安全這一章節(jié)中對安全事項要有詳細說明。機器人的倫理基礎(chǔ)0202
機器人的倫理基礎(chǔ)所謂“倫理”,其意思是人倫道德之理,是指在處理人與人、人與社會、人與自然相互關(guān)系時應(yīng)遵循的各種道理和道德準則,是一系列指導行為的觀念,也是從概念角度上對道德現(xiàn)象的哲學思考。例如“天地君親師”為五天倫,又如君臣、父子、兄弟、夫妻、朋友為五人倫。忠、孝、悌(敬愛兄長)、忍、信是處理人倫的規(guī)則??萍紓惱硎抢硇缘漠a(chǎn)物科技倫理的預(yù)見性和探索性人工智能倫理的發(fā)展02
機器人的倫理基礎(chǔ)02
機器人的倫理基礎(chǔ)14.2.1科技倫理是理性的產(chǎn)物2019年7月24日,中央全面深化改革委員會第九次會議審議通過了諸多重要文件,其中《國家科技倫理委員會組建方案》排在首位通過,這表明中央將科技倫理建設(shè)作為推進國家科技創(chuàng)新體系不可或缺的重要組成部分。組建國家科技倫理委員會的要旨在于,抓緊完善制度規(guī)范,健全治理機制,強化倫理監(jiān)管,細化相關(guān)法律法規(guī)和倫理審查規(guī)則,規(guī)范各類科學研究活動??萍紓惱硎强萍紕?chuàng)新和科研活動中人與社會、人與自然以及人與人關(guān)系的思想與行為準則,它
不只是涉及科學研究中的倫理,也不只是科研人員要遵守科技倫理,還包括科技成果應(yīng)
用中的倫理。例如,手機App下載的同意條款和醫(yī)院治病時的知情同意等。如果把人類
文明的演化當作一個永無止境的征程,人類奔向更高文明的原動力就是科技和創(chuàng)新。但
是,僅有動力還不夠,還必須能識別方向,科技倫理就是指引科技造福人類的導航儀。02
機器人的倫理基礎(chǔ)科技倫理是理性的產(chǎn)物。最根本的理性是,要求科技創(chuàng)新和成果只能有益于或最大限度地有益于人、生物和環(huán)境,而不能損傷人、損害生物和破壞環(huán)境,即便不可避免地會不同程度地損人毀物——如藥物的副作用,也要把這種副作用減少到最低,甚至為零。在具體的倫理規(guī)則上,還應(yīng)兩利相權(quán)取其大、兩害相衡擇其輕。02
機器人的倫理基礎(chǔ)14.2.2科技倫理的預(yù)見性和探索性提出和遵循科技倫理不僅有益于人類,也有利于生態(tài)和環(huán)境。盡管人是理性的,并因此誕生了科技倫理,但人類也有一些非理性思維和行動,因此在歷史上產(chǎn)生了一些違背科技倫理的非理性行為,甚至是獸性和反人類的行為。在今天,這樣的危險并未消除。02
機器人的倫理基礎(chǔ)第二次世界大戰(zhàn)時期,納粹德軍和日軍用活人(俘虜)做試驗,既違背了科技倫理,更犯下了殘害人類和反人類的罪行(見圖14-14)。盡管人體活體試驗獲得了一些科學數(shù)據(jù)和原理,但建立在傷害人、毀滅生命之上的科學研究是絕對不能為人類社會所接受的。因此,二戰(zhàn)后的紐倫堡審判產(chǎn)生了《紐倫堡法典》(1946年),1975年第29屆世界醫(yī)學大會又修訂了《赫爾辛基宣言》以完善和補充《紐倫堡法典》,1982年世界衛(wèi)生組織(WHO)和國際醫(yī)學科學組織理事會(CIOMS)聯(lián)合發(fā)表《人體生物醫(yī)學研究國際指南》,對《赫爾辛基宣言》進行了詳盡
解釋。再到1993年,WHO和CIOMS聯(lián)合發(fā)表了《倫理學與人體研究國際指南》和《人體研究國際倫理學指南》。2002年,WHO和CIOMS修改制定了《涉及人的生
物醫(yī)學研究國際倫理準則》,提出了需要遵守的21項準則,體現(xiàn)了生命倫理的知情同
意、生命價值、有利無傷原則。02
機器人的倫理基礎(chǔ)圖14-14二戰(zhàn)后審判對中國實行細菌戰(zhàn)的日本罪犯的伯力審判02
機器人的倫理基礎(chǔ)當科技創(chuàng)新成為今天人類最重要的活動,以及人類需要科技創(chuàng)新才能快速和有效地推動人類文明向更高階段發(fā)展之時,科技倫理又有了大量的新范疇、新內(nèi)容和新進展。人類基因組和基因編輯、人工生命和合成生命、人工智能、5G/6G通信技術(shù)、機器人、腦機接口、人臉識別、納米技術(shù)、輔助生殖技術(shù)、精準醫(yī)療等,都是今天科技創(chuàng)新和科技研發(fā)的新領(lǐng)域,也關(guān)系到所有人的福祉,但另一方面也可能會傷害人,甚至讓人類走向災(zāi)難和毀滅,如此,科技倫理的導航和規(guī)范作用就極為重要和顯著,科技倫理需要有預(yù)見性和探索性,在一項研究和一個行業(yè)發(fā)展
到一定規(guī)模和程度時,必須要求有相適應(yīng)的科技倫理來規(guī)范。02
機器人的倫理基礎(chǔ)14.2.3人工智能倫理的發(fā)展人工智能的創(chuàng)新與社會應(yīng)用方興未艾,智能社會已見端倪。人工智能發(fā)展不僅僅是一場席卷全球的科技革命,也是一場對人類文明帶來前所未有深遠影響的社會倫理實驗。02
機器人的倫理基礎(chǔ)2018年7月11日,中國人工智能產(chǎn)業(yè)創(chuàng)新發(fā)展聯(lián)盟發(fā)布了《人工智能創(chuàng)新發(fā)展道德倫理宣言》(以下簡稱《宣言》)?!缎浴烦诵蜓灾?,一共有六個部分,分別是人工智能系統(tǒng),人工智能與人類的關(guān)系,人工智能與具體接觸人員的道德倫理要求,以及人工智能的應(yīng)用和未來發(fā)展的方向,最后是附則。02
機器人的倫理基礎(chǔ)發(fā)布“人工智能創(chuàng)新發(fā)展道德倫理宣言”,是為了宣揚涉及人工智能創(chuàng)新、應(yīng)用和發(fā)展的基本準則,以期無論何種身份的人都能經(jīng)常銘記本宣言精神,理解并尊重發(fā)展人工智能的初衷,使其傳達的價值與理念得到普遍認可與遵行。《宣言》指出:(1)鑒于全人類固有道德、倫理、尊嚴及人格之權(quán)利,創(chuàng)新、應(yīng)用和發(fā)展人工智能技術(shù)當以此為根本基礎(chǔ);(2)鑒于人類社會發(fā)展的最高階段為人類解放和人的自由全面發(fā)展,人工智能技術(shù)研發(fā)當以此為最終依歸,進而促進全人類福祉;(3)鑒于人工智能技術(shù)對人類社會既有觀念、秩序和自由意志的挑戰(zhàn)巨大,且發(fā)展前景充滿未知,對人工智能技術(shù)的創(chuàng)新應(yīng)當設(shè)置倡導性與禁止性的規(guī)則,這些規(guī)則本身應(yīng)當凝聚不同文明背景下人群的基本價值共識;02
機器人的倫理基礎(chǔ)(4)鑒于人工智能技術(shù)具有把人類從繁重體力和腦力勞動束縛中解放的潛力,縱然未來的探索道路上出現(xiàn)曲折與反復,也不應(yīng)停止人工智能創(chuàng)新發(fā)展造福人類的步伐。02
機器人的倫理基礎(chǔ)建設(shè)人工智能系統(tǒng),要做到:(1)人工智能系統(tǒng)基礎(chǔ)數(shù)據(jù)應(yīng)當秉持公平性與客觀性,摒棄帶有偏見的數(shù)據(jù)和算法,以杜絕可能的歧視性結(jié)果。(2)人工智能系統(tǒng)的數(shù)據(jù)采集和使用應(yīng)當尊重隱私權(quán)等一系列人格權(quán)利,以維護權(quán)利所承載的人格利益。(3)人工智能系統(tǒng)應(yīng)當有相應(yīng)的技術(shù)風險評估機制,保持對系統(tǒng)潛在危險的前瞻性控制能力。(4)人工智能系統(tǒng)所具有的自主意識程度應(yīng)當受到科學技術(shù)水平
和道德、倫理、法律等人文價值的共同評價。02
機器人的倫理基礎(chǔ)為明確人工智能與人類的關(guān)系,《宣言》指出:(1)人工智能的發(fā)展應(yīng)當始終以造福人類為宗旨。牢記這一宗旨,是防止人工智能的巨大優(yōu)勢轉(zhuǎn)為人類生存發(fā)展巨大威脅的關(guān)鍵所在。(2)無論人工智能的自主意識能力進化到何種階段,都不能改變其由人類創(chuàng)造的事實。不能將人工智能的自主意識等同于人類特有的自由意志,模糊這兩者之間的差別可能抹殺人類自身特有的人權(quán)屬性與價值。(3)當人工智能的設(shè)定初衷與人類整體利益或個人合法利益相悖
時,人工智能應(yīng)當無條件停止或暫停工作進程,以保證人類整體利
益的優(yōu)先性。02
機器人的倫理基礎(chǔ)《宣言》指出,人工智能具體接觸人員的道德倫理要求是:(1)人工智能具體接觸人員是指居于主導地位、可以直接操縱或影響人工智能系統(tǒng)和技術(shù),使之按照預(yù)設(shè)產(chǎn)生某種具體功效的人員,包括但不限于人工智能的研發(fā)人員和使用者。(2)人工智能的研發(fā)者自身應(yīng)當具備正確的倫理道德意識,同時將這種意識貫徹于研發(fā)全過程,確保其塑造的人工智能自主意識符合人類社會主流道德倫理要求。(3)人工智能產(chǎn)品的使用者應(yīng)當遵循產(chǎn)品的既有使用準則,除非出于改善產(chǎn)品本身性能的目的,否則不得擅自變動、篡改原有的設(shè)置,使之背離創(chuàng)新、應(yīng)用和發(fā)展初衷,以致于破壞人類文明及社會和諧。(4)人工智能的具體接觸人員可以根據(jù)自身經(jīng)驗,闡述其對人工智能產(chǎn)品與技術(shù)的認識。此種闡述應(yīng)當本著誠實信用的原則,保持理性與客觀,不得誘導公眾的盲目熱情或故意加劇公眾的恐慌情緒。02
機器人的倫理基礎(chǔ)針對人工智能的應(yīng)用,《宣言》指出:(1)人工智能發(fā)展迅速,但也伴隨著各種不確定性。在沒有確定完善的技術(shù)保障之前,在某些失誤成本過于沉重的領(lǐng)域,人工智能的應(yīng)用和推廣應(yīng)當審慎而科學。(2)人工智能可以為決策提供輔助。但是人工智能本身不能成為決策的主體,特別是國家公共事務(wù)領(lǐng)域,人工智能不能行使國家公權(quán)力。(3)人工智能的優(yōu)勢使其在軍事領(lǐng)域存在巨大應(yīng)用潛力。出于對人類整體福祉的考慮,應(yīng)當本著人道主義精神,克制在進攻端武器運用人工智能的沖動。(4)人工智能不應(yīng)成為侵犯合法權(quán)益的工具,任何運用人工智能從事犯罪活動的行為,都應(yīng)當受到法律的制裁和道義的譴責。(5)人工智能的應(yīng)用可以解放人類在腦力和體力層面的部分束縛,在條件成熟時,應(yīng)當鼓勵人工智能在相應(yīng)領(lǐng)域發(fā)揮幫助人類自由發(fā)展的作用。人工智能面臨的法律問題0303
人工智能面臨的法律問題初級的人工智能或許能為人類帶來便捷,在我國或許還能帶來規(guī)則意識,甚至法治理念的真正普及。這是因為人工智能的本質(zhì)就是算法,任何算法必然建立在對某項事物認識的共性與常識之上。也正是在此意義上,人工智能能代替自然人為人類服務(wù)。深度學習能力尚不充分的初級人工智能,難以進行諸如價值判斷與情感判斷的活動,比如包含愛的交流與體驗,難以對疑難案件作出理性裁判,對案件的漏洞填補與價值補充等。隨著人工智能技術(shù)的進步和應(yīng)用的推廣,其背后的法律倫理、政策監(jiān)管等問題開始引起人們的廣泛關(guān)注,
尤其是在主體資格、個人數(shù)據(jù)和隱私保護、侵權(quán)責任劃分和
承擔等方面。人格權(quán)保護數(shù)據(jù)財產(chǎn)保護機器人法律主體地位侵權(quán)責任認定03
人工智能面臨的法律問題03
人工智能面臨的法律問題14.3.1人格權(quán)保護一些人工智能系統(tǒng)把某些人的聲音、表情、肢體動作等植入內(nèi)部系統(tǒng),使所開發(fā)的人工智能產(chǎn)品可以模仿他人的聲音、形體動作等,甚至能夠像人一樣表達,并與人進行交流。但如果未經(jīng)他人同意而擅自進行上述模仿活動,就有可能構(gòu)成對他人人格權(quán)的侵害。此外,人工智能還可能借助光學技術(shù)、聲音控制、人臉識別技術(shù)等,對他人的人格權(quán)客體加以利用,這也對個人聲音、肖像等的保護提出了新的挑戰(zhàn)。例如,光學技術(shù)的發(fā)展促進了攝像技術(shù)的發(fā)展,提高了攝
像圖片的分辨率,使夜拍圖片具有與日拍圖片同等的效果,也使對肖像權(quán)的獲取與利用
更為簡便。此外,機器人伴侶已經(jīng)出現(xiàn),在虐待、侵害機器人伴侶的情形下,行為人是
否應(yīng)當承擔侵害人格權(quán)以及精神損害賠償責任呢?但這樣一來,是不是需要先考慮賦予
人工智能機器人主體資格,或者至少具有部分權(quán)利能力呢?這確實是一個值得探討的問
題。03
人工智能面臨的法律問題14.3.2數(shù)據(jù)財產(chǎn)保護人工智能的發(fā)展也對數(shù)據(jù)的保護提出了新的挑戰(zhàn),一方面,人工智能及其系統(tǒng)能夠正常運作,在很大程度上是以海量的數(shù)據(jù)為支撐的,在利用人工智能時如何規(guī)范數(shù)據(jù)的收集、儲存、利用行為,避免數(shù)據(jù)的泄露和濫用,并確保國家數(shù)據(jù)的安全,是亟需解決的重大現(xiàn)實問題。另一方面,人工智能的應(yīng)用在很大程度上取決于其背后的一套算法,如何有效規(guī)范這一算法及其結(jié)果的運用,避免侵害他人權(quán)利,也需要法律制度予以應(yīng)對。目前,人工智能算法本身的公開性、
透明性和公正性的問題,是人工智能時代的一個核心問題,但
并未受到充分關(guān)注。03
人工智能面臨的法律問題14.3.3侵權(quán)責任認定以自動駕駛為例,作為人工智能的重要應(yīng)用之一,近年來,美、德等發(fā)達國家積極推動立法,鼓勵自動駕駛車輛測試及應(yīng)用。2016年9月21日,美國交通運輸部(DOT)頒布《聯(lián)邦自動駕駛汽車政策》(2017年9月發(fā)布了第二版《自主駕駛系統(tǒng)的安全愿景》),提出自動駕駛汽車安全評估、聯(lián)邦與州監(jiān)管政策協(xié)調(diào)等四部分內(nèi)容,進一步為自動駕駛技術(shù)提供了制度保障。2016年4月,德國政府批準了交通部起草的相關(guān)法案,將“駕駛員”定義擴大到能夠完全控制
車輛的自動系統(tǒng)。目前我國自動駕駛方面立法政策相對滯后,如何對自動駕駛等產(chǎn)業(yè)
進行規(guī)制,如何確定事故責任承擔等也是值得思考的法律問題。03
人工智能面臨的法律問題人工智能引發(fā)的侵權(quán)責任問題很早就受到了學者的關(guān)注,隨著人工智能應(yīng)用范圍的日益廣泛,其引發(fā)的侵權(quán)責任認定和承擔問題將對現(xiàn)行侵權(quán)法律制度提出越來越多的挑戰(zhàn)。無論是機器人致人損害,還是人類侵害機器人,都是新的法律責任。03
人工智能面臨的法律問題據(jù)報載,2016年11月,在深圳舉辦的第十八屆中國國際高新技術(shù)成果交易會上,一臺某型號機器人突然發(fā)生故障,在沒有指令的前提下自行打砸展臺玻璃,砸壞了部分展臺,并導致一人受傷。毫無疑問,機器人是人制造的,其程序也是制造者控制的,所以,在造成損害后,誰研制的機器人,就應(yīng)當由誰負責,似乎在法律上沒有爭議。人工智能就是人的手臂的延長,在人工智能造成他人損害時,當然應(yīng)當適用產(chǎn)品責任的相關(guān)規(guī)則。其實不然,機器人與人類一樣,是用“腦子”來思考的,機器人的腦子就是程序。我們都知道一個產(chǎn)品可以追蹤屬于哪個廠家,
但程序是不一定的,有可能是由眾多的人共同開發(fā)的,程序的產(chǎn)生可能無法追蹤到某
個具體的個人或組織。尤其是,智能機器人也會思考,如果有人故意挑逗,惹怒了它,
它有可能會主動攻擊人類,此時是否都要由研制者負責,就需要進一步研究。03
人工智能面臨的法律問題14.3.4機器人法律主體地位機器人是否可以被賦予法律人格?享有法律權(quán)利并承擔法律責任?近年來,歐盟在機器人立法方面進行了積極探索。2015年,歐盟議會法律事務(wù)委員會決定成立一個工作小組,專門研究與機器人和人工智能發(fā)展相關(guān)的法律問題。2016年,該委員會發(fā)布《就機器人民事法律規(guī)則向歐盟委員會提出立法建議的報告》,2017年2月,歐盟議會已通過一份呼吁出臺機器人立法的決議。在其中開始考慮賦予復雜的自主機器人法律地位(電子人)的可能性。03
人工智能面臨的法律問題此外,人工智能發(fā)展所帶來的倫理問題等也值得關(guān)注。人工智能因其自主性和學習能力而帶來新的倫理問題,包括安全問題、歧視問題、失業(yè)問題、是否能最終被人控制的問題等等,對人類社會各方面將帶來重大影響。目前IEEE及聯(lián)合國等已發(fā)布人工智能相關(guān)倫理原則,如保障人類利益和基本權(quán)利原則、安全性原則、透明性原則、推動人工智能普惠和有益原則等。03
人工智能面臨的法律問題今天,人工智能機器人已經(jīng)逐步具有一定程度的自我意識和自我表達能力,可以與人類進行一定的情感交流。有人
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
- 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2024債務(wù)擔保服務(wù)合同標準文本3篇
- 2024年滬教版四年級語文下冊階段測試試卷
- 2024年魯人新版七年級數(shù)學上冊月考試卷
- 創(chuàng)新學生心理健康教育在科技教育中的應(yīng)用
- 辦公環(huán)境下的家庭健康菜譜推廣策略
- 商務(wù)禮儀在家庭與社交中的藝術(shù)運用
- 中小學教育中數(shù)學與自然科學知識融合教學的案例分析
- 辦公心理學與家園共育的融合實踐
- 不同年齡段對教育信息接受度差異的深度研究
- 2025中國鐵路北京局集團限公司招聘189人(三)高頻重點提升(共500題)附帶答案詳解
- 教育學院院長述職報告范文
- 文玩交易合同(2篇)
- 智研咨詢發(fā)布-2024年中國牛油果行業(yè)現(xiàn)狀、發(fā)展環(huán)境及投資前景分析報告
- 杭州市西湖區(qū)2024年三年級數(shù)學第一學期期末學業(yè)質(zhì)量監(jiān)測試題含解析
- 眼視光學理論與方法智慧樹知到答案2024年溫州醫(yī)科大學
- 2022-2023學年廣東省廣州市花都區(qū)六年級(上)期末英語試卷(含答案)
- 公司合伙人合作協(xié)議書范本
- 2024年中考地理復習 人教版全四冊重點知識提綱
- 電梯季度維護保養(yǎng)項目表
- GB/T 44188-2024危險貨物爆炸品無約束包裝件試驗方法
- 機動車檢測站質(zhì)量手冊(根據(jù)補充技術(shù)要求修訂)
評論
0/150
提交評論