《醫(yī)療人工智能應(yīng)用風險防范的域外借鑒綜述》2800字_第1頁
《醫(yī)療人工智能應(yīng)用風險防范的域外借鑒綜述》2800字_第2頁
《醫(yī)療人工智能應(yīng)用風險防范的域外借鑒綜述》2800字_第3頁
《醫(yī)療人工智能應(yīng)用風險防范的域外借鑒綜述》2800字_第4頁
《醫(yī)療人工智能應(yīng)用風險防范的域外借鑒綜述》2800字_第5頁
全文預覽已結(jié)束

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

醫(yī)療人工智能應(yīng)用風險防范的域外借鑒綜述目錄TOC\o"1-2"\h\u22508醫(yī)療人工智能應(yīng)用風險防范的域外借鑒綜述 14074(一)從倫理層面防范風險 117211(二)從法律層面防范風險 3人工智能是能夠引領(lǐng)未來、提高國家競爭力、維護國家安全穩(wěn)定發(fā)展的重要戰(zhàn)略性技術(shù),據(jù)上文所述,全球已經(jīng)有包括中國在內(nèi)38個國家和地區(qū)頒布了人工智能發(fā)展規(guī)劃相關(guān)文件。然而事實上在世界范圍內(nèi)制定詳細的針對人工智能的立法并不繁榮,包括在人工智能開發(fā)和應(yīng)用方面走在世界最前列的美歐國家也僅在人工智能著作權(quán)、人工智能自動駕駛、人工智能刑事責任等有限領(lǐng)域內(nèi)對存在問題做出部分回應(yīng)。但是基于國外從20世紀60年代就開始研究人工智能的“提前起跑”事實國外對人工智能應(yīng)用風險防范60年時間積累的經(jīng)驗仍然值得我國在應(yīng)對醫(yī)療人工智能應(yīng)用風險時學習借鑒。從人類文明社會伊始到現(xiàn)在我們邁入的人工智能時代整體來看想要維持和諧穩(wěn)定的社會秩序就需要制定相應(yīng)的行為規(guī)范以調(diào)整人與人之間的社會關(guān)系,而在社會規(guī)范中的倫理道德規(guī)范和法律規(guī)范作為調(diào)整社會關(guān)系的兩大重要手段相互促進、相互補充、相互依存,對于應(yīng)對各種社會風險挑戰(zhàn)起到了巨大作用。因此國外對于醫(yī)療人工智能應(yīng)用的風險同樣主要通過倫理調(diào)控和法律規(guī)則調(diào)控兩方面雙管齊下的思路進行防范。(一)從倫理層面防范風險從倫理層面防范風險是防范醫(yī)療人工智能風險的基礎(chǔ)和前提,在各國對人工智能風險防范的實踐中大多數(shù)國家也確實存在優(yōu)先制定倫理道德規(guī)范的規(guī)律,這是因為倫理道德規(guī)范概括性的指明了一個國家發(fā)展醫(yī)療人工智能方向和宗旨,是醫(yī)療人工智能發(fā)展過程中始終應(yīng)當遵循的行為準則,還在立法滯后性的缺陷不可避免的產(chǎn)生時倫理道德規(guī)范起到了重要的填補漏洞作用。亞洲方面,韓國信息與通信部門(MIC)基于將自己國家繼續(xù)打造成為高技術(shù)國家的目標曾在2006年發(fā)言稱預計10-15年后韓國家庭可以一戶一個聯(lián)網(wǎng)智能服務(wù)機器人,同樣基于該目標韓國政府于2007年宣布韓國將起草世界上第一份調(diào)整人與機器人關(guān)系的《機器人道德憲章》,韓國信息與通信部門智能服務(wù)機器人項目負責人OhSangRok表示這份《機器人道德憲章》將以“阿西莫夫的機器人三大法則”作為制定基礎(chǔ)“防止人類‘虐待’機器人,并防止機器人‘虐待’人類”韓起草機器人道德憲章[J].機器人技術(shù)與應(yīng)用,2007(02):28.。在同一時期,日本經(jīng)濟產(chǎn)業(yè)省的一個跨專業(yè)團隊制定了《下一代機器人安全問題指導方針(草案)》對機器人自主幫助和保護人類行動作出限制,同樣借鑒了“阿西莫夫的機器人三大法則”。韓起草機器人道德憲章[J].機器人技術(shù)與應(yīng)用,2007(02):28.美國一直將人工智能研發(fā)的重要性放在國家戰(zhàn)略級別并且取得了許多重要成果,自2016年起美國國家科技委員會(NationalScienceandTechnologyCouncil)連續(xù)發(fā)布了《國家人工智能研究與發(fā)展戰(zhàn)略規(guī)劃》(TheNationalArtificialIntelligenceResearchandDevelopmentStrategicPlan)在內(nèi)的多個規(guī)范文件,從大框架層面為美國人工智能發(fā)展指明了方向。而在倫理道德標準制定上世界上最大的專業(yè)技術(shù)組織電氣與電子工程師協(xié)會(InstituteofElectricalandElectronicsEngineers)表現(xiàn)突出,在他們2016年發(fā)布的《合倫理設(shè)計:利用人工智能和自主系統(tǒng)(AI/AS)最大化人類福祉的愿景(第一版)》中表示使用人工智能的目的不僅僅是解決問題,其使用的根本宗旨是全人類的“福祉”,這就要求在人工智能算法設(shè)計中將人工智能的“行為方式符合社會倫理道德規(guī)范”與“解決問題”相比置于更加優(yōu)先的地位。最詳細、最具有可行性的倫理道德規(guī)范則來自于歐盟的人工智能高級專家組(High-LevelExpertGrouponArtificialIntelligence,AIHLEG),該歐盟專家組于2018年底發(fā)布的《可信人工智能倫理指南草案》不僅通過闡述人工智能在開發(fā)、應(yīng)用過程中應(yīng)當遵循的倫理目標定義了“可信人工智能”,為確保該“可信人工智能”標準能夠?qū)嵤?,還提供了可信人工智能測評清單供企業(yè)和監(jiān)管部門在人工智能開發(fā)應(yīng)用全過程進行實時評估?!霸撝改线€提出可信AI的10項要求,以及技術(shù)性及非技術(shù)性共計12種實踐途徑和方法,還根據(jù)每類要求設(shè)計出評估清單,便于產(chǎn)業(yè)參與各方評估可信AI應(yīng)用的達標情況,具有較強的操作性和適用性?!崩顚?賀佳瀛,黃紫婓.歐盟可信人工智能的倫理指南(草案)介紹[J].信息安全與通信保密,2019(01):69-77.李寧,賀佳瀛,黃紫婓.歐盟可信人工智能的倫理指南(草案)介紹[J].信息安全與通信保密,2019(01):69-77.綜上所述,從國際層面看,美、德、英、日等國加快人工智能頂層戰(zhàn)略設(shè)計,從國家層面統(tǒng)籌人工智能發(fā)展吳漢東.人工智能時代的制度安排與法律規(guī)制[J].法律科學,2017(05).,而且這些國家的戰(zhàn)略設(shè)計“……既具有鮮明的新技術(shù)時代的新特征,也具有與傳統(tǒng)國家戰(zhàn)略一貫的延續(xù)自身優(yōu)勢的戰(zhàn)略導向。這體現(xiàn)了處于優(yōu)勢地位國家如何在面對新的技術(shù)時代時自我延續(xù)與保持優(yōu)勢的努力”何哲.通向人工智能時代——兼論美國人工智能戰(zhàn)略方向及對中國人工智能戰(zhàn)略的借鑒[J].電子政務(wù),2016(12):2-10.。因此我國作為發(fā)展中國家更應(yīng)該積極面對人工智能應(yīng)用帶來的風險與挑戰(zhàn),我國目前雖然從倫理道德層面已經(jīng)針對人工智能制定了一些規(guī)則,但是還缺少上升到全國人大“法律”層面的立法規(guī)定。因此我國應(yīng)當在分析自己優(yōu)勢的前提下由全國人大盡快制定我國的倫理規(guī)范以統(tǒng)籌協(xié)調(diào)政府、社會、企業(yè)之間和內(nèi)部人工智能研發(fā)方向和責任分工。吳漢東.人工智能時代的制度安排與法律規(guī)制[J].法律科學,2017(05).何哲.通向人工智能時代——兼論美國人工智能戰(zhàn)略方向及對中國人工智能戰(zhàn)略的借鑒[J].電子政務(wù),2016(12):2-10.(二)從法律層面防范風險在關(guān)于如何認識人工智能主體資格方面世界各國學界同國內(nèi)學界一樣爭論不休,而在實踐中直接賦予人工智能公民地位、權(quán)利能力的仍然為少數(shù)。在日本一個為撫慰災后受心靈創(chuàng)傷而發(fā)明的海豹造型機器“帕羅”獲得了日本戶籍并成為了其發(fā)明人的“孩子”,2017年日本還賦予了用于收集東京224,000名居民對政府意見的人工智能澀谷未來(ShibuyaMirai)東京澀谷區(qū)居住權(quán),沙特的人工智能機器人“公民”索菲亞(Sophia)展示了沙特阿拉伯王國面對人工智能的態(tài)度,而美國國家公路交通安全管理局于2016年承認了谷歌公司開發(fā)的自動駕駛系統(tǒng)為“駕駛員”因此其行使安全標準與美國聯(lián)邦法律規(guī)定的美國聯(lián)邦機動車安全標準相同,俄羅斯《在完善機器人領(lǐng)域關(guān)系法律調(diào)整部分修改俄羅斯聯(lián)邦民法典的聯(lián)邦法律》(該草案由格里申及其基金會“格里申機器人”委托起草因此也稱為“格里申法案”(ЗаконДмитрияГришина)中認為“機器人可以被視作與動物具有特定相似性的財產(chǎn),但是根據(jù)機器人的發(fā)展很顯然有望將機器人作為人類的自主代理人”張建文.格里申法案的貢獻與局限——俄羅斯首部機器人法草案述評[J].華東政法大學學報,2018,21(02):32-41.并將人工智能視作特殊法人登記管理??偟膩碚f,雖然在全球各國范圍內(nèi)確定人工智能主體地位的做法不算常見,但我國也能從各國做法當中看出他們應(yīng)對人工智能主體問題的積極態(tài)度并從中學習借鑒。張建文.格里申法案的貢獻與局限——俄羅斯首部機器人法草案述評[J].華東政法大學學報,2018,21(02):32-41.在民事領(lǐng)域的侵權(quán)責任問題上俄羅斯的“格里申法案”走在世界前沿值得我國借鑒。據(jù)上文所述,在將人工智能主體地位做出定義后,法案指明在人工智能侵權(quán)時“應(yīng)當使用高度危險來源占有人責任的規(guī)范”張建文.格里申法案的貢獻與局限——俄羅斯首部機器人法草案述評[J].華東政法大學學報,2018,21(02):32-41.,針對現(xiàn)行的《俄羅斯聯(lián)邦民法典》增加了一部分關(guān)于人工智能的條款,總結(jié)而言包括:如何確定人工智能的所有權(quán)人和占有人、在人工智能實施高度危險行為(如進行醫(yī)療活動時)人工智能的所有權(quán)人和占有人適用過錯推定的責任承擔方式而人工智能的研發(fā)、生產(chǎn)、服務(wù)提供人員對高度危險行為承擔無過錯責任以及人工智能的所有權(quán)人和占有人在其轉(zhuǎn)移給人工智能占有、使用的財產(chǎn)范圍內(nèi)承擔責任。張建文.格里申法案的貢獻與局限——俄羅斯首部機器人法草案述評[J].華東政法大學學報,2018,21(02):32-41.在對于數(shù)據(jù)隱私保護方面歐盟一直進行著不懈的努力,歐盟現(xiàn)行的《一般數(shù)據(jù)保護法》(GeneralDataProtectionRegulation)針對所有自動處理數(shù)據(jù)的人工智能進行規(guī)范,要求人工智能在進行數(shù)據(jù)處理中不僅需要征得信息所有人同意還應(yīng)當對被收集的數(shù)據(jù)進行隱名處理——即采納了加拿大渥太華省信息與隱私委員會前主席安·卡沃基安(

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論