【人工智能對傳統(tǒng)法律體系的挑戰(zhàn)及應(yīng)對策略探究(論文)7100字】_第1頁
【人工智能對傳統(tǒng)法律體系的挑戰(zhàn)及應(yīng)對策略探究(論文)7100字】_第2頁
【人工智能對傳統(tǒng)法律體系的挑戰(zhàn)及應(yīng)對策略探究(論文)7100字】_第3頁
【人工智能對傳統(tǒng)法律體系的挑戰(zhàn)及應(yīng)對策略探究(論文)7100字】_第4頁
【人工智能對傳統(tǒng)法律體系的挑戰(zhàn)及應(yīng)對策略探究(論文)7100字】_第5頁
已閱讀5頁,還剩4頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

人工智能對傳統(tǒng)法律體系的挑戰(zhàn)及應(yīng)對策略研究目錄TOC\o"1-2"\h\u23449人工智能對傳統(tǒng)法律體系的挑戰(zhàn)及應(yīng)對策略研究 1570一、引言 16812二、人工智能對傳統(tǒng)法律體系的挑戰(zhàn) 220889(一)法律主體地位尚未明確 232105(二)法律責(zé)任認(rèn)定困難 421520(三)法律監(jiān)督難以奏效 57302三、人工智能法律挑戰(zhàn)的理性應(yīng)對 53540(一)確立人工智能有限法律主體地位 62574(二)完善人工智能致害責(zé)任認(rèn)定標(biāo)準(zhǔn) 621599(三)健全人工智能法律監(jiān)督制度 727162四、結(jié)語 9[摘要]人工智能技術(shù)的迅猛發(fā)展給人類生活帶來便利,但同時(shí)也為人類社會帶來了諸多風(fēng)險(xiǎn)因素。在傳統(tǒng)的法律體系下,人工智能的出現(xiàn)將給法律主體地位、法律責(zé)任認(rèn)定以及法律監(jiān)督帶來挑戰(zhàn)。因此,需要確立人工智能的有限法律主體地位,厘清人工智能的致害責(zé)任主體及因果關(guān)系,完善全方位、多角度的法律監(jiān)督體系,設(shè)置專門的人工智能監(jiān)督機(jī)構(gòu),從整體上理性應(yīng)對人工智能對傳統(tǒng)法律體系的挑戰(zhàn)。[關(guān)鍵詞]人工智能法律主體地位法律責(zé)任法律監(jiān)督[中圖分類號]D90引言人工智能作為當(dāng)代科技的研究前沿,其迅猛發(fā)展已如行進(jìn)的車輪般不可阻擋。毋庸置疑,人工智能的誕生為人類生活提供了諸多便利,極大提高了人們的工作效率。然而,人工智能的許多法律活動(dòng)很難繼續(xù)適用于傳統(tǒng)的法律法規(guī),如何應(yīng)對人工智能給傳統(tǒng)法律體系帶來的挑戰(zhàn),已然成為學(xué)術(shù)界和實(shí)務(wù)界的重要課題。解決人工智能法律問題的首要任務(wù)在于明確人工智能的法律地位。目前學(xué)界對于人工智能的法律地位進(jìn)行了廣泛的討論,主要形成了客體說、完全主體說和有限主體說三種觀點(diǎn)。有學(xué)者提出人工智能的行為和意志都是人工賦予的,因此將人工智能定義為人工類人格,仍是物的屬性[[]楊立新.人工類人格:智能機(jī)器人的民法地位——兼論智能機(jī)器人致人損害的民事責(zé)任[J].求是學(xué)刊,2018,45(04):91.];有學(xué)者借鑒歐盟的規(guī)定,提出確立新的法律主體類型“電子人”,以表征人工智能機(jī)器或系統(tǒng)[[]郭少飛.“[]楊立新.人工類人格:智能機(jī)器人的民法地位——兼論智能機(jī)器人致人損害的民事責(zé)任[J].求是學(xué)刊,2018,45(04):91.[]郭少飛.“電子人”法律主體論[J].東方法學(xué),2018(03):40.[]張紹欣.法律位格、法律主體與人工智能的法律地位[J].現(xiàn)代法學(xué),2019,41(04):62.人工智能的出現(xiàn)顛覆了傳統(tǒng)法律責(zé)任體系的種種原則,人工智能的致害責(zé)任應(yīng)當(dāng)如何分配仍是亟待解決的問題。對此,有學(xué)者認(rèn)為人工智能的致害責(zé)任應(yīng)當(dāng)由制造者和使用者承擔(dān),而人工智能不承擔(dān)責(zé)任[[]梁鵬.人工智能產(chǎn)品侵權(quán)的責(zé)任承擔(dān)[J].中國青年社會科學(xué),2018,37(04):13.];騰訊研究院的學(xué)者提出“賦予某些智能機(jī)器人電子人格,使其享有特定的權(quán)利和義務(wù),并可以對其行為承擔(dān)法律責(zé)任”[[]司曉,曹建峰.論人工智能的民事責(zé)任:以自動(dòng)駕駛汽車和智能機(jī)器人為切入點(diǎn)[J].法律科學(xué)(西北政法大學(xué)學(xué)報(bào)),2017,35(05):173.[]梁鵬.人工智能產(chǎn)品侵權(quán)的責(zé)任承擔(dān)[J].中國青年社會科學(xué),2018,37(04):13.[]司曉,曹建峰.論人工智能的民事責(zé)任:以自動(dòng)駕駛汽車和智能機(jī)器人為切入點(diǎn)[J].法律科學(xué)(西北政法大學(xué)學(xué)報(bào)),2017,35(05):173.[]許中緣.論智能機(jī)器人的工具性人格[J].法學(xué)評論,2018,36(05):163.人工智能的運(yùn)作程序難以被人察覺,具有隱蔽性和不可解釋性,正因如此,人工智能的法律監(jiān)督才更加難以奏效。針對這些缺陷,有學(xué)者提出從事前預(yù)防、事中管控到事后監(jiān)督三方面建立法律監(jiān)管和評價(jià)體系,“采用嚴(yán)格慎重的原則,并且法律監(jiān)管措施應(yīng)貫穿全過程”[[]馬治國,徐濟(jì)寬.人工智能發(fā)展的潛在風(fēng)險(xiǎn)及法律防控監(jiān)管[J].北京工業(yè)大學(xué)學(xué)報(bào)(社會科學(xué)版),2018,18(06):69.];還有學(xué)者認(rèn)為應(yīng)當(dāng)建立專門機(jī)構(gòu),在網(wǎng)信辦中設(shè)置算法審查委員會以實(shí)施有效的法律監(jiān)督;亦有學(xué)者建議通過專業(yè)審計(jì)人員的協(xié)助,“聘請獨(dú)立的第三方算法審計(jì)機(jī)構(gòu)對算法進(jìn)行定期檢測”[]馬治國,徐濟(jì)寬.人工智能發(fā)展的潛在風(fēng)險(xiǎn)及法律防控監(jiān)管[J].北京工業(yè)大學(xué)學(xué)報(bào)(社會科學(xué)版),2018,18(06):69.[]劉東亮.技術(shù)性正當(dāng)程序:人工智能時(shí)代程序法和算法的雙重變奏[J].比較法研究,2020(05):78.綜上所述,學(xué)者們對于人工智能的種種挑戰(zhàn)已經(jīng)展開了討論,然而遲遲未得出一致的結(jié)論。若不以審慎的態(tài)度應(yīng)對人工智能帶來的挑戰(zhàn),很容易一味追求科技進(jìn)步而忽視社會整體的和諧,從而對國家安全、社會秩序和公民利益造成威脅。因此,需要合理應(yīng)對人工智能可能帶來的法律挑戰(zhàn),使得人工智能更好地適應(yīng)法律體系,實(shí)現(xiàn)人與人工智能的和諧共處。二、人工智能對傳統(tǒng)法律體系的挑戰(zhàn)在大數(shù)據(jù)、區(qū)塊鏈、超級計(jì)算、傳感網(wǎng)等新技術(shù)的驅(qū)動(dòng)下,人工智能飛速演進(jìn),呈現(xiàn)出深度學(xué)習(xí)、跨界融合、自主操控等特點(diǎn)。我們應(yīng)當(dāng)清晰地認(rèn)識到,在把握人工智能發(fā)展機(jī)緣的同時(shí),還需要警惕這一技術(shù)可能對傳統(tǒng)法律體系造成的挑戰(zhàn)。具體而言,人工智能對傳統(tǒng)法律體系的挑戰(zhàn)主要有以下三方面。法律主體地位尚未明確在我國傳統(tǒng)法律體系中,法律主體主要分為三類,即自然人、法人和國家,而法律客體主要包括物、人身、行為結(jié)果和精神四種類型。現(xiàn)階段對于人工智能的法律地位,學(xué)術(shù)界眾說紛紜,觀點(diǎn)云集,主要存在客體說、完全主體說和有限主體說三類學(xué)說??腕w說從人工智能的工具屬性出發(fā),兼顧人工智能缺乏思考能力和道德能力,歸根結(jié)底人工智能只是服務(wù)于人類的工具,主要基于縮減人力提高效率、輔助人類生活、促進(jìn)社會進(jìn)步的目的而產(chǎn)生,不能作為法律主體參與法律活動(dòng)。在這種觀點(diǎn)之下,顯然人類是法律關(guān)系中的主體,而人工智能是作為客體對象的存在。一直以來,法律主體的特點(diǎn)就是具備獨(dú)立思維,自然人乃至法人在法律上都有獨(dú)立思考的能力,可以享有權(quán)利、負(fù)有義務(wù)和承擔(dān)責(zé)任,并通過實(shí)踐完善自己的能力,然而人工智能本身并不具備獨(dú)立思維,即便人類在開發(fā)和設(shè)計(jì)之初編寫了完備的算法和程序,足以支撐人工智能完成大量的工作和困難的任務(wù),它仍然是人類本身實(shí)踐的產(chǎn)物?,F(xiàn)階段多數(shù)國家的現(xiàn)行法律法規(guī)和司法實(shí)踐活動(dòng)中都堅(jiān)持人工智能客體說的觀點(diǎn),但客體說主要針對弱人工智能,很難將強(qiáng)人工智能涵蓋其中。完全主體說認(rèn)為人工智能有著人類的特征并在一定程度超越了人類的極限,如壽命、疾病等方面,極大地補(bǔ)充人類在生物特征上的缺陷。隨著科學(xué)技術(shù)的高速發(fā)展,人工智能逐漸不再僅僅是提供便利的工具,而是具備獨(dú)立思考能力的類人,在機(jī)械性勞動(dòng)和信息處理等多個(gè)方面都具備與人類相當(dāng)甚至超越人類的能力,因此應(yīng)當(dāng)將人工智能視為完全法律主體。主體說以代理人說和電子人格說為代表,試圖賦予人工智能主體地位。代理人說意圖將人工智能作為其所有人的代理人,電子說則是將人工智能確立為“電子人”,為其申請電子人格成為法律主體。有限主體說則是采取更為緩和的手段,肯定賦予人工智能法律主體地位的必要性,同時(shí)從實(shí)際情況出發(fā),結(jié)合人工智能的自主程度和獨(dú)立意識進(jìn)行具體分析。正如孫占利教授所說,“對于智能機(jī)器人的法律人格問題,需要遵循最小化原則和程序化原則,盡量在最小程度上對人工智能制訂新的法律”[[]孫占利.智能機(jī)器人法律人格問題論析[J].東方法學(xué),2018(03):16[]孫占利.智能機(jī)器人法律人格問題論析[J].東方法學(xué),2018(03):16.學(xué)理上對于人工智能的法律主體地位尚未統(tǒng)一的認(rèn)知,盡管目前而言,人工智能的發(fā)展水平仍處于“工具”的階段,基于此,許多學(xué)者對于人工智能持著客體說的觀點(diǎn)。但考慮到人工智能的發(fā)展速度,若不及時(shí)對人工智能的法律主體地位進(jìn)行限制和解釋,產(chǎn)生自我意識的人工智能很難繼續(xù)適用于傳統(tǒng)的法律體系,如何確立人工智能的主體地位也是亟待解決的問題。(二)法律責(zé)任認(rèn)定困難人工智能技術(shù)與傳統(tǒng)科技之間最大的差異在于能夠?qū)崿F(xiàn)對人的模擬,人工智能有著與人相似的思考方式,能夠基于設(shè)定好的程序作出判斷,相應(yīng)的也會造成侵權(quán)行為。在實(shí)踐中,人工智能產(chǎn)品致人損害的事故屢見不鮮。2015年,德國大眾工廠的技術(shù)人員被機(jī)器人攻擊而不幸喪生,2016年深圳的高交會上,一臺名為小胖的機(jī)器人突然失控砸壞展臺,傷害路人。在傳統(tǒng)法律責(zé)任體系中,責(zé)任主體必然是人,機(jī)器終歸是人類完成工作的工具,一旦這類工具型機(jī)器造成損害,要么因產(chǎn)品自身缺陷認(rèn)定生產(chǎn)者的責(zé)任,要不以使用者未盡到合理注意義務(wù)追究使用者的過錯(cuò),及時(shí)彌補(bǔ)受害人的損失。因此,人工智能致害責(zé)任認(rèn)定疑難的原因主要在于致害責(zé)任主體不明確和因果關(guān)系難辯明兩點(diǎn)。其一,明確責(zé)任承擔(dān)的前提就是對于人工智能致害主體的認(rèn)定。人工智能產(chǎn)品的致害責(zé)任主體本身就具有復(fù)雜性,包括了產(chǎn)品生產(chǎn)者、銷售者、擁有者及使用者,甚至有時(shí)還存在身份重合的現(xiàn)象。盡管目前在多數(shù)學(xué)者看來,人工智能僅具備工具屬性,本質(zhì)還是物品,但不可忽視的是,人工智能具有高度智能性和復(fù)雜性,在其高速發(fā)展的過程中,很難保證其不產(chǎn)生自主意識,化“客”為“主”,因此人工智能本身也可能是責(zé)任主體。其二,在認(rèn)定有無致害責(zé)任時(shí),需要確認(rèn)的就是因果聯(lián)系之有無。在人工智能廣泛應(yīng)用后,一件人工智能產(chǎn)品的出現(xiàn),背后一般不是單方支持,而是多方的操作協(xié)調(diào),而且人工智能的程序設(shè)定并非普通人所能輕松理解的,這樣很容易使得事故的可解釋性大打折扣,帶來歸因難題[[]司曉,曹建峰.論人工智能的民事責(zé)任:以自動(dòng)駕駛汽車和智能機(jī)器人為切入點(diǎn)[J].法律科學(xué)(西北政法大學(xué)學(xué)報(bào)),2017,35(05):170.]。因而當(dāng)出現(xiàn)人工智能致害事故時(shí),可能是因?yàn)橐环交蚨喾降脑?,比如產(chǎn)品系統(tǒng)自身出現(xiàn)故障、生產(chǎn)者未盡到安全義務(wù)亦或是使用者操作失誤等,很難第一時(shí)間辨明因果關(guān)系。在人工智能技術(shù)不斷進(jìn)步的今天,強(qiáng)人工智能的學(xué)習(xí)能力很有可能成為其他責(zé)任人逃避承擔(dān)責(zé)任的[]司曉,曹建峰.論人工智能的民事責(zé)任:以自動(dòng)駕駛汽車和智能機(jī)器人為切入點(diǎn)[J].法律科學(xué)(西北政法大學(xué)學(xué)報(bào)),2017,35(05):170.(三)法律監(jiān)督難以奏效人工智能產(chǎn)品的普及必然帶來人與智能產(chǎn)品同在共存的生活常態(tài),而技術(shù)自身的隱患會危及人類的安全,同時(shí)亦會產(chǎn)生一系列伴生問題。由于缺乏對人工智能潛在風(fēng)險(xiǎn)的明確認(rèn)識,國際上鮮有針對人工智能的專門的監(jiān)管法律與機(jī)構(gòu),大多仍處于空白狀態(tài);同樣,對于人工智能監(jiān)督途徑的法律研究也是匱乏的[[][]JoshuaJowitt.AssessingcontemporarylegislativeproposalsfortheircompatibilitywithanaturallawcaseforAIlegalpersonhood[J].AI&SOCIETY,2020(republish).事前監(jiān)督與事后監(jiān)督兩部分略顯單薄。如果人工智能技術(shù)在生產(chǎn)研發(fā)之初缺乏有效的監(jiān)督,有漏洞的人工智能產(chǎn)品流入市場,從一開始就埋下隱患,尤其是像自動(dòng)駕駛汽車等直接影響社會安全的人工智能產(chǎn)品,一旦存在安全性能方面的問題,后果將不堪設(shè)想。如果在使用過程中缺少法律上必要的規(guī)制,不對使用者加以限制,難免有不法分子將人工智能作為自己實(shí)施違法行為的工具,正如我們現(xiàn)階段嚴(yán)厲打擊的網(wǎng)絡(luò)犯罪,而人工智能實(shí)施的網(wǎng)絡(luò)犯罪顯然具有更大的追究難度。第二,國家監(jiān)督管轄范圍有限,而社會監(jiān)督又很難對人工智能進(jìn)行有效監(jiān)督。人工智能內(nèi)部結(jié)構(gòu)的復(fù)雜性使得監(jiān)管者和普通民眾難以理解其背后的運(yùn)作機(jī)制和原理,從而無法預(yù)測其潛在的風(fēng)險(xiǎn)之處,如此使得社會監(jiān)督很難發(fā)揮效果。鑒于人工智能的特殊性,缺乏專門的法律監(jiān)督機(jī)構(gòu),根據(jù)傳統(tǒng)的國家監(jiān)督原則,很難全面地對人工智能進(jìn)行監(jiān)督管理,從而容易導(dǎo)致人工智能技術(shù)濫用,后患無窮。三、人工智能法律挑戰(zhàn)的理性應(yīng)對為適應(yīng)時(shí)代發(fā)展的需要,國際社會對人工智能提出了一系列的應(yīng)對措施。我國是人工智能研發(fā)與應(yīng)用的大國,并且已經(jīng)將人工智能納入國家戰(zhàn)略規(guī)劃,因此,我們對于人工智能時(shí)代面臨的問題更應(yīng)當(dāng)加強(qiáng)防范,積極面對,以有效的措施推動(dòng)人工智能的發(fā)展。(一)確立人工智能有限法律主體地位誠然,對于人工智能的法律地位,大多數(shù)學(xué)者持客體說的觀點(diǎn),認(rèn)為人工智能的出現(xiàn)不足以動(dòng)搖現(xiàn)有的法律體系,試圖維持法律體系的穩(wěn)定性;少部分學(xué)者主張盡早確認(rèn)人工智能的主體地位,以免出現(xiàn)法律空白;支持有限主體說的學(xué)者則是寥寥無幾。筆者認(rèn)為,客體說與完全主體說的觀點(diǎn)都具有一定的合理性,但又難以覆蓋人工智能的全部法律活動(dòng)。因此,人工智能法律地位的確立要建立在區(qū)分強(qiáng)、弱人工智能的基礎(chǔ)上,著眼于現(xiàn)實(shí)發(fā)展的需要,兼顧未來發(fā)展的趨勢和動(dòng)向進(jìn)行定位。首先,對于人工智能的法律地位研究應(yīng)該分兩大類,即對于弱人工智能明確其工具屬性,規(guī)范其法律客體地位,同時(shí)對發(fā)展較為成熟的強(qiáng)人工智能設(shè)定有限法律主體地位。目前學(xué)理上對于強(qiáng)弱人工智能已經(jīng)有較為詳細(xì)的討論,以此為標(biāo)準(zhǔn)對人工智能賦予法律地位也較為明晰。正如前文所述,為了保持法律的穩(wěn)定性,對于人工智能的法律主體地位應(yīng)當(dāng)堅(jiān)持最小化原則。一方面,弱人工智能作為工具輔助人類活動(dòng),其法律權(quán)利、義務(wù)以及法律責(zé)任等諸多方面均可由生產(chǎn)者或使用者承擔(dān),此時(shí)人工智能作為法律客體參與法律活動(dòng)。另一方面,強(qiáng)人工智能在運(yùn)行過程中可能產(chǎn)生自我意識,從而支配自己的活動(dòng)。在這種情況下,將人工智能基于自主意識而產(chǎn)生的法律責(zé)任歸于生產(chǎn)者或使用者顯然不合常理,因此賦予強(qiáng)人工智能以主體地位是必要的,旨在對其自主意識支配下的活動(dòng)承擔(dān)責(zé)任。其次,對人工智能法律地位的研究更應(yīng)側(cè)重于強(qiáng)人工智能階段。對于弱人工智能階段,機(jī)器和系統(tǒng)所做的決策被認(rèn)為是由預(yù)先設(shè)計(jì)好的算法所決定[[]彭誠信,陳吉棟.論人工智能體法律人格的考量要素[J].當(dāng)代法學(xué),2019,33(02):56.],在這種情況下,人工智能作為客體參與法律活動(dòng),尚且能適應(yīng)我國現(xiàn)有的法律主體體系,并不能對其產(chǎn)生沖擊。強(qiáng)人工智能時(shí)代則截然不同,人工智能擁有有限的法律主體地位,對現(xiàn)有法律體系的影響在所難免,因此在未來的研究過程中,既要盡可能維護(hù)法律的權(quán)威,確保法的穩(wěn)定性,又要確立強(qiáng)人工智能有限法律主體地位的標(biāo)準(zhǔn)、規(guī)則、責(zé)任等相關(guān)問題,從而在學(xué)理上為人工智能[]彭誠信,陳吉棟.論人工智能體法律人格的考量要素[J].當(dāng)代法學(xué),2019,33(02):56.(二)完善人工智能致害責(zé)任認(rèn)定標(biāo)準(zhǔn)人工智能的高度智能性和復(fù)雜性對人工智能致害責(zé)任認(rèn)定提出的挑戰(zhàn),既直接導(dǎo)致產(chǎn)生人工智能致害事故難以追責(zé),無法合理保護(hù)受害人的權(quán)益,也暴露出現(xiàn)行法律法規(guī)的局限性,因此,就人工智能本身的獨(dú)特程度而言,人工智能的致害責(zé)任認(rèn)定標(biāo)準(zhǔn)需要從兩方面進(jìn)行規(guī)定,即明確法律致害責(zé)任主體和厘清因果關(guān)系。其一,責(zé)任主體的劃分主要在于如何定義產(chǎn)品缺陷與人為要素兩部分。一方面,是否存在產(chǎn)品缺陷,是認(rèn)定生產(chǎn)者有無必要承擔(dān)致害責(zé)任的前提。現(xiàn)階段,我國并未確立人工智能市場準(zhǔn)入的國家統(tǒng)一標(biāo)準(zhǔn),導(dǎo)致難以判定人工智能是否存在產(chǎn)品缺陷,進(jìn)而影響責(zé)任主體的認(rèn)定。因此,我國應(yīng)當(dāng)加快建立人工智能的相關(guān)技術(shù)標(biāo)準(zhǔn)體系,從而便于認(rèn)定責(zé)任主體。對生產(chǎn)者是否應(yīng)追究責(zé)任,就需要判斷其是否在產(chǎn)品生產(chǎn)制造的過程中盡到了安全保障的注意義務(wù),因而我們應(yīng)該將生產(chǎn)者的注意義務(wù)內(nèi)容進(jìn)一步具體化、定型化,才能明確生產(chǎn)者的責(zé)任范圍,并確保對生產(chǎn)者的注意和監(jiān)督上的過失的譴責(zé)合理性。另一方面,對于使用者來說,人與人工智能同時(shí)參與的法律活動(dòng),應(yīng)將“人為因素參與”與否作為責(zé)任主體認(rèn)定依據(jù)之一。在認(rèn)定人工智能侵權(quán)事故責(zé)任主體時(shí),應(yīng)當(dāng)首先依據(jù)發(fā)生事故時(shí)是否有人為因素參與來認(rèn)定責(zé)任主體。具體來說,當(dāng)事故時(shí)人工智能處于或應(yīng)處于人為支配狀態(tài)時(shí),應(yīng)依據(jù)過錯(cuò)責(zé)任認(rèn)定責(zé)任主體,當(dāng)確定無人為因素參與而導(dǎo)致事故時(shí),則應(yīng)通過人工智能的智能化程度認(rèn)定責(zé)任主體。在弱人工智能環(huán)境下,人工智能仍作為客體參與法律活動(dòng),這種情況下責(zé)任主體基本認(rèn)定為生產(chǎn)者;反觀強(qiáng)人工智能背景下,人工智能可作為主體承擔(dān)責(zé)任,此時(shí)責(zé)任主體可認(rèn)定為人工智能系統(tǒng)本身。其二,為厘清因果關(guān)系,人工智能本身的數(shù)據(jù)記錄和統(tǒng)一的安全生產(chǎn)行業(yè)標(biāo)準(zhǔn)是必不可少的。人工智能具有不可預(yù)測性和不可回溯性,損害結(jié)果的出現(xiàn)往往是一瞬間的,因此有必要在人工智能產(chǎn)品上裝入“黑匣子”,便于事故發(fā)生后追溯原因。在我國,安全生產(chǎn)行業(yè)標(biāo)準(zhǔn)是衡量產(chǎn)品達(dá)標(biāo)的前提,人工智能產(chǎn)品也不能排除在外,統(tǒng)一的安全生產(chǎn)行業(yè)標(biāo)準(zhǔn)可以作為人工智能產(chǎn)品問題的有力導(dǎo)航,以甄別生產(chǎn)者的責(zé)任。(三)健全人工智能法律監(jiān)督制度在支持人工智能發(fā)展的同時(shí),法律監(jiān)督亦不可缺。《新一代人工智能發(fā)展規(guī)劃》提出建立健全公開透明的人工智能監(jiān)管體系,因此,健全人工智能法律監(jiān)督制度是國家的大勢所趨。對此,不僅要完善人工智能法律監(jiān)督的事前事中事后三部分監(jiān)督體系,還要設(shè)立針對人工智能法律活動(dòng)的法律監(jiān)督機(jī)構(gòu)。我國在面對人工智能帶來的挑戰(zhàn)時(shí),應(yīng)當(dāng)堅(jiān)持嚴(yán)格謹(jǐn)慎的標(biāo)準(zhǔn),從事前預(yù)防、事中管理以及事后監(jiān)督三方面健全人工智能法律監(jiān)督體系。在事前預(yù)防方面,2017年我國出臺的《新一代人工智能發(fā)展規(guī)劃》作為我國人工智能領(lǐng)域首個(gè)系統(tǒng)部署文件,在提出要求和布置任務(wù)的同時(shí),也揭露了潛在的風(fēng)險(xiǎn)。規(guī)劃指出,作為影響廣泛的顛覆性技術(shù),人工智能可能帶來改變就業(yè)結(jié)構(gòu)、沖擊法律與社會倫理、侵犯個(gè)人隱私、等問題,將對政府管理、經(jīng)濟(jì)安全和社會穩(wěn)定乃至全球治理產(chǎn)生深遠(yuǎn)影響[]。因此,加強(qiáng)對人工智能的形勢預(yù)測、重視人工智能的跟蹤分析,方能更加準(zhǔn)確地掌控人工智能的發(fā)展,實(shí)現(xiàn)有效的事前預(yù)防。與此同時(shí),人工智能應(yīng)當(dāng)與風(fēng)險(xiǎn)意識聯(lián)系起來,重視人工智能可能對其他行業(yè)帶來的沖擊,關(guān)注輿論的走向,及時(shí)預(yù)防,將人工智能的發(fā)展牢牢地限制在安全范圍中。在事中管理方面,投入市場的

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論