新興技術(shù)推動(dòng)法理論變革的因素考量-以人工智能產(chǎn)品侵權(quán)責(zé)任分配理論為例的反思_第1頁
已閱讀5頁,還剩32頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

新興技術(shù)推動(dòng)法理論變革的因素考量——以人工智能產(chǎn)品侵權(quán)責(zé)任分配理論為例的反思提要:人工智能時(shí)代之來臨,法律人基于各自的理論推演和預(yù)設(shè),試圖構(gòu)建新型法理論。以人工智能產(chǎn)品的侵權(quán)責(zé)任為例,學(xué)者們提出了產(chǎn)品責(zé)任說、高度危險(xiǎn)說、用人者責(zé)任說以及法律主體責(zé)任說等代表性新觀點(diǎn)。通過從生產(chǎn)者、使用者以及社會(huì)進(jìn)步之角度進(jìn)行思考,發(fā)現(xiàn)上述觀點(diǎn)依然是傳統(tǒng)侵權(quán)行為理論的延續(xù)。基于歷史維度、主體維度以及技術(shù)維度反思,也可以發(fā)現(xiàn),人工智能產(chǎn)品的侵權(quán)行為并沒有動(dòng)搖現(xiàn)有侵權(quán)責(zé)任分配原理,現(xiàn)有法理論可以處理好人工智能產(chǎn)品的侵權(quán)歸責(zé)問題。從法理論變革的視角來看,以人工智能為標(biāo)志的現(xiàn)代科學(xué)技術(shù)的發(fā)展雖然會(huì)促進(jìn)法理論在某些方面的變化,甚至可能是擴(kuò)大了法律的規(guī)制領(lǐng)域,但是想要從根本上撼動(dòng)現(xiàn)有的法律體系,仍然需要有其他變革的契機(jī)。理論與實(shí)踐的雙重演繹表明,科技的發(fā)展促進(jìn)法理論變革,需要具備多種耦合性因素,包括科技因素、社會(huì)因素以及制度因素,從而形成理論變革的合力。一、問題的由來隨著人工智能技術(shù)的迅速發(fā)展,人工智能應(yīng)用范圍越來越廣,人工智能產(chǎn)品也越來越多,人工智能技術(shù)開發(fā)與應(yīng)用已經(jīng)深入社會(huì)生活的方方面面,一個(gè)新的技術(shù)時(shí)代——人工智能時(shí)代已經(jīng)來臨。為了解人工智能技術(shù)帶來的社會(huì)變革,建構(gòu)規(guī)范方法應(yīng)對(duì)人工智能社會(huì)風(fēng)險(xiǎn),2012年,歐盟委員會(huì)啟動(dòng)RoboLaw項(xiàng)目,主要目的是研究“機(jī)器人技術(shù)領(lǐng)域中的新興技術(shù)如何影響生活”。隨后,歐盟議會(huì)法律事務(wù)委員會(huì)(JURI)于2016年5月發(fā)布《就機(jī)器人民事法律規(guī)則向歐盟委員會(huì)提出立法建議的報(bào)告草案》(簡稱《報(bào)告草案》),《報(bào)告草案》指出:“從長遠(yuǎn)來看,人工智能存在超越人類智力能力的可能。立法機(jī)關(guān)在不扼殺創(chuàng)新的前提下,需要考慮其法律和倫理影響。人工智能替代人類或超越人類的可能性逐漸成為一種共識(shí)。因此,人工智能產(chǎn)品能力的特殊性、超強(qiáng)性以及潛在的危險(xiǎn)性,引發(fā)人們對(duì)人與機(jī)器關(guān)系的思考,特別是關(guān)于人工智能產(chǎn)品能力的法理思考。人們往往會(huì)從理論上追問,如果人工智能具有人類智能,那么人工智能與人是什么關(guān)系?是平等關(guān)系嗎?如果是平等關(guān)系,人工智能與人發(fā)生沖突時(shí),如何分配責(zé)任?無論如何理解人工智能的社會(huì)角色,人工智能為人們帶來技術(shù)福利的同時(shí),也會(huì)不可避免地與人類發(fā)生沖突。在法律尚無明確規(guī)定的前提下,我們是否會(huì)想當(dāng)然地以為,因?yàn)槿斯ぶ悄軙?huì)與人發(fā)生沖突,所以人工智能產(chǎn)品侵權(quán)就會(huì)帶來侵權(quán)責(zé)任歸責(zé)理論的重大變化,進(jìn)而導(dǎo)致整個(gè)民法乃至法理上責(zé)任主體的理論變革?為此,本文首先從當(dāng)前學(xué)術(shù)界的代表性觀點(diǎn)出發(fā),反思人工智能是否對(duì)民事侵權(quán)責(zé)任的基本原理帶來了挑戰(zhàn),進(jìn)而從法理上尋找理論緣由,為我們充分應(yīng)對(duì)人工智能時(shí)代的到來提供理論依據(jù)。二、人工智能產(chǎn)品侵權(quán)責(zé)任分配的代表性新觀點(diǎn)自人工智能的研究成為學(xué)界的學(xué)術(shù)熱點(diǎn)以來,短短的五年時(shí)間(2017年被公認(rèn)為中國人工智能研究的元年),有關(guān)人工智能產(chǎn)品侵權(quán)責(zé)任分配的學(xué)術(shù)研究成果非常豐富。概而言之,這些學(xué)術(shù)研究成果可以總結(jié)為以下幾種學(xué)術(shù)觀點(diǎn)。(一)產(chǎn)品責(zé)任說吳漢東提出關(guān)于智能系統(tǒng)致人損害責(zé)任的認(rèn)定,有兩種責(zé)任方式可供選擇:一是基于行為人過失所產(chǎn)生的產(chǎn)品責(zé)任;二是基于技術(shù)中立原則所產(chǎn)生的替代責(zé)任。有人認(rèn)為將機(jī)器人定位為民法上的物且將其視為產(chǎn)品并據(jù)以確定其民事責(zé)任應(yīng)是更現(xiàn)實(shí)的選擇。從屬性來看,人工智能本身是由人類制造的物品,而市場(chǎng)上的人工智能是為了滿足人類需要而生產(chǎn)出來的,目的是為參與流通即銷售,因此人工智能符合《產(chǎn)品責(zé)任法》第2條規(guī)定的產(chǎn)品要件“經(jīng)過加工制造”“用于銷售”,仍然屬于產(chǎn)品的范疇,故應(yīng)接受產(chǎn)品責(zé)任制度的調(diào)整。(二)高度危險(xiǎn)責(zé)任說美國學(xué)者凱爾·科隆納將HAV(HighlyAutomatedVehicles,即高度自動(dòng)化)駕駛定義為侵權(quán)責(zé)任法中的“高度危險(xiǎn)”。高度危險(xiǎn)責(zé)任的理論基礎(chǔ)主要在于“危險(xiǎn)責(zé)任說”,即危險(xiǎn)不僅在于潛在加害人所從事的活動(dòng)或管理的對(duì)象具有外部致?lián)p的可能性,更在于損害的高度嚴(yán)重性和危害廣泛性,而且潛在受害人對(duì)此幾無防御之道。有學(xué)者認(rèn)為,無論人工智能歸于危險(xiǎn)物品或危險(xiǎn)活動(dòng),高度危險(xiǎn)的說法都符合人工智能的屬性。高度危險(xiǎn)責(zé)任是“基于風(fēng)險(xiǎn)的不可預(yù)測(cè)性和損害后果的極端嚴(yán)重性而對(duì)加害人課以無過錯(cuò)責(zé)任”。PauliusCerka等人提出人工智能的開發(fā)者應(yīng)該對(duì)更大的危險(xiǎn)來源的行為負(fù)責(zé),在這種情況下,無過錯(cuò)責(zé)任論產(chǎn)生。此外,高度危險(xiǎn)責(zé)任是在人工智能技術(shù)“危險(xiǎn)的難以避免性”、行業(yè)的“非通常性”——即人工智能核心技術(shù)的專業(yè)性以及技術(shù)缺陷和因果關(guān)系較難證明的情況下,基于節(jié)約交易成本的考量。(三)用人者責(zé)任說用人者責(zé)任又可以被稱為“雇主責(zé)任”,屬于替代責(zé)任的范疇,指的是如果雇員在職務(wù)范圍內(nèi)實(shí)施侵害他人權(quán)益的行為,那么雇主就需要對(duì)雇員的行為承擔(dān)責(zé)任。用人者責(zé)任說提出,人工智能自主運(yùn)行行為是為執(zhí)行特定任務(wù),所有者或使用者為其運(yùn)行利益的享有者。即如果智能機(jī)器人實(shí)際上“代理或者代表”某個(gè)法律主體從事行為或者進(jìn)行決策,那么可以比照雇主對(duì)雇員的責(zé)任,讓部署智能機(jī)器人的人承擔(dān)替代責(zé)任。如貝札爾等人指出,誰“雇傭”誰負(fù)責(zé)應(yīng)當(dāng)是基本原則。用人者責(zé)任中,責(zé)任主體承擔(dān)無過錯(cuò)責(zé)任。此外,還有一種特殊的用人者責(zé)任——?jiǎng)趧?wù)派遣責(zé)任。2017年2月,歐洲議會(huì)《機(jī)器人民事法律規(guī)則》就是基于勞務(wù)派遣關(guān)系進(jìn)行自動(dòng)駕駛侵權(quán)的責(zé)任構(gòu)造。該理論基礎(chǔ)在于用工單位直接享受勞動(dòng)者勞動(dòng)成果帶來的利益,因此對(duì)比用人單位,應(yīng)承擔(dān)更為嚴(yán)苛的侵權(quán)責(zé)任。(四)法律主體責(zé)任說1.類比自然人的有限人格——監(jiān)護(hù)人責(zé)任監(jiān)護(hù)人理論認(rèn)為因人工智能具備一定的自主性,但又不能完全像人類一樣獨(dú)立地思考和行為,其類似于人類社會(huì)中的無或者限制民事行為能力人,使用者如果使用該人工智能,對(duì)人工智能的自主行為負(fù)有監(jiān)督管理的義務(wù),應(yīng)當(dāng)承擔(dān)人工智能的監(jiān)護(hù)人責(zé)任。賴玉強(qiáng)提出,人工智能是人類創(chuàng)造出來的服務(wù)于自身的,其地位不可能超出人類,甚至不能達(dá)到與人類同等重要的程度。它所能擁有的,至多只是有限的民事行為能力以及民事權(quán)利能力,這種能力在一定程度上可類比于未成年人,是“類人”。所以,所有者應(yīng)當(dāng)對(duì)人工智能承擔(dān)監(jiān)護(hù)人的責(zé)任。2.類比法人的有限人格——設(shè)立中法人和電子人制度劉曉純、達(dá)亞沖提出智能機(jī)器人享有有限法律權(quán)利,即可以成為中法人。貝克則主張?jiān)谌伺c工具之間設(shè)立新的主體,即把與智能機(jī)器人相關(guān)的所有參與者(研發(fā)者、程序員、生產(chǎn)者、用戶)全部綁定起來,轉(zhuǎn)化為一個(gè)新的法律實(shí)體——“電子智能體”(electronicagent)或“電子人”(electronicperson)。他認(rèn)為法人概念在處理公司事務(wù)時(shí)是相當(dāng)成功的,至少能夠確保由公司各方的合作行為造成的全部損失不是由某個(gè)人來獨(dú)立承擔(dān)。因此可以賦予智能機(jī)器人特定的法律“人格”,讓自主機(jī)器人有一定程度的法律自主權(quán)。這種觀點(diǎn)與從屬法律主體地位理論有一致性。3.直接賦予人工智能法律主體地位不少學(xué)者從法律主體理論出發(fā),提出直接賦予人工智能法律主體資格不存在學(xué)理和倫理上的困境。周詳認(rèn)為,以往有很多先例可循的“社會(huì)人格化”例證,足以說明如今我們?nèi)魧⒅悄軝C(jī)器人“人格化”,在邏輯上并不存在法律推理與論證方法層面的根本性障礙。權(quán)利主體的內(nèi)容是逐步建構(gòu)起來的,是一個(gè)不斷發(fā)展變化的觀念。智能機(jī)器人的智能性這一本質(zhì)性要素,必然要求賦予智能機(jī)器人法律主體地位,從而對(duì)社會(huì)發(fā)展起到正向作用。因此賦予智能機(jī)器人法律主體地位是順應(yīng)時(shí)代發(fā)展的要求。如許中緣提出民法上確認(rèn)法人的民事主體人格。張童提出法律關(guān)系主體與客體的區(qū)分依據(jù)并非局限于是否擁有生命、是否擁有獨(dú)立意志,而是應(yīng)當(dāng)將重點(diǎn)放在衡量有無必要賦予主體資格使其享有權(quán)利能力,如法人擁有擬制人格那般,賦予人工智能產(chǎn)品以擬制人格并非不可。在不限制其他法律主體(自然人和人工開發(fā)的法律實(shí)體)的利益的最佳保護(hù)的情況下,人工智能系統(tǒng)應(yīng)該是公認(rèn)的法律主體。所以,在知識(shí)產(chǎn)權(quán)法領(lǐng)域,有學(xué)者基于人工智能的法律主體地位,提出可以賦予人工智能創(chuàng)造物以著作權(quán)。三、對(duì)人工智能產(chǎn)品侵權(quán)責(zé)任分配代表性新觀點(diǎn)的反思人工智能技術(shù)的發(fā)展,帶來了法學(xué)學(xué)術(shù)研究的新一輪繁榮。秉持學(xué)術(shù)研究應(yīng)當(dāng)提升知識(shí)增量的理路,我們應(yīng)當(dāng)對(duì)上述四種代表性新觀點(diǎn)進(jìn)行分析,思索其是否真正地反映了人工智能產(chǎn)品侵權(quán)責(zé)任分配的基本原理,進(jìn)而思索這些所謂的新觀點(diǎn)是否沖擊了現(xiàn)有的民事侵權(quán)責(zé)任體系。因此,我們要關(guān)注的是,人工智能產(chǎn)品的侵權(quán)行為是否動(dòng)搖了現(xiàn)有民事侵權(quán)責(zé)任體系的理論根基,人工智能產(chǎn)品的民事侵權(quán)責(zé)任是否仍然囊括于現(xiàn)有的民事侵權(quán)責(zé)任體系之中。概而言之,如果將人工智能產(chǎn)品的侵權(quán)行為歸結(jié)到生產(chǎn)者、銷售者或者使用者,那么就可以說這只是傳統(tǒng)侵權(quán)行為理論的延續(xù),并沒有誕生新的民事侵權(quán)責(zé)任歸責(zé)理論。(一)從生產(chǎn)者角度的觀察與反思生產(chǎn)者在追求市場(chǎng)利益的過程中創(chuàng)造人工智能技術(shù),是人工智能技術(shù)危險(xiǎn)產(chǎn)生和流通的根源;在具體的人工智能侵權(quán)事件中,生產(chǎn)者是實(shí)力雄厚的賠付主體;對(duì)人工智能侵權(quán)事故整體而言,生產(chǎn)者是人工智能侵權(quán)危險(xiǎn)的有效控制者。生產(chǎn)者是人工智能侵權(quán)責(zé)任主要主體之一,生產(chǎn)缺陷是人工智能侵權(quán)危險(xiǎn)來源之一。1.人工智能產(chǎn)品存在生產(chǎn)缺陷時(shí)的歸責(zé)反思在產(chǎn)品責(zé)任、高度危險(xiǎn)責(zé)任、用人者責(zé)任以及監(jiān)護(hù)人責(zé)任中,人工智能存在生產(chǎn)缺陷時(shí),生產(chǎn)者若為責(zé)任主體,則承擔(dān)無過錯(cuò)責(zé)任。其中,產(chǎn)品責(zé)任直接規(guī)定了生產(chǎn)者的缺陷責(zé)任。我國《產(chǎn)品責(zé)任法》第四十一條規(guī)定當(dāng)產(chǎn)品存在缺陷時(shí)生產(chǎn)者承擔(dān)無過錯(cuò)責(zé)任:“因產(chǎn)品存在缺陷造成人身、缺陷產(chǎn)品以外的其他財(cái)產(chǎn)(以下簡稱他人財(cái)產(chǎn))損害的,生產(chǎn)者應(yīng)當(dāng)承擔(dān)賠償責(zé)任?!币虼?,如果人工智能生產(chǎn)制造過程中存在缺陷而導(dǎo)致人工智能侵權(quán)責(zé)任事故,生產(chǎn)者應(yīng)當(dāng)承擔(dān)無過錯(cuò)責(zé)任。確保人工智能符合當(dāng)事人之間約定的或者法律規(guī)定的質(zhì)量標(biāo)準(zhǔn)是生產(chǎn)者的法定義務(wù)。生產(chǎn)者作為人工智能技術(shù)制造生產(chǎn)角色,是保障人工智能技術(shù)安全的第一道防線,一般而言“在工程領(lǐng)域,產(chǎn)業(yè)界常常并沒有強(qiáng)烈的直接動(dòng)力在系統(tǒng)安全性和正確性方面做出更多投入,更常見的應(yīng)對(duì)是來源于問題發(fā)生之后的補(bǔ)救和分析”。生產(chǎn)者對(duì)缺陷制造承擔(dān)無過錯(cuò)責(zé)任有利于引導(dǎo)生產(chǎn)者提高人工智能生產(chǎn)制造的安全性。相較而言,若設(shè)立中法人發(fā)起人、智能電子人代表或人工智能成為獨(dú)立法律主體,則生產(chǎn)者對(duì)人工智能侵權(quán)不承擔(dān)直接責(zé)任。在人工智能因生產(chǎn)缺陷而侵權(quán)時(shí),高度危險(xiǎn)責(zé)任、用人者責(zé)任以及監(jiān)護(hù)人責(zé)任的免責(zé)事由均較為嚴(yán)苛,且存在不適用之處?!睹穹ǖ洹返谝磺Ф偎氖臈l規(guī)定:“承擔(dān)高度危險(xiǎn)責(zé)任,法律規(guī)定賠償限額的,依照其規(guī)定,但是行為人有故意或者重大過失的除外?!薄睹穹ǖ洹返谝磺б话倬攀粭l規(guī)定:“用人單位的工作人員因執(zhí)行工作任務(wù)造成他人損害的,由用人單位承擔(dān)侵權(quán)責(zé)任。用人單位承擔(dān)侵權(quán)責(zé)任后,可以向有故意或者重大過失的工作人員追償。”《民法典》第一千一百八十八條規(guī)定:“無民事行為能力人、限制民事行為能力人造成他人損害的,由監(jiān)護(hù)人承擔(dān)侵權(quán)責(zé)任。監(jiān)護(hù)人盡到監(jiān)護(hù)職責(zé)的,可以減輕其侵權(quán)責(zé)任。”因此高度危險(xiǎn)責(zé)任、用人者責(zé)任中,生產(chǎn)者無法以人工智能技術(shù)符合安全質(zhì)量標(biāo)準(zhǔn)等進(jìn)行抗辯;有限人格監(jiān)護(hù)人責(zé)任中,無過錯(cuò)是減責(zé)而非免責(zé)事由。在免責(zé)事由之欠缺前提下,責(zé)任由生產(chǎn)者一己之力承擔(dān)。由此作為“風(fēng)險(xiǎn)社會(huì)”,損害總是以一定的概率存在,區(qū)別只是由哪些人實(shí)際承受這些損害,此時(shí)生產(chǎn)者成為損害的實(shí)際承擔(dān)者。這一理念下,生產(chǎn)者會(huì)將重心轉(zhuǎn)移至如何通過保險(xiǎn)等方式提高自己的償付能力而非最大限度地提高人工智能技術(shù)的安全性,因?yàn)榍耙环N方式的成本明顯低于后一方式。蓋多·卡拉布雷西指出:“毫無疑問,在事故發(fā)生后,我們?yōu)槭鹿适芎φ咛峁┑姆椒ㄊ侵陵P(guān)重要的,但現(xiàn)實(shí)的事故的社會(huì)成本可以通過首先采取手段避免事故得到最大程度的減少。”完全法律人格下,人工智能要以自己的獨(dú)立財(cái)產(chǎn)承擔(dān)責(zé)任,這在實(shí)踐生活中無法實(shí)現(xiàn)。雖然其可以通過人工智能保險(xiǎn)、人工智能風(fēng)險(xiǎn)基金等方式來轉(zhuǎn)化責(zé)任,但減少了生產(chǎn)者與人工智能侵權(quán)行為之間的聯(lián)系,無法推動(dòng)制造商積極主動(dòng)關(guān)注人工智能技術(shù)安全問題。這種責(zé)任聯(lián)系的弱化,也是今天許多法人組織從事非法行為屢見不鮮的原因之一。2.人工智能產(chǎn)品無生產(chǎn)缺陷時(shí)的歸責(zé)反思除了人工智能無生產(chǎn)缺陷時(shí)生產(chǎn)者是否需要承擔(dān)侵權(quán)責(zé)任這一問題,承擔(dān)責(zé)任比例也是人工智能侵權(quán)責(zé)任分配面臨的問題之一。如果人工智能不存在生產(chǎn)缺陷,則在產(chǎn)品責(zé)任中,生產(chǎn)者不承擔(dān)責(zé)任;在高度危險(xiǎn)、用人者責(zé)任以及有限主體論的監(jiān)護(hù)人責(zé)任等三種觀點(diǎn)中,生產(chǎn)者承擔(dān)無過錯(cuò)責(zé)任;設(shè)立中法人、電子人以及法律主體責(zé)任,尚無具體規(guī)定。不同的觀點(diǎn),生產(chǎn)者責(zé)任承擔(dān)相差較大。筆者認(rèn)為人工智能無生產(chǎn)缺陷而發(fā)生侵權(quán)事故時(shí),生產(chǎn)者應(yīng)承擔(dān)公平責(zé)任。《民法典》第一千一百八十六條規(guī)定:“受害人和行為人對(duì)損害的發(fā)生都沒有過錯(cuò)的,依照法律的規(guī)定由雙方分擔(dān)損失。”這一規(guī)定被稱為公平責(zé)任原則。公平責(zé)任原則充分考慮了生產(chǎn)者作為受益者的身份,也考慮了使用者作為受益者的身份。由兩個(gè)受益者分擔(dān)人工智能產(chǎn)品無缺陷時(shí)導(dǎo)致的損失,大體體現(xiàn)了分配正義。(二)從使用者角度的觀察與反思使用者作為人工智能技術(shù)的直接控制者,規(guī)范使用人工智能是其應(yīng)有之義。此外,謹(jǐn)慎使用人工智能技術(shù),避免因操作失誤等過失致第三人受損是其注意義務(wù)之范疇。與生產(chǎn)者相比,使用者是力量較為薄弱的責(zé)任主體,不宜為其設(shè)置超出其承受能力之責(zé)任,適當(dāng)?shù)呢?zé)任分配有利于激發(fā)使用者履行安全使用人工智能之注意義務(wù)。使用者對(duì)人工智能的青睞和信任是人工智能技術(shù)長足發(fā)展的基礎(chǔ)。1.使用者未謹(jǐn)慎使用人工智能在人工智能不存在生產(chǎn)缺陷的前提下,使用者應(yīng)當(dāng)謹(jǐn)慎使用人工智能,使用者未履行謹(jǐn)慎義務(wù)致人工智能侵權(quán)的,應(yīng)當(dāng)承擔(dān)過錯(cuò)侵權(quán)責(zé)任。鑒于使用者大多數(shù)賠償能力較弱,故可以借鑒機(jī)動(dòng)車強(qiáng)制責(zé)任保險(xiǎn)制度,覆蓋小額賠償。以自動(dòng)駕駛汽車為例,自動(dòng)汽車駕駛?cè)宋绰男凶⒁饬x務(wù)的,可以依據(jù)《道路交通安全法》第七十六條規(guī)定承擔(dān)責(zé)任:“機(jī)動(dòng)車發(fā)生交通事故造成人身傷亡、財(cái)產(chǎn)損失的,由保險(xiǎn)公司在機(jī)動(dòng)車第三者責(zé)任強(qiáng)制保險(xiǎn)責(zé)任限額范圍內(nèi)予以賠償?!睆?qiáng)制責(zé)任保險(xiǎn)是確保使用者賠償能力的重要條件,消費(fèi)型使用者作為個(gè)體賠償能力普遍較弱,借鑒機(jī)動(dòng)車強(qiáng)制責(zé)任保險(xiǎn)制度有利于分散使用者賠償風(fēng)險(xiǎn),保護(hù)受害人權(quán)利。但強(qiáng)制責(zé)任保險(xiǎn)賠償限度較低,面對(duì)較為嚴(yán)重的損害,無法全面覆蓋,此時(shí)單個(gè)主體可以以商業(yè)保險(xiǎn)等方式填補(bǔ)損害。2.使用者謹(jǐn)慎使用人工智能使用者在謹(jǐn)慎使用人工智能,履行其注意義務(wù)的前提下,不存在過錯(cuò),不對(duì)人工智能侵權(quán)承擔(dān)侵權(quán)責(zé)任。首先,與生產(chǎn)者不同,使用者對(duì)人工智能技術(shù)運(yùn)作知之甚少,無法進(jìn)一步阻止人工智能侵權(quán);其次,使用者多為單個(gè)主體,對(duì)個(gè)人過失行為負(fù)責(zé)是權(quán)利與義務(wù)相對(duì)應(yīng)之內(nèi)涵,但對(duì)非義務(wù)范圍內(nèi)行為承擔(dān)責(zé)任超過其法律義務(wù)。使用者不承擔(dān)責(zé)任,由生產(chǎn)者與受害者根據(jù)公平責(zé)任分擔(dān)損失。在現(xiàn)有新觀點(diǎn)中,產(chǎn)品責(zé)任未規(guī)定使用者之責(zé)任承擔(dān)。高度危險(xiǎn)侵權(quán)責(zé)任中,取使用者做責(zé)任主體,不符合高度危險(xiǎn)責(zé)任理論基礎(chǔ)。首先,使用者享受人工智能的運(yùn)行利益,但生產(chǎn)者卻未嘗不是人工智能的更大受益者,整個(gè)社會(huì)也因人工智能技術(shù)的普及減少資源浪費(fèi)等。其次,從現(xiàn)有的高度危險(xiǎn)責(zé)任出發(fā),承擔(dān)高度危險(xiǎn)責(zé)任的主體有:民用航空器的經(jīng)營者,易燃、易爆、劇毒、高放射性、強(qiáng)腐蝕性、高致病性等高度危險(xiǎn)物的占有人或者使用人,高空、高壓、地下挖掘活動(dòng)或者使用高速軌道運(yùn)輸工具的經(jīng)營者,高度危險(xiǎn)活動(dòng)區(qū)域或者高度危險(xiǎn)物存放區(qū)管理人等主體。從高度危險(xiǎn)責(zé)任主體的規(guī)模到其活動(dòng)的高度危險(xiǎn)性,使用者使用人工智能技術(shù)的行為都無法與其相提并論。此外,人工智能侵權(quán)責(zé)任事故的原因既可能是用戶未履行注意義務(wù),也可能是技術(shù)自身的缺陷,此時(shí)即使用戶履行了合理的注意義務(wù)也無法避免損害發(fā)生。不論是用人者責(zé)任、勞務(wù)派遣責(zé)任還是監(jiān)護(hù)人責(zé)任,使用者作為人工智能的直接控制人承擔(dān)無過錯(cuò)責(zé)任,在勞務(wù)派遣模式下生產(chǎn)者有過錯(cuò)的,承擔(dān)補(bǔ)充責(zé)任;監(jiān)護(hù)人責(zé)任下,使用者盡到監(jiān)護(hù)義務(wù)也不能免除其責(zé)任。有限人格設(shè)立中法人制度無法適用于單個(gè)的使用者,雖然使用者也可以與生產(chǎn)者等一起與人工智能組成電子人,但不明晰的權(quán)利義務(wù)分配,容易導(dǎo)致適用困境。(三)從社會(huì)進(jìn)步角度的觀察與反思社會(huì)進(jìn)步需要技術(shù)進(jìn)步與社會(huì)安全相平衡。社會(huì)之進(jìn)步離不開技術(shù)之進(jìn)步,而社會(huì)進(jìn)步之目的在于使社會(huì)主體“人”享有幸福之生活。自康德提出“人是目的,而不是工具”這一理念以來,人權(quán)觀念日益深入人心,人人追求幸福生活之過程極大推動(dòng)了技術(shù)變革的步伐。人工智能侵權(quán)責(zé)任分配是調(diào)整二者之平衡的關(guān)鍵點(diǎn)之一,須謹(jǐn)慎對(duì)待。1.人工智能若為責(zé)任主體人工智能責(zé)任主體究竟應(yīng)該如何認(rèn)定?是繼續(xù)由生產(chǎn)者、使用者等承擔(dān)責(zé)任,還是將人工智能類比自然人或法人賦予法律人格?從權(quán)利利用角度來看,賦予人工智能主體資格并非有效的權(quán)利保護(hù)方式。私人權(quán)利盛行之時(shí)代,所有權(quán)制度為權(quán)利人提供了最全面的權(quán)利利用方式,現(xiàn)有人工智能技術(shù)仍處于不斷發(fā)展和進(jìn)步的上升時(shí)期,將人工智能技術(shù)歸于其所有者,對(duì)人工智能技術(shù)開發(fā)者更具激勵(lì)作用。所有權(quán)是最完整的物權(quán),是最為典型的絕對(duì)權(quán),開發(fā)者可以對(duì)人工智能占有、使用、收益、處分,其完整性超越其他任何一種行使的非所有權(quán)財(cái)產(chǎn)權(quán)類型。首先,承認(rèn)所有者對(duì)人工智能的所有權(quán),使其對(duì)人工智能的權(quán)利最大化,可以激勵(lì)開發(fā)者不斷改進(jìn)和提升人工智能技術(shù),開發(fā)人工智能技術(shù)的多種利用途徑。其次,法律賦予權(quán)利的同時(shí)也賦予權(quán)利人謹(jǐn)慎行使權(quán)利避免對(duì)他人權(quán)利造成損害的義務(wù)。人工智能在完全具備人類自由意志和獨(dú)立的財(cái)產(chǎn)之前,仍要依靠具體的自然人行使權(quán)利、履行義務(wù),過早賦予人工智能法律主體資格可能導(dǎo)致實(shí)際責(zé)任主體享有權(quán)利后借人工智能法律主體資格逃脫責(zé)任。因此,人工智能技術(shù)發(fā)展初期,明確人工智能不是權(quán)利義務(wù)主體,是技術(shù)發(fā)展的要求。2.人工智能歸責(zé)原則侵權(quán)歸責(zé)原則決定生產(chǎn)者、使用者與受侵害者權(quán)利義務(wù)的分配。克雷斯蒂安·馮·巴爾提出只有當(dāng)侵權(quán)行為法避免了過分嚴(yán)苛的責(zé)任時(shí),才能作為有效的、有意義的和公正的賠償體系運(yùn)作。作為一個(gè)為理性所支配的法律,它既不能成為公眾所認(rèn)可的經(jīng)濟(jì)秩序的阻礙因素,也不能要求一個(gè)行為不謹(jǐn)慎的人對(duì)他人因其行為所產(chǎn)生的一切損害,及一切非因行為人的過失即無需容忍的損害,承擔(dān)賠償責(zé)任。高度危險(xiǎn)責(zé)任、用人者責(zé)任以及有限人格中的監(jiān)護(hù)人責(zé)任都為無過錯(cuò)責(zé)任,形式上對(duì)受害人的保護(hù)無可挑剔。但無過錯(cuò)責(zé)任作為一種嚴(yán)格歸責(zé)原則,責(zé)任主體不明確、以及責(zé)任主體明確后,免責(zé)事由適用不合理,引發(fā)任何一方承擔(dān)責(zé)任都會(huì)導(dǎo)致過于嚴(yán)苛的責(zé)任。由此引出,責(zé)任主體會(huì)將注意重點(diǎn)轉(zhuǎn)移至通過保險(xiǎn)等提高賠付能力而非最大限度提高人工智能安全技術(shù)或謹(jǐn)慎使用人工智能,在事故發(fā)生前即降低事故發(fā)生之概率。每個(gè)生產(chǎn)者、使用者關(guān)注重點(diǎn)之轉(zhuǎn)變,集中后使社會(huì)整體事故發(fā)生率提高,受害人數(shù)增多,從社會(huì)整體講并不利于保護(hù)受害人權(quán)益。因此,從現(xiàn)有法律出發(fā),根據(jù)人工智能侵權(quán)原因?qū)?yīng)不同責(zé)任主體,結(jié)合每一責(zé)任主體的特殊性確定歸責(zé)原則,可以減少法律對(duì)技術(shù)發(fā)展的干涉,同時(shí)保護(hù)受害人權(quán)益。從上述分析來看,我們可以得出一個(gè)基本的結(jié)論:即使在現(xiàn)有法律體系下,依然可以處理好人工智能產(chǎn)品的民事侵權(quán)責(zé)任問題。換言之,在無法賦予人工智能產(chǎn)品為責(zé)任主體的情形下,人工智能產(chǎn)品的侵權(quán)行為只會(huì)在原有的責(zé)任歸責(zé)理論中進(jìn)行適當(dāng)?shù)倪x擇,并沒有實(shí)現(xiàn)責(zé)任理論的創(chuàng)新。由此可見,人工智能的研究大潮中,并非所有的研究都存有真正的問題意識(shí)。四、人工智能產(chǎn)品的侵權(quán)行為不會(huì)動(dòng)搖現(xiàn)有的侵權(quán)責(zé)任分配理論上文分別從生產(chǎn)者、使用者和社會(huì)進(jìn)步角度對(duì)人工智能產(chǎn)品侵權(quán)責(zé)任分配的代表性觀點(diǎn)進(jìn)行了述評(píng)和反思。我們發(fā)現(xiàn),這些所謂的新的學(xué)術(shù)觀點(diǎn)并沒有提供新的理論成果。接下來需要繼續(xù)追問的是,人工智能究竟是否會(huì)動(dòng)搖民事侵權(quán)的責(zé)任分配原理?下文將從歷史維度、主體維度和實(shí)踐維度對(duì)此展開否定性論述,進(jìn)一步明確人工智能產(chǎn)品的“行為”依然在現(xiàn)有法律體系的規(guī)制范圍之內(nèi)。(一)從主體維度來看,人工智能產(chǎn)品尚非法律意義上的“人”人工智能法律主體的論證分為兩類,一類是將人工智能類比為自然人,從人工智能之“智能性”出發(fā);另一類是將人工智能“擬制化”,認(rèn)為人工智能可借鑒法人、非法人組織擬制化的路徑,構(gòu)建人工智能法律主體制度。1.人工智能作為“人”自然人的法律主體基石來源于近代的“天賦人權(quán)”理論和“自由意志”理論。1789年,法國頒布了《人權(quán)和公民權(quán)利宣言》,其核心精神是從“自然權(quán)利觀念”衍化而來的“天賦人權(quán)”精神,實(shí)質(zhì)是關(guān)于平等、自由、博愛的宣言書。于此,自然法不再被視為是為具體問題提供答案的原則,個(gè)體的權(quán)利也不被認(rèn)為系由客觀規(guī)則作為尋求公平的手段而賦予的,而是直接從人的本質(zhì)中歸結(jié)出來,是自然的權(quán)利。通過天賦人權(quán)觀念,啟蒙思想家表達(dá)了“人生而平等”的訴求。這是生物意義上的人(Mensch,HumanBeing)。在此層面上,個(gè)人的社會(huì)身份被褪去,人與人的原始平等性得以呈現(xiàn)。民法以眾生平等的權(quán)利能力制度回應(yīng)了這一訴求。因此賦予自然人法律主體資格是“天賦人權(quán)”的要求,是生物意義上的人的要求,是保障自然人原始平等的要求。人工智能作為以程序設(shè)計(jì)為核心,以機(jī)器人、自動(dòng)駕駛汽車等各種形態(tài)出現(xiàn)的人造非生命體,無法被納入人類種族中。因此也無法從“天賦人權(quán)”角度要求法律賦予其與自然人相同的法律主體地位,并給予相同的保護(hù)?!白杂梢庵尽崩碚撘彩强疾烊斯ぶ悄墚a(chǎn)品是否為人的重要理論淵源。德國理性自然法論的奠基人薩繆爾·普芬多夫?qū)⑷藚^(qū)分為物理存在體和倫理存在體兩種存在形式,前者指向人的自然屬性,后者指向人的倫理屬性。倫理人(personmorales)是倫理世界的主體,具備理智與意志,因而區(qū)別于動(dòng)物。后來,普芬多夫延續(xù)勒內(nèi)·笛卡爾“我思故我在”的理論,認(rèn)為理智與意志決定人的行為,義務(wù)則是自由意志的界限;基于義務(wù),倫理人具有引導(dǎo)、節(jié)制自己意思行為的自由,以此確保自由生活的秩序。啟蒙運(yùn)動(dòng)代表人物之一康德在其《實(shí)踐理性批判》一書中提出“人格”:“正是人格,也就是拜托了整個(gè)自然的機(jī)械作用的自由和獨(dú)立,但它同時(shí)卻被看作某個(gè)存在者的能力,這個(gè)存在者服從于自己特有的、也就是由他自己的理性基于的純粹實(shí)踐法則,因而個(gè)人作為感官世界的個(gè)人,就他同時(shí)又屬于理性世界而言,則服從于他自己的人格,這就不必奇怪,人作為屬于兩個(gè)世界的人,不能不帶有崇敬地在與他地第二個(gè)和最高地使命地關(guān)系中看待自己地本質(zhì),也不能不以最高的敬重看待這個(gè)使命的法則”。他指出人格應(yīng)該不只是生物存在——作為感官世界的人格,還包括理性意志——表現(xiàn)為服從自己的意志?;谧杂梢庵?,薩維尼在對(duì)康德理論發(fā)展的基礎(chǔ)上,提出權(quán)利能力和行為能力的劃分,權(quán)利能力與生物人概念相關(guān),生物人存在于外部世界,為了使他們相互支持而不是相互阻礙,需要法律來確定規(guī)則;但是權(quán)利能力“只需要以人的本質(zhì)、人的形態(tài)以及與母體分離為前提,不再需要什么理性因素”。而如何取得、實(shí)際行使權(quán)利能力則是行為能力的范疇,且后者與個(gè)體的自由意志相關(guān)。朱慶育在《民法總論》中也指出:“法律交往,民法奉行自治理念,該理念以人具有為自己理性判斷的能力為前提。與‘理性人’相呼應(yīng)的,是人的行為自由。”人工智能顯然無法突破生物人而被歸入人類中進(jìn)而享有原始權(quán)利能力。但是,以自由意志為發(fā)展方向,未來有一天,當(dāng)人工智能根據(jù)自我意志作出判斷與行動(dòng),賦予人工智能法律主體資格便具備了現(xiàn)實(shí)基礎(chǔ)。此時(shí),人工智能侵權(quán)理論會(huì)導(dǎo)致法律體系的些許變化,但并不會(huì)對(duì)侵權(quán)法理論體系造成十分巨大的影響。2.人工智能作為“法人”當(dāng)代意義上的“法人”概念為海澤首版于1807年的《供學(xué)說匯纂講授之用的普通民法體系綱要》所創(chuàng)建。在該書中,海澤將“法人”作為民法的一個(gè)抽象概念使用,與“生理人”對(duì)稱,其含義為:“法人是除了個(gè)人之外,在所有國家中被認(rèn)可為獨(dú)立之權(quán)利主體者?!庇纱?,法人可被定義為“法律認(rèn)可其主體資格的團(tuán)體”。法人法律主體資格的來源存在多種學(xué)說,“擬制說”和“實(shí)在說”是兩類具有代表性的學(xué)說?!皵M制說”認(rèn)為,只有自然人才稱得上真正的人,能夠擁有權(quán)利能力,法人則是法律擬制的產(chǎn)物,這體現(xiàn)了對(duì)自然人的尊崇。“實(shí)在說”認(rèn)為法人如同自然人,是具有實(shí)質(zhì)的組織體,而由“超個(gè)人的有機(jī)體”來操作,因此法人的人格是真實(shí)存在的。無論是“擬制說”還是“實(shí)在說”,法人所有的法律效果最終由人承擔(dān)。法人雖然為權(quán)利主體,能夠以自己的名義享有權(quán)利、承擔(dān)義務(wù),但從根本上說,它之所以能夠出現(xiàn),僅僅是為了實(shí)現(xiàn)自然人的某些特定目的,對(duì)于自然人而言,法人永遠(yuǎn)只是一個(gè)工具性的概念。分析自然人與法人的主體資格,我們發(fā)現(xiàn)法人組織主體資格的本質(zhì)是取決于人類之需求。在侵權(quán)責(zé)任規(guī)則原則可以自我調(diào)整適應(yīng)社會(huì)變化的基礎(chǔ)上,賦予人工智能法律主體資格沒有需求基礎(chǔ)。因此人工智能想要突破侵權(quán)責(zé)任主體體系,仍取決于人工智能技術(shù)是否能發(fā)展出真正的自由意志,成為真正的“人”。綜上可得,如果人工智能已經(jīng)發(fā)達(dá)到了具備主體資格的程度,如人工智能產(chǎn)生了與人一樣的自由意志,能夠在自己的支配下與他人進(jìn)行交往,那么人工智能就可能不再是人的附庸,而能夠享受權(quán)利和承擔(dān)義務(wù),這樣就可能導(dǎo)致侵權(quán)責(zé)任主體的增加,但是也難以說會(huì)引發(fā)侵權(quán)法基本理論的變化。(二)從歷史維度來看,人工智能尚未挑戰(zhàn)現(xiàn)有的侵權(quán)責(zé)任分配體系侵權(quán)責(zé)任制度起源于古羅馬《十二銅表法》中的“以眼還眼,以牙還牙”,此后的《阿奎利亞法》明確提出了“違法”(iniuria)的概念,對(duì)“私犯”成立的主觀標(biāo)準(zhǔn)加以規(guī)定。羅馬法就是在《阿奎利亞法》的基礎(chǔ)上,通過法學(xué)家的學(xué)術(shù)解釋和裁判官的判例加以補(bǔ)充、詮釋而發(fā)展的,形成了較為系統(tǒng)和成熟的以過錯(cuò)為基礎(chǔ)的歸責(zé)體系。近代大陸法系侵權(quán)法擺脫了羅馬法中以列舉具體侵權(quán)行為為特征的模式,代之以一個(gè)非常抽象的歸責(zé)原則一般條款,而其中過錯(cuò)是核心要件,最典型的代表當(dāng)屬1804年的《法國民法典》第1382條和第1383條?!斗▏穹ǖ洹返?382條規(guī)定:“人的任何行為給他人造成損害時(shí),因其過錯(cuò)(faute)致該行為發(fā)生之人應(yīng)當(dāng)賠償損害?!钡?383條:“任何人不僅因其行為造成的損害負(fù)賠償責(zé)任,而且還因其懈怠或疏忽大意造成的損害負(fù)賠償責(zé)任?!边^錯(cuò)原則取代了古羅馬以來極端結(jié)果主義責(zé)任:并非有損害必有賠償,只有行為人在違反其理性人之義務(wù)導(dǎo)致?lián)p害時(shí)才需承擔(dān)責(zé)任。而隨著近代工業(yè)革命的發(fā)展,損害事件的數(shù)量和規(guī)模都大大提高。一方面社會(huì)上企業(yè)主與勞動(dòng)者之間、生產(chǎn)者與消費(fèi)者之間出現(xiàn)了嚴(yán)重的兩極分化與對(duì)立。這兩層關(guān)系的激烈矛盾最終導(dǎo)致勞動(dòng)者與消費(fèi)者成為社會(huì)階層中相對(duì)的弱者,即所謂的“弱勢(shì)群體”,此類弱勢(shì)群體根據(jù)過錯(cuò)責(zé)任獲得損害賠償極為困難。另一方面工業(yè)化來到了大工業(yè)時(shí)期,很多侵權(quán)事故的發(fā)生是行為人不可避免的,不論是加害人抑或是受害人。過錯(cuò)責(zé)任越來越不能適應(yīng)社會(huì)實(shí)踐之需要,改革過錯(cuò)責(zé)任的時(shí)機(jī)也就來臨。兩次世界大戰(zhàn)后,侵權(quán)責(zé)任規(guī)則原則逐漸發(fā)生變化,開始強(qiáng)調(diào)法律的任務(wù)不再是滿足個(gè)人利益,而在于調(diào)節(jié)社會(huì)各種利益的沖突,以滿足人們社會(huì)利益的需要。侵權(quán)行為也由個(gè)體之間的侵權(quán),逐漸過渡到以企業(yè)行為為中心的侵權(quán),而且以企業(yè)行為為中心的侵權(quán)行為所造成的侵害由單一性向大規(guī)模和立體化的方向發(fā)展,因而導(dǎo)致現(xiàn)代侵權(quán)法向以企業(yè)侵權(quán)責(zé)任為規(guī)制重點(diǎn)的法律體系轉(zhuǎn)變。此時(shí),傳統(tǒng)大陸法系侵權(quán)法采用過錯(cuò)責(zé)任原則,但在這個(gè)時(shí)期針對(duì)大規(guī)模新出現(xiàn)的特殊侵權(quán)行為采用了嚴(yán)格責(zé)任原則。嚴(yán)格責(zé)任原則不是以責(zé)任人的過錯(cuò)為判斷標(biāo)準(zhǔn),而是基于損害的客觀發(fā)生,由法律加以具體規(guī)定。歸責(zé)原則便也由單一的過錯(cuò)責(zé)任擴(kuò)大至適用嚴(yán)格責(zé)任。1984烏爾里?!へ惪四暝凇讹L(fēng)險(xiǎn)社會(huì)》一書中提出“風(fēng)險(xiǎn)社會(huì)”的概念,由于工業(yè)化的高度發(fā)達(dá)以及在世界范圍內(nèi)的推廣,人們?nèi)粘I钪械囊恍┥a(chǎn)、經(jīng)營等行為亦成為損害之來源。邱聰智也指出:“現(xiàn)代社會(huì)權(quán)益損害現(xiàn)象之重心,已經(jīng)由傳統(tǒng)的個(gè)人間的主觀侵害行為,轉(zhuǎn)移到危險(xiǎn)活動(dòng)的損害事故,雖然許多傳統(tǒng)的歸責(zé)原理不能合理的對(duì)其進(jìn)行調(diào)整,而且非訴諸足以配合新社會(huì)事實(shí)之法理,既不能彌補(bǔ)侵權(quán)法損害之社會(huì)功能,亦根本無從達(dá)成其所欲實(shí)現(xiàn)之正義觀念者?!睘榛貞?yīng)上述實(shí)踐發(fā)展之需要,保護(hù)個(gè)人權(quán)利,嚴(yán)格責(zé)任的適用范圍被不斷擴(kuò)大,產(chǎn)品責(zé)任、危險(xiǎn)作業(yè)、核污染、機(jī)動(dòng)車交通事故等都是其產(chǎn)物。過錯(cuò)和無過錯(cuò)的二元規(guī)則體系在世界范圍內(nèi)逐漸形成,在事實(shí)上形成了以追問因果為主,以特殊保障為輔,并要求公平正義的責(zé)任原理體系??偨Y(jié)上述過程,我們可以發(fā)現(xiàn),侵權(quán)責(zé)任法的演變與社會(huì)實(shí)踐和人之主觀需求息息相關(guān)。從早期的報(bào)應(yīng)主義到后來的過錯(cuò)歸責(zé)再到現(xiàn)代社會(huì)的無過錯(cuò)歸責(zé),侵權(quán)責(zé)任的基本原理發(fā)生變化的緣由是:一是對(duì)“人”的認(rèn)識(shí)發(fā)生了變化,后文對(duì)此將有詳細(xì)分析;二是人類生活實(shí)踐的范圍愈來愈廣闊,不斷擴(kuò)張的生活實(shí)踐使人類面臨的侵權(quán)問題越來越多,因而侵權(quán)法理論也在實(shí)踐中不斷發(fā)展;三是人類交往的方式發(fā)生了巨大變化,從早期的人與人之間的交往到現(xiàn)代社會(huì)的通過他物的中介交往,導(dǎo)致了不同的交往方式要求不同的侵權(quán)法理論,進(jìn)而形成了現(xiàn)有的侵權(quán)法原理體系。由此可知,人工智能產(chǎn)品的侵權(quán)行為仍然可以歸入現(xiàn)有的侵權(quán)法體系當(dāng)中,既沒有導(dǎo)致侵權(quán)法理論的變革,自然也就無需新的、特別針對(duì)人工智能產(chǎn)品侵權(quán)行為的法律體系的建構(gòu)。(三)從實(shí)踐維度來看,人工智能技術(shù)的發(fā)展尚未深刻影響社會(huì)關(guān)系的變革人工智能產(chǎn)品要能對(duì)侵權(quán)責(zé)任的分配理論形成革命性的影響,就必然需要對(duì)社會(huì)關(guān)系有重大影響。但是,無論是當(dāng)前人工智能技術(shù)發(fā)展的階段和水平,還是人工智能對(duì)社會(huì)關(guān)系的影響,都尚未呈現(xiàn)變革性趨勢(shì)。第一,人工智能作為實(shí)踐技術(shù),目前尚處于發(fā)展的初級(jí)階段,對(duì)社會(huì)的影響尚處于預(yù)測(cè)階段或者理論階段。人工智能可以被定義為像人類一樣思考、行動(dòng)和合理化的系統(tǒng)?!叭斯ぶ悄堋备拍钍状纬霈F(xiàn)于1956年達(dá)特茅斯的人工智能夏季研討會(huì)中,距今不到80年歷史。從1950年圖靈提出“機(jī)器與智能”的概念,到1956年達(dá)特茅斯會(huì)議召開正式提出“人工智能”這個(gè)概念,再到今天人們普遍論及人工智能,70多年的時(shí)間里計(jì)算機(jī)語音識(shí)別、圖像識(shí)別、知識(shí)圖譜、專家系統(tǒng)等人工智能子系統(tǒng)技術(shù)的發(fā)展給我們的生活帶來了翻天覆地的變化。有計(jì)算機(jī)專家預(yù)測(cè)到了人工智能技術(shù)發(fā)展的迅猛性,英特爾(Intel)聯(lián)合創(chuàng)始人戈登·摩爾(GordonMoore)于1975年提出了“摩爾定律”(Moore’sLaw),計(jì)算出全球最大計(jì)算能力每兩年翻一番。這意味著它會(huì)呈指數(shù)級(jí)增長,人工智能發(fā)展的奇點(diǎn)將在2045年左右出現(xiàn)。按照這樣的發(fā)展速度,人工智能技術(shù)發(fā)生重大突破,邁入人工通用智能(AGI)、甚至人工超級(jí)智能(ASI)指日可待。在AGI時(shí)代,人工智能知識(shí)水平和思維方式與人類相差無幾,二者處于同一水平;ASI時(shí)代,人工智能則在各個(gè)方面都優(yōu)于人類,對(duì)人類地位提出了挑戰(zhàn)?;诩夹g(shù)發(fā)展前景,賦予人工智能法律地位是必要的,因?yàn)槲磥淼娜斯ぶ悄芸赡芫邆淙祟愃械哪芰ι踔粮哂谌祟悺5蔷湍壳岸?,人工智能技術(shù)顯然處于初級(jí)階段。我們當(dāng)前所說的或者論及的人工智能,與其說是“智能”,毋寧說是初步的“自動(dòng)化”。換言之,當(dāng)下我們所呈現(xiàn)出來的人工智能技術(shù)與真正的智能相比,還有一段很長的路要走。因而,現(xiàn)階段的人工智能技術(shù)水平還不足以深刻影響社會(huì)。哪怕是人工智能駕駛已經(jīng)成為現(xiàn)實(shí),或者哪怕是人工智能駕駛主導(dǎo)了所有的駕駛市場(chǎng),但是基于駕駛所導(dǎo)致的侵權(quán)責(zé)任歸責(zé)并不會(huì)產(chǎn)生重大的變化。第二,作為技術(shù)的人工智能,其發(fā)展道路并非一路高歌猛進(jìn),而是曲折中前進(jìn),這意味著人工智能技術(shù)的發(fā)展困難重重,要實(shí)現(xiàn)人工智能的重大突破或許還需要較長時(shí)間。第一代AI研究者中不乏對(duì)人工智能發(fā)展過度評(píng)價(jià)者。就計(jì)算機(jī)下象棋這一技術(shù)發(fā)展而言,赫伯特·亞歷山大·西蒙在1957年預(yù)言十年內(nèi)計(jì)算機(jī)下棋程序可以擊敗人類,明顯未果。約翰·麥卡錫在1968年和象棋大師列維十年之賭,最終仍是人類勝利。在這幾十年間雖然機(jī)器下棋的勝率不斷提高,但人類總有棋高一籌者。直至1997年IBM的“深藍(lán)”擊敗世界冠軍俄羅斯特級(jí)大師斯帕羅夫,計(jì)算機(jī)下棋才開始反超人類。馬文·明斯基也曾在1968年提出“30年內(nèi)機(jī)器智能可以和人相比”。但1974—1980年迎來了人工智能技術(shù)發(fā)展的第一次低谷。后來,康奈爾大學(xué)的實(shí)驗(yàn)心理學(xué)家羅森布拉特在一臺(tái)IBM-704計(jì)算機(jī)上模擬實(shí)現(xiàn)了一種他發(fā)明的叫做“感知機(jī)”的神經(jīng)網(wǎng)絡(luò)模型,這個(gè)模型可以完成簡單的視覺處理任務(wù)。這引起了人工智能-神經(jīng)網(wǎng)絡(luò)研究的大流行,美國國防和海軍部資助了羅森布拉特的研究項(xiàng)目,媒體也不斷夸大這一研究結(jié)果。直到馬文·明斯基和西蒙·派珀特撰寫的《感知機(jī):計(jì)算幾何學(xué)》提出羅森布皮特的神經(jīng)網(wǎng)絡(luò)模型的研究缺陷,神經(jīng)網(wǎng)絡(luò)模型研究的熱度慢慢降低,政府也逐漸停止項(xiàng)目資助,神經(jīng)網(wǎng)絡(luò)研究進(jìn)入長年“寒冬期”。對(duì)技術(shù)的盲目樂觀是有跡可循的,近年人工智能的迅速發(fā)展是過去70年人工智能研究積累的爆發(fā),推動(dòng)ANI的出現(xiàn)和急速發(fā)展。但從ANI到AGI直至ASI,不是量變的簡單累積,而需要完成質(zhì)的飛躍。目前,科學(xué)人工智能界幾乎達(dá)成了一個(gè)共識(shí),即在現(xiàn)階段不可能對(duì)人工智能的未來做出明確的預(yù)測(cè),這僅僅是因?yàn)槲覀冸x創(chuàng)造人工智能還很遠(yuǎn),更不用說理解它的含義了。人工智能的這種曲折前進(jìn),也說明智能技術(shù)尚處于初級(jí)探索階段,對(duì)社會(huì)的影響力有限;哪怕現(xiàn)階段的人工智能技術(shù)在我們看起來可能是“變革性”的,但是仍然沒有觸動(dòng)社會(huì)發(fā)展的深層動(dòng)脈。第三,作為技術(shù)的人工智能,僅僅是以技術(shù)的形態(tài)影響社會(huì)生活,尚未完全導(dǎo)致社會(huì)關(guān)系的重大變革。從侵權(quán)責(zé)任的發(fā)展史可以發(fā)現(xiàn),導(dǎo)致侵權(quán)責(zé)任從結(jié)果責(zé)任到過錯(cuò)責(zé)任,從過錯(cuò)推定責(zé)任到無過錯(cuò)責(zé)任,主要緣由是經(jīng)濟(jì)社會(huì)進(jìn)步,對(duì)人類的認(rèn)知能力、風(fēng)險(xiǎn)預(yù)防能力、權(quán)益保護(hù)能力等問題的認(rèn)識(shí)越來越深刻。換言之,經(jīng)濟(jì)社會(huì)的發(fā)展導(dǎo)致了行為方式的變化,進(jìn)而導(dǎo)致了社會(huì)關(guān)系的變革,所以侵權(quán)責(zé)任的分配方式就發(fā)生了相應(yīng)的變化。在侵權(quán)責(zé)任歸責(zé)原則以及分配方式的變革方面,起到重要影響的是社會(huì)生產(chǎn)方式的變革,而不是某一項(xiàng)科學(xué)技術(shù)的進(jìn)步。人類歷史上有過無數(shù)次科學(xué)技術(shù)的進(jìn)步,從鉆木取火到牛頓第一定律的發(fā)現(xiàn),從蒸汽機(jī)的發(fā)明到計(jì)算機(jī)的發(fā)明,都對(duì)人類社會(huì)的生活造成了無法想象的影響,它們也一度是那個(gè)時(shí)代最標(biāo)志性的發(fā)現(xiàn)或者發(fā)明,其對(duì)人類的福澤也一直延續(xù)至今。但是從本質(zhì)上說,它們都只是以技術(shù)的形態(tài)影響社會(huì)生活,而沒有直接深刻影響社會(huì)關(guān)系的變革,因而就不會(huì)對(duì)法學(xué)的發(fā)展變化有重大影響,自然也不會(huì)直接影響侵權(quán)責(zé)任的分配方式。雖然現(xiàn)代法律體系的建構(gòu)和形成與經(jīng)濟(jì)社會(huì)的發(fā)展有密切的關(guān)系,但是科學(xué)技術(shù)的發(fā)展唯有直接影響到人的行為方式的時(shí)候,才可能影響法律體系的變革。哪怕是人工智能可能在將來完全取代我們的“工作”,但是它們并沒有取代“人”。因此,已經(jīng)過時(shí)的是工作,而不是人;將要過時(shí)的是工作,也不是人。所以,如果僅僅是從人工智能技術(shù)的角度來反思單一的法律問題,或許它會(huì)促進(jìn)某個(gè)法律領(lǐng)域的拓展,但并不會(huì)帶來學(xué)術(shù)領(lǐng)域問題的根本性重構(gòu)(比如對(duì)侵權(quán)責(zé)任歸責(zé)原則的挑戰(zhàn))。然而,可以預(yù)見的是,如果人工智能技術(shù)的發(fā)展真的創(chuàng)造出了一種新型“主體”,并且被人們所認(rèn)可,那么對(duì)于人工智能產(chǎn)品的歸責(zé)以及責(zé)任分配問題的理論就需要重新討論了,因?yàn)槿斯ぶ悄茏鳛榉韶?zé)任主體與人作為法律責(zé)任主體始終存在作為“肉體的人”與“作為機(jī)器的人”的差別。當(dāng)然,需要警醒的是,回想人類歷史,同樣是作為“人”,奴隸為了獲得法律主體資格,抗?fàn)幜藷o數(shù)歲月;黑人為了獲得法律主體資格,也抗?fàn)幜溯^長歷史;即使在今天,平等的法律主體之間依然存在歧視?!皺C(jī)器人”獲得法律主體資格,恐怕并非一帆風(fēng)順的事情吧!因此,人工智能是否能動(dòng)搖民事侵權(quán)責(zé)任分配,取決于人工智能技術(shù)的實(shí)踐發(fā)展,特別是能否發(fā)展到前文所說的AGI階段,也取決于人類自身對(duì)未來的那種高科技發(fā)展境界的接受程度,但是那都是“未來”的事情。五、新興科技引發(fā)法理變革的耦合因素考量目前人工智能尚未真正引導(dǎo)法理論的變化,并非說人工智能不能引導(dǎo)法理的發(fā)展與進(jìn)步。并非任何科學(xué)技術(shù)的發(fā)展,都會(huì)必然帶來法理論的歷史性演進(jìn)。換言之,科技的發(fā)展僅是法理變革的因素之一,但是并非唯一因素。不可否認(rèn)的是,很多法理論的變革都是科學(xué)技術(shù)的變革引起的?;仡櫩萍己头傻陌l(fā)展,新興科技要能夠深刻地影響社會(huì)進(jìn)而影響法律領(lǐng)域的變革,導(dǎo)致新的法理論誕生,還必須具備多種耦合性因素,包括新興科技發(fā)展改變?nèi)藗儗?duì)事物科學(xué)規(guī)律的認(rèn)知、直接回應(yīng)法律實(shí)踐需要以及促進(jìn)社會(huì)關(guān)系的重大變化等,從而形成理論變革的合力。(一)新興科技發(fā)展改變?nèi)藗儗?duì)事物科學(xué)規(guī)律的認(rèn)知新興科技往往通過新的科學(xué)認(rèn)知引起新的法律認(rèn)知,從而引起法理論的變化。雖然人類社會(huì)的高度繁榮也帶來了高度的分工,但這并沒有成為不同學(xué)科、研究領(lǐng)域之間交流新興研究成果的障礙。相反,不同學(xué)科在各自研究領(lǐng)域的重大突破往往會(huì)引起其他學(xué)科知識(shí)的勃興,法律和科技也不例外。有學(xué)者曾指出:“作為生產(chǎn)力要素的科技指自然科學(xué)與技術(shù)。自然科學(xué)指關(guān)于各種自然現(xiàn)象及其規(guī)律的知識(shí)體系。技術(shù)泛指根據(jù)自然科學(xué)原理和實(shí)踐發(fā)展而成的各種工藝操作方法和技能?!毙屡d科技既包括具體技術(shù)工具的突破,也包括科學(xué)理論的創(chuàng)新,而無論是技術(shù)還是科學(xué)理論的創(chuàng)新,往往都反映了人們對(duì)事物科學(xué)規(guī)律的認(rèn)知。這可能改變?nèi)藗儗?duì)法律的新認(rèn)知,引起法律意義科學(xué)因果關(guān)系的發(fā)現(xiàn),并促使法律對(duì)人們的行為規(guī)律做出新的規(guī)范,推進(jìn)法律制度的規(guī)范化與科學(xué)化。第一,新興科技發(fā)展引起人們對(duì)法律的新認(rèn)知。傳統(tǒng)的法律認(rèn)知往往局限于特定的視角,新興科技發(fā)展就很容易突破傳統(tǒng)視角的窠臼,引導(dǎo)人們產(chǎn)生新的認(rèn)知,從而影響法理論的變革。以博弈論為例可以充分說明這個(gè)問題。博弈論被認(rèn)為是20世紀(jì)經(jīng)濟(jì)學(xué)的最偉大成果之一。具體來講,具有競(jìng)爭或?qū)剐再|(zhì)的行為稱為博弈行為。在博弈行為中,參與主體的利益傾向或者追逐的目的有差異。為了各自的利益需求或者目的差異,參與爭斗的主體就會(huì)考慮各種可能的方案,進(jìn)而從多元方案中選擇一種自己認(rèn)為最合適的方案。博弈論就為如何尋找這個(gè)最優(yōu)化的方案提供理論依據(jù)。博弈論的研究為人們理解法律提供了新的視角,我國著名經(jīng)濟(jì)學(xué)家張維迎教授提出:“過去的觀點(diǎn)認(rèn)為法律是有意識(shí)地由政府設(shè)立的,現(xiàn)在的研究認(rèn)為大部分法律都是自發(fā)形成的。很多法律都是由規(guī)范變來的。美國普通法的演變是一個(gè)典型的例子。它是各個(gè)參與人長期博弈的一組均衡,是長期演變的結(jié)果?!辈┺恼摰难芯勘砻鳎煌娜擞胁煌牧?chǎng)和利益,人們的行動(dòng)決策會(huì)受到對(duì)他人行為預(yù)測(cè)的影響,這改變了人們對(duì)法律是由立法者單方面頒布和實(shí)施的認(rèn)知,引起人們對(duì)法律的新認(rèn)知。而且,這樣給了立法者們警示,立法過程必須雙向交流,從而實(shí)現(xiàn)法律的最大程度的可接受性??梢姡瑹o論我們?nèi)绾谓缍ǚ傻牡匚?,法律作為社?huì)知識(shí)體系中的一部分,無法避免地受到其他領(lǐng)域知識(shí)的影響,這也為法律的進(jìn)步提供了源源不斷的知識(shí)力量。第二,新興科技發(fā)展促進(jìn)法律意義上科學(xué)因果關(guān)系的發(fā)現(xiàn)??茖W(xué)因果關(guān)系的發(fā)現(xiàn)會(huì)促進(jìn)法律發(fā)展,正如蘇力所說:“古代世界各國的許多荒謬的法律制度和責(zé)任分配制度之所以發(fā)生,一個(gè)很重要的因素就是因?yàn)楫?dāng)時(shí)的人們對(duì)事物的因果關(guān)系缺乏科學(xué)的理解,甚至是無法獲得科學(xué)的理解……隨著人類無數(shù)次錯(cuò)誤地認(rèn)定因果關(guān)系,人們逐漸累積起一些科學(xué)的因果關(guān)系判斷,因此,法律制度也隨之發(fā)生重大變革?!睔v史上人以外的對(duì)象,如動(dòng)物、非生命體等都曾是刑罰處罰的對(duì)象。而且,歷史上人類對(duì)動(dòng)物的判罰在程序上幾乎與對(duì)人類的判罰一樣?!八鼈儽粠У椒ㄍァ茵B(yǎng)動(dòng)物被帶到世俗法庭,野生動(dòng)物被帶到教會(huì)法庭。在那里,它們被正式傳訊,由律師代表出庭、審判、無罪釋放或定罪—如果罪名成立,它們將受到懲罰?!边@時(shí)人們認(rèn)為動(dòng)物的本能行為或非生命物體與客觀上的違法結(jié)果具有因果聯(lián)系,沒有區(qū)分自由意志下的行為與本能行為之間的差異。后來,人們發(fā)現(xiàn)自由意志是人類特有的品質(zhì),法律處罰動(dòng)物的本能行為與非生命物體并不能形成法律意義上的因果關(guān)系,在自由意志支配下的犯罪行為才具有可罰性。這一發(fā)現(xiàn)導(dǎo)致了現(xiàn)代責(zé)任理念的重大轉(zhuǎn)向,并逐漸形成現(xiàn)有法律責(zé)任制度。直至今天,我們?cè)谔接懭斯ぶ悄艿闹黧w責(zé)任之時(shí),也必須堅(jiān)持這種觀點(diǎn)和理論。如果人工智能尚未產(chǎn)生自由意志,那么它們依然不是獨(dú)立主體,自然也不可能獨(dú)立承擔(dān)法律責(zé)任。第三,新興科技發(fā)展促進(jìn)了法律制度的科學(xué)化與規(guī)范化。在科學(xué)的理論沒有產(chǎn)生之前,很多法律事務(wù),包括制度,都是經(jīng)驗(yàn)的產(chǎn)物。新興科技的發(fā)展,為法律制度的科學(xué)化和規(guī)范化提供了理論指南。以保險(xiǎn)法中保費(fèi)的計(jì)算方法為例,為保險(xiǎn)和養(yǎng)老金設(shè)置保險(xiǎn)費(fèi),剛開始是一件憑經(jīng)驗(yàn)的猜測(cè)而不是計(jì)算的工作。使用統(tǒng)計(jì)學(xué)制定保險(xiǎn)費(fèi)是在17世紀(jì)60年代才開始的,與概率論的產(chǎn)生是同一時(shí)間。數(shù)學(xué)領(lǐng)域?qū)Ω怕实难芯砍晒龠M(jìn)法律賠償向著統(tǒng)一化與可計(jì)算化方向發(fā)展,如侵權(quán)責(zé)任損害賠償?shù)挠?jì)算方式。如今,統(tǒng)一、標(biāo)準(zhǔn)的損害賠償法律規(guī)定已經(jīng)成為默認(rèn)的規(guī)則,如工傷賠償、機(jī)動(dòng)車肇事賠償、專利侵權(quán)賠償、消費(fèi)者賠償以及刑法中的國家賠償?shù)榷加蟹少r償標(biāo)準(zhǔn)。這也在客觀上促進(jìn)司法裁判標(biāo)準(zhǔn)的統(tǒng)一化,推動(dòng)法律制度的科學(xué)化與規(guī)范化。因此,至少在一定程度上,“由于科學(xué)技術(shù)的發(fā)展,近代以來法官的裁量權(quán)縮小了,司法不得不更為形式化了”。(二)新興科技能夠直接回應(yīng)法律實(shí)踐的現(xiàn)實(shí)需要立法意義上的法律規(guī)則是靜態(tài)意義上的法律,但在“紙面中的法”之外還有“行動(dòng)中的法”。甚至在法社會(huì)學(xué)的視野下,“行動(dòng)中的法”更能體現(xiàn)法律的品格,那些無法被落實(shí)的法律某種程度上僅僅是一種象征意義,不具備現(xiàn)實(shí)意義。人們?cè)谶\(yùn)用法律指導(dǎo)具體實(shí)踐生活時(shí)(包括司法實(shí)踐活動(dòng)),面臨著正確認(rèn)識(shí)客觀世界以及人類社會(huì)溝通的難題。此時(shí)技術(shù)工具和科學(xué)理論作為思想與行動(dòng)的橋梁,幫助人們實(shí)現(xiàn)法律指導(dǎo)下的生活。因此,新興科技若能直接回應(yīng)法律實(shí)踐的現(xiàn)實(shí)需求,便對(duì)法理論意義重大。此外,司法實(shí)踐中,在“紙面中的法”轉(zhuǎn)變?yōu)椤靶袆?dòng)中的法”這一過程中,常常因?yàn)榭陀^條件的限制導(dǎo)致二者之間存在落差。實(shí)踐中,新興科技往往因?yàn)榻鉀Q了法律實(shí)踐中的難題,推進(jìn)法律以及法理論的發(fā)展。第一,新興科技通過解決法律實(shí)踐的難題而變革法理論。從某種意義上說,紙面上的法律是一種抽象化且理想化的法律生活,是一種法律的應(yīng)然狀態(tài)。真實(shí)的法律生活,比紙面上的法律要復(fù)雜得多。比如,面對(duì)紛繁復(fù)雜的世界,如何辨別、提取出法律事實(shí)是法律實(shí)踐中的難題之一。實(shí)踐中,法律事實(shí)的提取受人們認(rèn)識(shí)客觀事實(shí)能力的影響。我國《刑事訴訟法》第二條規(guī)定“中華人民共和國刑事訴訟法的任務(wù),是保證準(zhǔn)確、及時(shí)地查明犯罪事實(shí),正確應(yīng)用法律”,明確法律適用應(yīng)以犯罪事實(shí)的查明為基礎(chǔ)。實(shí)際上,人們查明犯罪事實(shí)的能力與技術(shù)發(fā)展緊密相關(guān)。以清代刑事技術(shù)為例,法醫(yī)學(xué)檢驗(yàn)尸體僅檢驗(yàn)尸表,而不進(jìn)行解剖,這導(dǎo)致當(dāng)時(shí)的法醫(yī)學(xué)知識(shí)存在錯(cuò)誤之處。如我國現(xiàn)代醫(yī)學(xué)奠基人林幾教授指出:“按吾華《洗冤錄》舊法:謂取凈水從頭骨后下方之枕骨大孔細(xì)細(xì)斟灌。如能自鼻竅流出泥沙,便是生前溺死之證。經(jīng)本人多次實(shí)驗(yàn)此法誠不可靠。凡腐敗已行骨化之尸體鼻軟部已經(jīng)消失者,在鼻甲解部極易竄藏泥土。且生人之鼻孔后部亦往往容有少量泥垢。故由枕骨大孔沖水,而自鼻孔流出泥沙,安足視為死前吸進(jìn)溺死液之根據(jù)。”錯(cuò)誤的技術(shù)認(rèn)知一旦被類型化應(yīng)用,就會(huì)影響法律事實(shí)的提取,并容易引起冤假錯(cuò)案。這恐怕也是古代刑事審判程序中注重案件當(dāng)事人口供的原因之一。當(dāng)技術(shù)還原客觀事實(shí)的水平較低時(shí),被告人口供是可獲得的還原案件事實(shí)的主要證據(jù)。但是口供是否能達(dá)到還原案件事實(shí)的效果?經(jīng)實(shí)踐檢驗(yàn),雖然一些案件的破解確實(shí)依賴口供,但獲取口供過程中使用刑訊逼供等手段更容易引起冤假錯(cuò)案?,F(xiàn)代刑訴法體系中,雖然被告人口供仍是刑事訴訟的主要證據(jù)類型之一,但隨著刑事技術(shù)提取客觀證據(jù)的能力大大提高,物證、書證、鑒定意見等其他證據(jù)的證明力越來越高,口供在刑事訴訟中的地位也就慢慢降低。這也在技術(shù)層面推動(dòng)了刑法“禁止刑訊逼供”原則的可操作性,有力地影響了現(xiàn)代刑事司法觀念和文明的形成。第二,新興科技的應(yīng)用形成了新的法律實(shí)踐方式而變革法理論。在歷史變遷中,法律可能作為一種傳統(tǒng)而存在,特別是一些具體的實(shí)踐方式,長期以來都在影響人們的法律生活。而科技的發(fā)展,則可能使得在原有的法律生活之外,出現(xiàn)新型的法律實(shí)踐方式。比如20世紀(jì)互聯(lián)網(wǎng)技術(shù)的誕生和應(yīng)用引起了司法實(shí)踐中一種新型證據(jù)類型——電子數(shù)據(jù)的誕生。為迎合這種新型的證據(jù)類型,我國《民事訴訟法》等法律都明確認(rèn)可了“數(shù)據(jù)電文”的法律地位,即“不得僅僅以某項(xiàng)信息采用數(shù)據(jù)電文形式為理由而否定其法律效力、有效性或可執(zhí)行性”。2004年,我國首部信息化法律《電子簽名法》也明確規(guī)定“數(shù)據(jù)電文不得僅因?yàn)槠涫且噪娮?、光學(xué)、磁或者類似手段生成、發(fā)送、接收或者儲(chǔ)存的而被拒絕作為證據(jù)使用”,并建立了符合法律法規(guī)要求的數(shù)據(jù)電文保存標(biāo)準(zhǔn)。再如,隨著信息技術(shù)的進(jìn)一步發(fā)展,區(qū)塊鏈技術(shù)的成熟與應(yīng)用有望扭轉(zhuǎn)司法實(shí)踐中電子證據(jù)的這一尷尬境地,進(jìn)而引起證據(jù)法理論的變革??隙▍^(qū)塊鏈技術(shù)在數(shù)據(jù)收集、固定中自身具有的防篡改特征,并將此種技術(shù)特性轉(zhuǎn)化為法律意義上的真實(shí)性,即區(qū)塊鏈基于自身的技術(shù)特征實(shí)現(xiàn)了自我信用背書。這大大緩解了司法實(shí)踐中由于傳統(tǒng)電子數(shù)據(jù)不穩(wěn)定、易篡改、可復(fù)制性等特征而引起的證據(jù)真實(shí)性難以判定的困境。(三)新興科技發(fā)展能夠直接促進(jìn)社會(huì)關(guān)系的重大變化社會(huì)關(guān)系是人與人之間關(guān)系的總稱。從主體層面可以分為個(gè)人之間的關(guān)系,個(gè)人與群體之間的關(guān)系;從內(nèi)容層面看涉及政治、經(jīng)濟(jì)、文化等多個(gè)方面。法律對(duì)人與人之間關(guān)系的規(guī)范,也構(gòu)成社會(huì)關(guān)系的一部分。社會(huì)關(guān)系穩(wěn)定,特別是社會(huì)關(guān)系的主體穩(wěn)定,那么法理論也可能穩(wěn)定;社會(huì)關(guān)系變革,特別是社會(huì)關(guān)系的主體變革,那么法理論就容易迅速變革。第一,新興科技發(fā)展產(chǎn)生了新的生產(chǎn)生活方式。生產(chǎn)生活方式是一定時(shí)間內(nèi)的人們固有的生活模態(tài)。生活模態(tài)改變,法律生活才可能改變。比如,能源技術(shù)革新引發(fā)的工業(yè)革命,改變了人類社會(huì)的生產(chǎn)方式,社會(huì)生產(chǎn)組織從小作坊式生產(chǎn)轉(zhuǎn)為工廠型生產(chǎn),引發(fā)大量人口從

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論