大數據下人工智能的刑事責任分析及刑法應對_第1頁
大數據下人工智能的刑事責任分析及刑法應對_第2頁
大數據下人工智能的刑事責任分析及刑法應對_第3頁
大數據下人工智能的刑事責任分析及刑法應對_第4頁
全文預覽已結束

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

大數據下人工智能的刑事責任分析及刑法函寸一、人工智能帶來的刑事風險識別與特點(一)新型技術本身帶來的刑事風險人工智能技術的使用在生活生產過程中給人們帶來了便利,但其技術本身就有可能給人類的生活生產帶來風險,這種風險不僅包括技術不成熟帶來的風險,也包括了新型技術的過于強大給人類社會現有社會秩序及倫理道德帶來的沖擊,以至于違反現有的刑事規(guī)范。一方面,人工智能技術雖然蓬勃興起,但是在某些領域還是不成熟的,對于技術本身,其編程、算法等技術均存在“瓶頸”問題。從開發(fā)角度來說,開發(fā)工具還是零碎的、工具性的,成熟度很低。從硬件角度說,還沒有普遍使用的專用的人工神經硬件,計算理論也有待革新,運算的精確性存疑。例如自動駕駛,對于一些特殊情況,如在緊急避險時的判斷、光線昏暗時對前方路段情況的識別、自動駕駛系統(tǒng)故障后的處理,智能機器人沒有完全具備完善的辨認能力和人的思維模式,無法準確做出判斷,很有可能造成交通事故罪和危險駕駛罪的產生。另一方面,如果人工智能技術過于強大,能像人類大腦一樣思考、分析和判斷,甚至同人類一樣有喜怒哀樂的情感之時,人工智能完全有了如同人類一般的行為能力,致使人工智能完全有可能犯與人類一樣的錯誤??刂普撝妇S納在他的名著《人有人的用處》中曾在談到自動化技術和智能機器之后,得出了一個危言聳聽的結論:“這些機器的趨勢是要在所有層面上取代人類,而非只是用機器能源和力量取代人類的能源和力量。很顯然,這種新的取代將對我們的生活產生深遠影響?!苯窈螅祟惻c智能機器的關系,將可能不是純粹的利用關系,因為人工智能已經不再是機器或軟件,也不是對人的取代,成為人類的主人,而是一種共生性的伙伴關系。那個時候,原來有人類掌控及活動的世界將會隨之改變,原有的社會秩序及倫理道德也會受到沖擊,由此帶來的風險和責任如何界定及承擔就可能會是一個非常復雜的問題。(二)非法利用人工智能進行新型犯罪人工智能實現了強大的功能支持,如果不加以規(guī)范而被非法利用,有可能會引發(fā)大量的危害社會穩(wěn)定的不良行為,其犯罪活動的危害深度也不斷加深?,F有人工智能在數據采集、人臉識別及其他領域都有廣泛的應用,這些技術一旦被非法應用,人工智能就會成為犯罪的工具或者幫兇。比如個人隱私泄露的問題,人工智能技術的實現依靠于編程和算法的支持,也就意味著需要大量數據的收集,人工智能可能會作為一種有效工具,引發(fā)大數據被誤用以及濫用,不法分子可能利用收集的便利對大數據進行濫用。這種信息的泄露不只停留于收集層面,當人工智能依靠強大的分析系統(tǒng),對這些海量的數據進行分析歸納后,這些經過處理的數據被泄露后的危害進一步加大,嚴重情況下會引發(fā)組織、企業(yè)內部發(fā)展的不穩(wěn)定性,甚至會嚴重威脅我國的信息安全。(三)人工智能刑事風險的特點其實,除了典型的涉及侵犯個人信息、隱私、系統(tǒng)數據等相關犯罪案件之外,作為犯罪手段的人工智能應用也可能出現在任何一個刑法規(guī)制的罪名之中,這是由人工智能在刑事犯罪中的技術特點所決定的。一是犯罪成本降低。犯罪分子只需要利用現有技術將程序注入人工智能,人工智能就可以依據設定好的程序進行活動,與普通刑事案件比較無需更多犯罪預備投入,就可以達到犯罪目的。二是隱蔽性。犯罪分子唯一留下的犯罪痕跡將是制造、購買或是編制程序,與其他犯罪行為比較而言,沒有更多的活動痕跡或信息,對犯罪嫌疑人的追蹤比較困難。三是應用的廣泛性。由于人工智能應用領域的廣泛性,人工智能可能會出現在各類犯罪行為之中,既會出現侵犯財產權的犯罪中,也會出現在侵犯人身權的犯罪中,既會出現在侵犯金融秩序的犯罪中,也會出現在侵犯社會秩序的犯罪中,無處不在,皆有可能。因此,人工智能技術雖然給人類帶來諸多便利,但面臨的被濫用的風險卻是巨大的。特斯拉的創(chuàng)始人埃隆馬斯克(ElonMusk)一直認為,人工智能將是人類面臨的最大風險。而對于法律風險解決而言,《刑法》所規(guī)制的風險是社會規(guī)范的最大法律風險。二、人工智能的刑事責任分析(一)關于人工智能的刑事責任能力分析從刑事犯罪構成的角度看,承擔刑事責任必須具有刑事責任能力,在這一點上,自然人或法人的刑事責任能力是不存在爭議的,現有的《刑法》都對自然人的刑事責任年齡和條件非常明確,單位犯罪中單位的刑事責任能力也有規(guī)定。最大的爭議是人工智能本身是否具備刑事責任能力的問題。目前人工智能的研究始終處于淺層階段,為了杜絕人工智能反抗人類的可能性,科研人員進行研發(fā)的關鍵就是不允許機器擁有自主意識的產生與延續(xù)。因此,首先就普通人工智能而言,筆者認為人工智能依賴于科技的注入,大數據、算法等支持,這就意味著機器無法具有與人同等或類似的創(chuàng)造性、自我保護意識、情感和自發(fā)行為,所以從犯罪構成要素看,是不能構成適格的刑事責任主體的。其次,依照目前人工智能的發(fā)展情況,其不具備情感因素。由于機器沒有人的意志與感情因素,對人工智能的產物進行刑罰上的處置不會使其產生愧疚感,所以追究人工智能的刑事責任無法避免下一次犯罪的發(fā)生,真正利用人工智能的罪犯沒有受到處罰,也達不到教育與警誡民眾的意義。既然追究人工智能的刑事責任是毫無意義的,那么間接說明了其不具備刑事責任能力?;谝陨蟽牲c我們可以得出結論:普通人工智能沒有刑事責任能力,無法成為犯罪主體,追究其刑事責任也是沒有意義的。但是隨著科技的發(fā)展,人類必定會迎來更高水平的強人工智能時代,創(chuàng)造出高度擬人態(tài)的智能機器人。此時的人工智能具備深度學習能力、自主意識,能夠辨認和控制自己的行為能力,這同時也存在著巨大的風險。因此,當人工智能通過自主學習,超出設計和編制的程序,可以在自主意志的支配下進行活動時,便不再屬于工具的范疇。強人工智能具備自主意識、能夠辨認和控制自己行為能力,這種意志自主性不同于動物,是與人類高度相似的,從刑法犯罪構成來講,將會具備客觀方面的故意或過失,符合刑法犯罪主體的要求,具備刑事責任能力,能夠成為刑事責任主體。強人工智能符合其和自然人、單位實施共同犯罪時的客觀事實和主體要件,同時滿足刑事責任分擔。此時的人工智能不再是設計者或使用者行為的延伸,很可能在自主意識的支配下,超越原先程序設計和編制范圍實施危害社會的行為。行為所產生的后果和刑事責任也不應該向研發(fā)人員或使用人員追究,而應由智能機器人獨立承擔。[1](二)關于人工智能的刑事責任主體分析分析完人工智能的刑事責任能力問題之后,并不意味著已經解決了犯罪主體問題,實際上,因為涉及人工智能的開發(fā)、銷售、應用的過程和人工智能本身的行為能力問題,對于不同的人工智能及人工智能在犯罪過程中所起的作用和地位,將有可能會有不同的主體來承擔責任。因此刑事責任主體也相應涉及到了自然人或單位和人工智能本身兩方面作為相關人工智能犯罪的主體。.關于自然人或單位在相關人工智能犯罪中的主體分析如前所述,相關普通人工智能的刑事責任應該從根源上追究利用人工智能進行犯罪和使用人工智能不當導致過失犯罪的主體。當人工智能的行為在人類設計和編制的程序范圍內進行,人工智能只是犯罪的一種工具,與其他刀、槍這

樣一般的犯罪工具無異。所以人工智能的行為只能看作是制造者或使用者行為的外延,其實施的犯罪行為是設計者和使用者意志的體現,行為所產生的后果也應全部歸責于研發(fā)者或使用者。從研發(fā)者的角度分析,如果研發(fā)的相關人員違反了相應的法律規(guī)范,涉及人工智能并施行對社會造成嚴重危害的行為,應追究其刑事責任,如生產銷售偽劣產品罪、生產銷售不符合安全標準的產品罪等。從銷售者的角度分析,在銷售人工智能的環(huán)節(jié),銷售者應該對其進行質量分析、危險性測試,在最大程度上減小因人工智能本身導致的意外事故,如果銷售者的責任缺失則同樣有可能導致犯罪。從使用者的角度分析,把人工智能當成犯罪工具,利用人工智能進行犯罪的,應分情況追究研發(fā)者和使用者利用弱智能機器人故意犯罪的刑事責任。第一,若人工智能本身存在缺陷,使用者沒有犯罪故意與過失,則追究制造者的責任;使用者明知這種缺陷的存在仍然故意利用弱智能機器人實施犯罪行為,可能構成間接正犯,構成故意傷害罪、交通肇事罪等多種故意犯罪。第二,若人工智能在其設計范圍內運行,研發(fā)者僅具有讓智能機器人實施合法行為的目的,由于使用者的不當使用,使得弱智能機器人造成對社會或個人的嚴重損害,則應根據使用者是否存在造成損害的主觀故意,追究使用者的故意或過失的刑事責任,[2]例如過失致人重傷罪、重大責任事故、詐騙罪、盜竊罪等。.人工智能本身作為犯罪主體分析如前所述,一旦人工智能強大到有人類一樣的大腦思考思維和決策能力,且非設計者及使用者所能控制,人工智能也就可能具備了相應的刑事責任能力。此時的人工智能,如果實施設計者和使用者意志以外的行為,觸犯了刑法的規(guī)定,則也會構成犯罪,成為犯罪主體。但是問題在于如何承擔刑事責任,現有刑事處罰種類是解決不了這個問題的,更應當考慮的是是否需清除所有人工智能的數據,報廢處理。三、人工智能的刑法應對(一)增強和完善監(jiān),(一)增強和完善監(jiān),(一)增強和完善監(jiān),:體系(一)增強和完善監(jiān),:體系對于監(jiān)督管理部門來說,要提高研究與制造人工智能的門檻,加強對人工智能產業(yè)鏈和對后續(xù)使用的監(jiān)督。人工智能在挖掘分析大數據時,不能忽視對公民個人信息的保護。由于人工智能可以對大數據技術進行系統(tǒng)化掌握以及科學化運用,一旦過度分析會侵犯公民的隱私空間,使公民生活透明化。所以在開發(fā)以及使用人工智能產品的過程中必須嚴格保障數據信息所具有的安全性,從而避免數據被誤用或是濫用。[3]數據信息的保護從小的方面說是涉及個人隱私,從大的方面說則可能涉及國家安全,今年某出行平臺公司在美國境外上市中發(fā)現涉及違規(guī)收集個人信息的問題,導致網信辦調查與處理,與其相關的20多個APP下架,便是一個明證。可以預見的是,今后我國在數據信息安全審查方面將會越來越嚴格。對于偵查部門,要提高辦案人員辦案能力,了解更多的專業(yè)知識和犯罪嫌疑人可能的作案手段,與時俱進,學習與人工智能相關的知識,各部門加強配合有利于偵破相關流竄詐騙罪等多地犯罪。(二)完善刑法體系相較過去傳統(tǒng)的犯罪活動,濫用人工智能的破壞性更大,所以要在最大程度上確定人工智能使用者以及開發(fā)者的義務、權利,才可以嚴格控制使用過程以及研發(fā)過程,有助于降低我國人工智能技術的安全危害。但是僅僅依靠我國現行的刑法體系難以徹底解決這種新型犯罪,針對人工智能犯罪頒布專門的單行刑法很有必要,完善相關的法律法規(guī)和司法解釋并在其中細分犯罪類型和處罰方法。

首先,應先完善現有的刑法體系,將與人工智能相關的新型犯罪納入到刑法體系。明確對開發(fā)者、銷售者、使用者和管理者等不同主體的義務。在研發(fā)人工智能產品的過程中,有必要在研發(fā)生產的所有步驟、環(huán)節(jié)方面融入人類社會的價值體系以及法律規(guī)范,從而保障人工智能產品對社會規(guī)范進行嚴格遵守。其次,在使用人工智能產品的過程中必須嚴格保障數據信息的安全性,從而避免數據被誤用或是濫用,應擴大侵犯個人隱私罪的范圍,將個人隱私以及其他對公民生活具有重要影響的信息也納入刑法有關公民的個人信息的保護范圍,監(jiān)督好制造、使用人工智能過程中是否合法,對未經允許擅自挖掘、利用用戶個人信息造成嚴重后果的行為進行處罰。[4]對于強人工智能而言,要加強對其的監(jiān)管。對其超出設計和編制的程序、在自主意志下進行的犯罪,必須予以刑事處罰。但是對于人工智能的刑事處罰又區(qū)別于對自然人的刑事處罰,由于人工智能歸根到底依舊是人類社會活動的產物,始終不是一

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論