歐盟《人工智能法案》圖解與合規(guī)要點啟示_第1頁
歐盟《人工智能法案》圖解與合規(guī)要點啟示_第2頁
歐盟《人工智能法案》圖解與合規(guī)要點啟示_第3頁
歐盟《人工智能法案》圖解與合規(guī)要點啟示_第4頁
歐盟《人工智能法案》圖解與合規(guī)要點啟示_第5頁
已閱讀5頁,還剩15頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領

文檔簡介

2024年5月21日,歐盟《人工智能法案》(ArtificialIntelligence(AI)Act)(以下簡稱“AI法案”)由歐盟理事會正式批準通過,并將于當?shù)貢r間8月1日正式生效。[1]至此,全球首部針對人工智能(AI)的專門性法律正式出臺。該法案于2021年4月首次提議后歷經(jīng)三年的多輪審議,最終形成了一部人工智能系統(tǒng)監(jiān)管的統(tǒng)一規(guī)則,對全球人工智能的監(jiān)管框架產(chǎn)生了借鑒意義。對于我們此前對歐盟AI法案審議草案及歐盟人工智能監(jiān)管框架的解讀,可參考《全球人工智能治理大變局之歐盟人工智能治理監(jiān)管框架評述及啟示》及《路未央,花已遍芳——歐盟《人工智能法案》主要監(jiān)管及激勵措施評述》。本文將進一步以圖示及合規(guī)要點解讀的形式,幫助中國企業(yè)了解并梳理如何適用AI法案下的合規(guī)義務,同時也將結合我國當前對人工智能監(jiān)管的規(guī)則要點,總結人工智能合規(guī)治理的要點,供讀者參閱。一、AI法案的合規(guī)義務路徑圖解根據(jù)AI法案,中國企業(yè)如涉及面向歐洲提供相關AI系統(tǒng)或技術服務的,一方面宜判斷自身提供的AI系統(tǒng)是否構成AI法案所提出的“受規(guī)制的AI系統(tǒng)”,進而根據(jù)相應的系統(tǒng)風險等級判斷所需履行的合規(guī)義務;另一方面,也需判斷企業(yè)自身是否構成AI法案下的“AI系統(tǒng)提供者”,進而適用AI法案對提供者所提出的相關合規(guī)要求(進口者、部署者、分銷者也需承擔相應的合規(guī)義務)。具體而言,可參考的判斷步驟如下:概覽Q1.何為“AI系統(tǒng)”?AI系統(tǒng):是一種基于機器的系統(tǒng),設計為以不同程度的自主性運行,在部署后可能表現(xiàn)出適應性,并且為了明確或隱含的目標,從其接收的輸入中推斷如何生成可影響物理或虛擬環(huán)境的輸出,如預測、內(nèi)容、建議或決Q2.是否提供“受規(guī)制的AI系統(tǒng)”?AI系統(tǒng)分類:不可接受的風險(Unacceptablerisk)的AI系統(tǒng);高風險(Highrisk)的AI系統(tǒng);特定風險/有限風險(Limitedrisk)的AI系統(tǒng);最小風險(Minimalrisk)的AI系統(tǒng)。Q3.是否構成AI系統(tǒng)的“提供者”?在歐盟市場內(nèi)投放或投入使用其AI系統(tǒng)——無論是否收費,無論實體是否在歐盟境內(nèi),都適用AI法案。例如:在歐盟應用商店內(nèi)作為提供者投放AI系統(tǒng);運營面向歐盟公眾訪問的網(wǎng)站,并在網(wǎng)站上提供AI系統(tǒng)的下載渠道,供歐盟公眾自行下載AI系統(tǒng)。不在歐盟市場內(nèi)投放或投入使用其AI系統(tǒng),但AI系統(tǒng)產(chǎn)生的結果被用于歐盟境內(nèi)。例如:在歐盟境內(nèi)的運營商將特定服務外包至歐盟外的主體,歐盟外的主體使用AI系統(tǒng)處理在歐盟境內(nèi)收集的數(shù)據(jù)并向歐盟境內(nèi)的運營商提供經(jīng)AI系統(tǒng)處理后的輸出結果。Q4.是否構成“不可接受風險的AI系統(tǒng)”?1.采用潛意識、操縱或欺騙技術,來扭曲行為,并損害知情決策,從而造成嚴重損害;例如:虛擬現(xiàn)實AI系統(tǒng)的作用如是為了以明顯有害的方式扭曲個人的行為,則應當受到禁止。2.利用與年齡、殘疾或社會經(jīng)濟狀況相關的弱點,來扭曲行為,造成嚴重傷害。在醫(yī)療方面的合法使用除外,例如對心理精神疾病進行治療;3.社會評分,根據(jù)社會行為或個人特征,對個人或群體進行評估或分類,從而對這些人造成有害或不利待遇;4.僅根據(jù)個人的性格特征來評估個人犯罪的風險(用于增強基于與犯罪活動直接相關的客觀、可驗證的事實的人類評估除外);5.通過從互聯(lián)網(wǎng)或閉路電視錄像中無針對性地抓取面部圖像,來編制面部識別數(shù)據(jù)庫;6.在工作場所和教育機構領域推斷自然人的情緒,除非出于醫(yī)療或安全原因;7.推斷敏感屬性(種族、政治觀點、工會會員身份、宗教或哲學信仰、性生活或性取向)的生物分類系統(tǒng)(對合法獲取的生物數(shù)據(jù)集進行標記或過濾,或執(zhí)法部門對生物特征數(shù)據(jù)進行分類時除外);8.在公共場所為執(zhí)法目的使用“實時”遠程生物識別系統(tǒng),特定情形除外。例如:執(zhí)法人員佩戴執(zhí)法記錄儀等工具實時進行遠程生物識別的,只有在不使用該工具將造成嚴重傷害的情況下才允許使用,且必須兼顧受影響個人的權利和自由。Q5.如果不涉及第4步上述情形,則公司需考慮作為AI系統(tǒng)提供者,應當履行哪些合規(guī)義務?通用AI模型:通用AI模型具有顯著的通用性,能夠勝任各種不同的任務,并可集成到各種下游系統(tǒng)或應用中。但是在投放市場前用于研究、開發(fā)或原型設計的人工智能模型除外。例如:使用大量數(shù)據(jù)進行大規(guī)模自我監(jiān)督訓練的人工智能模型。高風險AI系統(tǒng):1)未禁用的生物識別技術:遠程生物識別系統(tǒng)。根據(jù)敏感或受保護的屬性或特征的生物識別分類系統(tǒng)。情感識2)關鍵基礎設施:關鍵數(shù)字基礎設施。道路交通以及水、氣、暖和電供應的管理和運行的安全組件。3)教育和職業(yè)培訓:確定各級教育和職業(yè)培訓機構的入學、錄取或分配的AI系統(tǒng)。評估學習成果的AI系統(tǒng)。評估個人適當?shù)慕逃降腁I系統(tǒng)。監(jiān)控和檢測考試期間學生的違紀行為的AI系統(tǒng)。4)就業(yè)、工人管理和自營職業(yè):用于招聘或選拔的AI系統(tǒng)(特別是用于發(fā)布有針對性的招聘廣告、分析和篩選求職申請以及評估候選人的AI系統(tǒng))。晉升和終止合同、根據(jù)性格特征和行為分配任務以及監(jiān)測和評估績效的5)獲得和享受基本私人服務以及基本公共服務:由公共機關使用AI系統(tǒng)評估福利和服務的資格。評估信用(發(fā)現(xiàn)金融欺詐除外)。評估和分類緊急呼叫,包括調(diào)度警察、消防員、醫(yī)療救助和緊急患者分診服務。健康和人壽保險的風險評估和定價。6)執(zhí)法:用于評估個人成為犯罪受害者風險的AI系統(tǒng)。測謊儀。在刑事調(diào)查或起訴期間評估證據(jù)可靠性。評估個人犯罪或再次犯罪的風險,而不僅僅是基于分析或評估個性特征或過去的犯罪行為。在刑事偵查、調(diào)查或起訴期間進行分析。7)移民、庇護和邊境管制管理:測謊儀。非正常移民或健康風險評估。審查庇護、簽證和居留許可申請,以及與資格相關的投訴。檢測、識別或確定個人身份,但核實旅行證件除外。8)司法和民主進程:用于研究和解釋事實,并將法律應用于具體事實或用于替代性爭議解決。影響選舉和公投結果或投票行為,不包括不直接與人互動的輸出,如用于組織、優(yōu)化和構建政治運動的工具。視為高風險AI系統(tǒng)——作為產(chǎn)品安全組件或作為產(chǎn)品本身:AI系統(tǒng)屬于歐盟立法所涵蓋的產(chǎn)品,或此類產(chǎn)品的安全組件,并且根據(jù)歐盟相關統(tǒng)一立法需要進行第三方合格評定的AI系統(tǒng),視為高風險AI系統(tǒng)。其中,歐盟立法所涵蓋的產(chǎn)品,參見AI法案附件1,主要包括機械、玩具、電梯、無線電設備、醫(yī)療器械和體外診斷醫(yī)療器械等。不構成高風險AI系統(tǒng)的例外:1)AI系統(tǒng)執(zhí)行狹窄的程序任務;例如:將收到的文件進行分離。2)AI系統(tǒng)旨在改進先前完成的人類活動的結果;例如:相關AI系統(tǒng)執(zhí)行的任務是優(yōu)化既有文本所使用的語言。3)AI系統(tǒng)旨在檢測決策模式或先前決策模式的偏差,而不是在未經(jīng)適當人工審查的情況下取代或影響先前完成例如:在經(jīng)自然人打分后,通過AI系統(tǒng)檢測打分標準是否與評分規(guī)則發(fā)生偏移。有限/特定風險AI系統(tǒng)的提供者:1)與自然人直接互動的AI系統(tǒng);例如:虛擬現(xiàn)實AI系統(tǒng)。2)生成音頻、圖像、視頻或文本等內(nèi)容的通用AI系統(tǒng)。例如:經(jīng)用戶輸入關鍵詞即可生成發(fā)言稿的文字生成式AI系統(tǒng)。有限/特定風險AI系統(tǒng)的部署者:1)情緒識別AI系統(tǒng)或生物特征分類AI系統(tǒng);例如:根據(jù)個人的生物識別數(shù)據(jù)判斷個人是否快樂或悲傷的AI系統(tǒng)。2)為了向公眾提供有關公共利益問題的信息而使用的AI系統(tǒng),即對于AI系統(tǒng)生成的內(nèi)容,如果發(fā)布的目的是為了向公眾提供有關公共利益問題的信息,也需履行相應的披露義務。最小風險AI系統(tǒng):未歸入上述不可接受風險、高風險、有限風險的AI系統(tǒng),可被視為最小風險AI系統(tǒng)。例如,垃圾郵件過濾器、人工智能視頻游戲等應用程序。二、中歐人工智能治理框架下的合規(guī)要點啟示1.AI大模型訓練數(shù)據(jù)合規(guī)以高風險AI系統(tǒng)提供者的合規(guī)義務為例,AI法案主要就高風險AI系統(tǒng)提出涵蓋全生命周期的監(jiān)管機制。例如,在將高風險AI系統(tǒng)投放市場前,提供者應當開展數(shù)據(jù)治理活動,數(shù)據(jù)治理應涵蓋數(shù)據(jù)的選擇、收集、預處理例如標記、清洗等多方面。同時,數(shù)據(jù)治理還包括對數(shù)據(jù)集可能存在的偏見進行審查;如存在可能影響自然人基本權利的偏見,應當采取合理措施以減少相關偏見。在選擇數(shù)據(jù)集時,尤其應當注意有關訓練數(shù)據(jù)的數(shù)據(jù)權益爭議問題,當使用涉及他人版權或知識產(chǎn)權的數(shù)據(jù)以及可能涉及個人信息的數(shù)據(jù)作為數(shù)據(jù)源時,如何保證訓練數(shù)據(jù)的真實性與準確性是出海企業(yè)需要考量的問題之一。對此,《生成式人工智能服務管理暫行辦法》(以下簡稱“《AIGC暫行辦法》”)及配套的《生成式人工智能預訓練和優(yōu)化訓練數(shù)據(jù)安全規(guī)范》標準文件對數(shù)據(jù)治理同樣提出了一系列義務,包括使用具有合法來源的數(shù)據(jù)和基礎模型,涉及知識產(chǎn)權的,不得侵害他人依法享有的知識產(chǎn)權;涉及個人信息的,應當取得個人同意或者符合法律、行政法規(guī)規(guī)定的其他情形等。然而,在實踐訓練數(shù)據(jù)過程中,可能仍然會產(chǎn)生違規(guī)侵權的后果,其主要原因來自權利人認為大模型廠商在未獲得其授權的前提下,將其受版權法保護的內(nèi)容作為訓練數(shù)據(jù)的內(nèi)容以進行大模型訓練,構成侵權。無論是國內(nèi)還是國外,均已發(fā)生數(shù)起版權人就訓練數(shù)據(jù)使用起訴大模型廠商或AI服務提供者的案件。對此,大模型廠商多以版權的合理使用作為抗辯理由,即便是將大模型應用于商業(yè)用途。例如,北京互聯(lián)網(wǎng)法院于2024年6月在線審理的畫師起訴AI繪畫軟件開發(fā)運營者的著作權侵權案件中,被告即表示使用原告受著作權保護的作品進行大模型訓練構成合理使用。不過,由此延伸的問題即是在大模型不斷地模型訓練當中,訓練數(shù)據(jù)已更迭數(shù)代,且大模型的性能也已獲得了提高,在此過程中,如僅一批訓練數(shù)據(jù)集(例如僅占大模型整體訓練數(shù)據(jù)規(guī)模的10%)涉及侵權問題,且對應的權利人要求刪除侵權訓練數(shù)據(jù)及對應的大模型時,相應的主張能否得到支持以及能夠在多大程度上得到支持。例如,在大模型廠商未經(jīng)授權利用相關受版權保護的內(nèi)容進行訓練數(shù)據(jù)的動作結束后,僅銷毀訓練數(shù)據(jù)集可能已不具有實質(zhì)意義上的停止侵權效果;而如果全量響應權利人的需求例如銷毀基于侵權數(shù)據(jù)訓練而成的大模型,不僅可能違背了比例原則,也可能造成資源浪費。盡管在廣州互聯(lián)網(wǎng)法院(2024)粵0192民初113號一案當中,原告要求被告將涉案受到版權保護的奧特曼物料從被告的訓練數(shù)據(jù)集中刪除,但由于被告僅為AI服務的提供者,不涉及開展實際的模型訓練行為,因此該主張未得到法院的支持。因此,如何解答這一疑問,實踐暫未提供任一方向的解答。2.個人信息保護無論是AI法案還是《AIGC暫行辦法》,其均規(guī)定了個人信息的處理需遵循相應的法律要求,采取適當?shù)募夹g和管理措施從而保障訓練數(shù)據(jù)涉及的個人信息的安全性等要求,這也與《通用數(shù)據(jù)保護條例》和《個人信息保護法》確立的個人信息保護原則相一致。但在實踐中不難發(fā)現(xiàn),企業(yè)在利用涉及個人信息的訓練數(shù)據(jù)時,逐一落實個人信息主體同意的要求已無法實現(xiàn),而主張無需基于個人信息主體同意而處理個人信息的其他合法性基礎,亦存在較大局限性。以“在合理范圍內(nèi)處理已公開個人信息”的合法性基礎為例,主張大模型訓練屬于合理范圍的難度可能較大,并且如何定義“已公開個人信息”,目前尚未有進一步實踐指引。同時,一方面而言,《AIGC暫行辦法》、歐盟EDPS發(fā)布的生成式人工智能數(shù)據(jù)合規(guī)指南等均要求保護個人信息主體權利。在另一方面,在前述事實背景下,行使相關權利本身就存在一定障礙。因此,如何在不影響生成式AI系統(tǒng)有效性的前提下履行相關主體權利請求則成為需后續(xù)明確關注的事項之一。AI法案與《AIGC暫行辦法》均提出了有關提示用戶辨別AI服務的相關義務:AI法案規(guī)定生成合成音頻、圖像、視頻或文本內(nèi)容的AI系統(tǒng)提供者應確保AI系統(tǒng)的輸出以機器可讀的格式進行標注,并且可檢測相關輸出為人工生成的;《AIGC暫行辦法》規(guī)定生成式服務提供者應當按照《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》對圖片、視頻等生成內(nèi)容進行標識。值得一提的是,在廣州互聯(lián)網(wǎng)法院(2024)粵0192民初113號一案,法院認定被告存在過錯、未盡合理注意義務的理由之一即在于,被告作為AI服務提供者,并未顯著標識涉案圖片,從而確保相關主體能夠明確認識到產(chǎn)生的圖片系由AI生成。兩者提出的標識義務的底層邏輯存在相似的部分,即其本質(zhì)意義是確保用戶及公眾能夠明確地了解與意識相關服務或內(nèi)容由AI提供或生成,然而,技術實施細節(jié)及履行程度可能存在差異,例如AI法案明確提出了機器可讀的要求。因此,企業(yè)如計劃產(chǎn)品出海,應當尤為關注此類差異性要求,在大模型服務布局初期可能即需開展相關工作的部署,以保證AI服務全生命周期的整體合規(guī)性。在境內(nèi)外可能就類似監(jiān)管要求提出存在差異的執(zhí)行細則的前提下,前述議題對企業(yè)界構成了多層次的挑戰(zhàn),尤其是當本土企業(yè)計劃將其現(xiàn)有模型或(AI)系統(tǒng)推向國際市場時,如何有效調(diào)和來自不同司法管轄區(qū)間的差異化合規(guī)標準,設計出既能保護數(shù)據(jù)主體權益、增進社會福利,又兼顧商業(yè)價值的AI服務與產(chǎn)品,已成為企業(yè)合規(guī)策略中的核心議題之一。結語進一步觀察發(fā)現(xiàn),無論是歐盟AI法案還是我國的《AIGC暫行辦法》等規(guī)范性文件,均普遍遵循了共通的AI治理原則,即在確保公共利益與個人基本權利得到充分尊重與保護的基礎上,積極促進AI技術的創(chuàng)新步伐與應用廣度。具體而言,這些治理原則的實現(xiàn)依賴于監(jiān)管機制的構建與AI技術發(fā)展的動態(tài)平衡策略,一方面,要求建立健全的監(jiān)管體系,以引導并規(guī)范AI技術的健康發(fā)展軌跡;另一方面,需靈活調(diào)整監(jiān)管策略,以適應技術進步的

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論