2025可信人工智能治理白皮書_第1頁
2025可信人工智能治理白皮書_第2頁
2025可信人工智能治理白皮書_第3頁
2025可信人工智能治理白皮書_第4頁
2025可信人工智能治理白皮書_第5頁
已閱讀5頁,還剩42頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

版權(quán)聲明COPYRIGHT

STATEMENT本報告版權(quán)屬于出品方所有,并受法律保護。轉(zhuǎn)載、摘編或利用其

他方式使用報告文字或者觀點的,應(yīng)注明來源。違反上述聲明者,

本單位將追究其相關(guān)法律責任。出品方安永(中國)企業(yè)咨詢有限公司

上海市人工智能與社會發(fā)展研究會21世紀人類社會迎來了前所未有的技術(shù)革命——人工智能(AI)的興起。它以迅雷不

及掩耳之勢,滲透到我們生活的方方面面,重塑著我們的認知和社會格局。它不僅極大地

提高了生產(chǎn)效率,還為解決復雜的社會問題提供了新的視角和工具。然而,隨著AI技術(shù)的迅猛發(fā)展,其所帶來的倫理、法律和社會問題也日益凸顯,

如何確保AI技術(shù)的“可信”屬性,

成為全球關(guān)注的焦點。在此背景下,

《可信人工智能治理白皮書》應(yīng)運而生。本白皮書由安永(中國)企業(yè)咨詢有限公司和上海市人工智能社會發(fā)展研究會聯(lián)合撰寫,

旨在深入探討人工智能的全球發(fā)展態(tài)勢、監(jiān)管體系、可信原則、關(guān)鍵問題、企業(yè)合規(guī)要求、風險治理理論、進階工具以及行業(yè)洞察等多個方面。我們希望通過這份白皮書,

為政策制定者、企業(yè)管理者、技術(shù)開發(fā)者以及所有關(guān)心AI發(fā)展的讀者,提供一份全面、深入、客觀的參考和指導。在這份白皮書中,我們將重點探討“可信人工智能”的內(nèi)涵,分析其在算法透明度、數(shù)

據(jù)安全、倫理道德等方面所面臨的挑戰(zhàn)。同時,我們也將關(guān)注企業(yè)在AI應(yīng)用中的合規(guī)要求以及風險治理這一AI發(fā)展中的重要議題。本白皮書將詳細闡述風險治理架構(gòu)的構(gòu)建,以及

如何在AI的生命周期中實施有效的風險管理。此外,我們還將介紹企業(yè)AI治理的進階工具——可信AI等級標識,為企業(yè)構(gòu)建和完善自身的AI治理體系提供實用的指導。在提供有效的

AI治理工具的同時,我們也將聚焦具有啟發(fā)性的行業(yè)實踐。我們將深入

分析汽車、醫(yī)藥、零售、服務(wù)等行業(yè)在AI應(yīng)用上的現(xiàn)狀和挑戰(zhàn),以及這些行業(yè)如何構(gòu)建和

運營自己的AI管理體系。通過這些行業(yè)案例,我們希望能夠為讀者提供具體的行業(yè)應(yīng)用視角,以及在實際操作中可能遇到的問題和解決方案。在這份白皮書的撰寫過程中,我們深刻感受到

AI

技術(shù)的發(fā)展不僅僅是技術(shù)層面的突破,

更是對人類社會價值觀、倫理道德和法律體系的一次全面考驗。我們相信,只有通過不斷提高對風險的把控能力,預(yù)判、分析和應(yīng)對潛在的治理問題,建立起一套公正、透明、高效的AI治理體系,才能確保AI技術(shù)的健康發(fā)展,讓它成為推動人類社會進步的正能量。在此,我們誠摯地邀請您一同走進AI的世界,探索其無限可能,同時也思考和面對它

所帶來的挑戰(zhàn)。讓我們攜手前行,在AI的時代中,共同尋找可信AI實現(xiàn)的最佳路徑。前言FOREWORD第一章全球人工智能發(fā)展與監(jiān)管體系1.1全球人工智能發(fā)展概述1.1.1

歐盟人工智能發(fā)展1.1.2美國人工智能發(fā)展1.1.3

中國人工智能發(fā)展1.2“可信人工智能”概念提出第二章人工智能的可信原則2.1G20人工智能可信原則2.2歐盟可信人工智能原則2.3安永觀點:可信人工智能原則第三章可信人工智能的關(guān)鍵問題3.1算法黑箱與信息繭房問題3.2算法偏見問題3.3數(shù)據(jù)安全問題3.3.1底層數(shù)據(jù)源3.3.2數(shù)據(jù)泄露3.3.3

出海涉及相關(guān)數(shù)據(jù)出境規(guī)制3.4

內(nèi)生安全問題3.4.1人工智能基礎(chǔ)設(shè)施安全風險3.4.2數(shù)據(jù)安全風險3.4.3模型安全風險3.4.4應(yīng)用服務(wù)安全風險3.5科技倫理問題第四章企業(yè)級AI的合規(guī)要求4.1資質(zhì)監(jiān)管要求4.1.1互聯(lián)網(wǎng)信息服務(wù)提供者的基礎(chǔ)資質(zhì)4.1.2提供具體服務(wù)的特殊資質(zhì)4.2算法合規(guī)要求4.2.1算法備案要求4.2.2算法評估要求4.2.3算法透明性要求4.3

內(nèi)容合規(guī)要求4.3.1生成內(nèi)容審核義務(wù)4.3.2生成內(nèi)容標識義務(wù)4.3.3建立投訴舉報機制11112355668899101010101010111111121212121313131415151616目錄Comtents可信人工智能治理

白皮書第五章人工智能風險治理5.1風險治理架構(gòu)5.1.1風險治理架構(gòu)對企業(yè)的指導5.1.2風險治理架構(gòu)對創(chuàng)新的推動5.1.3風險治理架構(gòu)對市場的維護5.2生命周期風險治理5.2.1風險管理左移5.2.2敏捷管理模式5.2.3審慎評估及監(jiān)控5.3人員風險治理第六章企業(yè)

AI治理進階工具6.1AI治理國際標準6.1.1ISO42001

的意義與價值6.1.2

ISO42001

內(nèi)容簡介6.2AI治理可信等級管理6.2.1可信AI治理等級標識6.2.2可信AI治理等級標識服務(wù)6.2.3可信AI治理重點領(lǐng)域解析第七章行業(yè)洞察與

AI治理情況調(diào)研7.1汽車行業(yè)調(diào)研7.1.1汽車行業(yè)人工智能技術(shù)的應(yīng)用7.1.2汽車行業(yè)對人工智能技術(shù)應(yīng)用的普遍認知7.1.3汽車行業(yè)人工智能技術(shù)應(yīng)用的挑戰(zhàn)7.1.4汽車行業(yè)人工智能管理體系的搭建與運營7.2

醫(yī)藥行業(yè)調(diào)研7.2.1

醫(yī)藥行業(yè)人工智能技術(shù)的應(yīng)用7.2.2

醫(yī)藥行業(yè)對人工智能技術(shù)應(yīng)用的普遍認知7.2.3

醫(yī)藥行業(yè)人工智能技術(shù)應(yīng)用的挑戰(zhàn)7.2.4

醫(yī)藥行業(yè)人工智能管理體系的搭建與運營7.3零售行業(yè)調(diào)研7.3.1零售行業(yè)人工智能技術(shù)的應(yīng)用7.3.2零售行業(yè)對人工智能技術(shù)應(yīng)用的普遍認知7.3.3零售行業(yè)人工智能技術(shù)應(yīng)用的挑戰(zhàn)7.3.4零售行業(yè)人工智能管理體系的搭建和運營17171818191920202122232323242424252528282828292929303030313131323232目錄Comtents可信人工智能治理

白皮書第七章行業(yè)洞察與

AI治理情況調(diào)研7.4服務(wù)行業(yè)調(diào)研7.4.1服務(wù)行業(yè)人工智能的應(yīng)用7.4.2服務(wù)行業(yè)對人工智能技術(shù)應(yīng)用的普遍認知7.4.3服務(wù)行業(yè)人工智能技術(shù)應(yīng)用的挑戰(zhàn)7.4.4服務(wù)行業(yè)人工智能管理體系的搭建與運營第八章AI應(yīng)用的典型案例8.1典型案例一:某互聯(lián)網(wǎng)平臺公司內(nèi)部人工智能技術(shù)應(yīng)用8.1.1人工智能技術(shù)使用現(xiàn)狀8.1.2人工智能模型使用與評估8.1.3人工智能技術(shù)投入分析8.2典型案例二:典型案例二:某汽車公司內(nèi)部人工智能技術(shù)應(yīng)用8.2.1人工智能模型使用現(xiàn)狀8.2.2人工智能模型使用與評估8.2.3人工智能技術(shù)投入分析結(jié)語參考文獻目錄Comtents2833333434353636363637373738383939可信人工智能治理

白皮書第一章全球人工智能發(fā)展與監(jiān)管體系01當前,全球人工智能正處于技術(shù)創(chuàng)新、重塑行業(yè)、重新定義我們與技術(shù)互動方式的快速更迭階段。AI技術(shù)已經(jīng)走出實驗室,逐漸嵌入醫(yī)療、金融、零售、制造、交通、娛樂

等行業(yè)領(lǐng)域的各項應(yīng)用之中,社會也隨之展開深刻變革。據(jù)

Fortune

Business

Insights預(yù)

測,人工智能市場預(yù)計將在未來十年內(nèi)出現(xiàn)強勁增長,預(yù)計將從2024年的6211.9億美元

增長到2032年27404.6億美元1。面對這一潛力巨大的顛覆性技術(shù),全球各國競相發(fā)力,

正在共同將人工智能發(fā)展推向時代浪潮頂峰。PART制,以促進自愿適用高風險人工智能系統(tǒng)的部分或全部強制性要求。此外,歐盟委員會正在制定《人工智能責任指令》

(Artificial

Intelligence

Liability

Directive),

該指令

草案提出于2022年9月28

日,

旨在為人工智能系

統(tǒng)造成的、非合同類責任的特定類型損害提供統(tǒng)

規(guī)則,解決舉證責任難的問題,確保受到人工智能技術(shù)傷害的人能夠獲得經(jīng)濟補償。該提案共九條,

主要規(guī)定了高風險人工智能提供者的證據(jù)披露義務(wù)、

過錯與

AI輸出之間因果關(guān)系的推定兩方面核心內(nèi)容。1.1.2美國人工智能發(fā)展美國正在選擇

種針對特定行業(yè)的方法

(sector-specific

approach)。2023年9月,

美國參議員和眾議員提出的《2023年算法問責法案》草

案(AlgorithmicAccountabilityActof2023)為受人

工智能系統(tǒng)影響的人們提供了新的保護措施。該法案適用于用于關(guān)鍵決策的新型生成式人工智能系統(tǒng),1.1.1歐盟人工智能發(fā)展歐盟《人工智能法案》是全球首部全面且具影

響力的人工智能法規(guī),于

2024

5

21日獲批通過,

并于2024年8月1

日正式生效。該法案將“人工智

能系統(tǒng)”定義為一種基于機器的系統(tǒng),被設(shè)計為以不

同程度的自主性運行,并且在部署后可能表現(xiàn)出適

應(yīng)性。該系統(tǒng)基于明確或隱含的目標,從接收到的輸入中推斷如何生成可影響物理或虛擬環(huán)境的輸出,例如預(yù)測、內(nèi)容、推薦或決策。《人工智能法案》

采取了基于風險的方法,將人工智能系統(tǒng)分為最低

風險、低風險、高風險和不可接受風險這四級。其中,認知行為操縱和社會評分等具有不被接受風險的人

工智能系統(tǒng)被禁止進入歐盟市場;高風險人工智能

系統(tǒng)需要獲得批準,同時需要遵守技術(shù)要求、風險

管理、數(shù)據(jù)治理、透明度等一系列要求和義務(wù)才被

允許進入歐盟市場;其他非高風險人工智能系統(tǒng)的

提供者則被鼓勵制定行為守則,包括相關(guān)的治理機1.1全球人工智能發(fā)展概述截至2024年,全球共有69個國家和地區(qū)制定了人工智能相關(guān)政策和立法,涵蓋了從

AI治理、隱私保護、

數(shù)據(jù)監(jiān)管到倫理規(guī)范等廣泛的主題,反映了各國對

AI技術(shù)發(fā)展的重視及其潛在風險的管理需求。以下國家或地區(qū)明確針對人工智能出臺了立法或監(jiān)管要求:第一章全球人工智能發(fā)展與監(jiān)管體系

01可信人工智能治理

白皮書intelligencesystems)的法案。該法案將高風險人工智能系統(tǒng)定義為任何在投入使用時能夠做出重大決

策或在做出重大決策中起到關(guān)鍵作用的人工智能系

統(tǒng),要求高風險人工智能系統(tǒng)的開發(fā)者(developer)

向部署者(deployer)披露有關(guān)高風險系統(tǒng)的特定信

息、提供完成影響評估所需的信息和文件,并要求

部署者實施風險管理政策和程序,定期進行影響評

估,并向消費者披露其交互對象的人工智能系統(tǒng)的

某些通知,以避免高風險人工智能系統(tǒng)內(nèi)的算法歧視。再如,

2022年伊利諾伊州頒布了《人工智能視

頻面試法案》(Artificial

IntelligenceVideo

InterviewAct

in2022)

,對使用人工智能分析視頻面試的雇

主提出要求。加利福尼亞州、新澤西州、紐約州、佛蒙特州和華盛頓特區(qū)也提出了相關(guān)立法,規(guī)范人

工智能在招聘和晉升中的使用。1.1.3

中國人工智能發(fā)展2024年5月,“人工智能法草案”被列入《國務(wù)

院2024年度立法工作計劃》。盡管目前我國尚未出

臺人工智能專門立法,但已初步建立限制和規(guī)范人

工智能開發(fā)與應(yīng)用的法律框架,即以《中華人民共

和國網(wǎng)絡(luò)安全法》《中華人民共和國數(shù)據(jù)安全法》《中

華人民共和國個人信息保護法》以及《中華人民共

和國科學技術(shù)進步法》為基礎(chǔ),由《互聯(lián)網(wǎng)信息服

務(wù)算法推薦管理規(guī)定》《互聯(lián)網(wǎng)信息服務(wù)深度合成

管理規(guī)定》《生成式人工智能服務(wù)管理暫行辦法》

等一系列規(guī)范文件發(fā)揮主要監(jiān)管作用,同時配有《互聯(lián)網(wǎng)信息服務(wù)管理辦法》《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理

規(guī)定》《具有輿論屬性或社會動員能力的互聯(lián)網(wǎng)信

息服務(wù)安全評估規(guī)定》等關(guān)聯(lián)法律法規(guī)。其中,

《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》

構(gòu)建了算法監(jiān)管的機制,確定了算法服務(wù)的監(jiān)管部

門,為算法服務(wù)提供者設(shè)定了算法備案等合規(guī)義務(wù)

與監(jiān)管要求義務(wù);

《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》進一步規(guī)范了深度合成服務(wù)提供者、技術(shù)支撐者的行為;《生成式人工智能服務(wù)管理暫行辦法》以及其他人工智能和自動化系統(tǒng),要求公司評估其使用和銷售的人工智能系統(tǒng)的影響,為何時以及如何使用此類系統(tǒng)創(chuàng)造新的透明度,使消費者能夠在

與人工智能系統(tǒng)交互時做出明智的選擇。同年10月,拜登總統(tǒng)簽署了一項人工智能行

政命令《關(guān)于安全、可靠和可信賴地開發(fā)和使用人

工智能的行政命令》(ExecutiveOrderonthe

Safe,

Secure,

and

Trustworthy

Development

and

Use

of

Artificial

Intelligence),為人工智能安全、安保、隱

私保護、促進公平和公民權(quán)利、促進競爭和創(chuàng)新建

立了新的基準。該行政命令要求制定一份國家安全

備忘錄,以指導人工智能在軍事和情報行動中的安

全和合乎道德的應(yīng)用,確保保護美國人的隱私,并

培育一個開放、競爭激烈的人工智能市場,強調(diào)美

國的創(chuàng)新。為應(yīng)對人工智能生成內(nèi)容的知識產(chǎn)權(quán)挑戰(zhàn),美國專利商標局(USPTO)和版權(quán)局(USCO)

經(jīng)發(fā)布了相關(guān)執(zhí)法行動和指南。2024年2月,美

國專利商標局發(fā)布的關(guān)于人工智能輔助發(fā)明的詳細

南(AI

and

inventorship

guidance:

Incentivizinghuman

ingenuity

and

investment

in

AI-assisted

inventions)明確規(guī)定了AI輔助創(chuàng)新中的發(fā)明權(quán)確定

問題,即人類貢獻必須足夠顯著才能獲得專利保護。2023年,美國版權(quán)局發(fā)布的“包含人工智能生成材料的

作品”(Works

Containing

Material

Generated

byArtificial

Intelligence)

的政策規(guī)定,

如果作品純粹由

AI生成,除非有顯著的人類創(chuàng)作參與,否則不符合版權(quán)保護條件。如果人類在

AI

生成材料的選擇、

安排或修改中作出了重大貢獻,則人類創(chuàng)作元素可

獲得版權(quán)保護。此外,

美國一些州也已經(jīng)在人工智能相關(guān)領(lǐng)

域制定監(jiān)管法律。例如,2024

5

17

日,

科羅

拉多州州長簽署了參議院第24-205號《關(guān)于在人

工智能系統(tǒng)交互中保護消費者權(quán)益》(Concerning

consumer

protections

in

interactions

with

artificial第一章全球人工智能發(fā)展與監(jiān)管體系

02可信人工智能治理

白皮書圖1

中美歐人工智能監(jiān)管區(qū)分1.2“可信人工智能”概念提出人工智能的可信已經(jīng)成為全球各國在發(fā)展人工智能中的一致性原則。全球范圍內(nèi)諸多自律性標準或文件都

對“可信人工智能”提出了具體要求。對生成式人工智能服務(wù)提供者規(guī)定了數(shù)據(jù)和基礎(chǔ)模型的來源合法、數(shù)據(jù)標注、網(wǎng)絡(luò)安全、未成年人保

護以及評估備案等一系列合規(guī)義務(wù),明確了提供者

的網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者責任。隨著全球各國逐步加大對人工智能技術(shù)的立法

和監(jiān)管力度,各種法律和監(jiān)管規(guī)范不斷涌現(xiàn)。然而,僅僅依靠法律和監(jiān)管并不足以全面應(yīng)對人工智能帶來的技術(shù)黑箱、信息隱匿、責任錯綜復雜等多維度

的挑戰(zhàn),與之對應(yīng)的治理能力明顯具有滯后性,可

信人工智能治理已然成為全球各國確保前沿技術(shù)創(chuàng)

新、先進法律制度發(fā)展和國家安全的核心議題。圖2全球自律性文件及“可信人工智能”概念第一章全球人工智能發(fā)展與監(jiān)管體系

03可信人工智能治理

白皮書歐盟《可信人工智能倫理指南》《G20人工智能原則》《人工智能風險管理框架》和《G7行為準則》共同關(guān)注著人工智能的技術(shù)穩(wěn)健性和安全性、AI系統(tǒng)透明度、非歧視和非偏見的公平性以及可問責性。在此基礎(chǔ)上,本白皮書將“可信人工智能”定義為設(shè)計、開發(fā)和部署技術(shù)可靠、安全,

能夠輸出不帶歧視和偏見的公正結(jié)果,

基本原理和運行過程透明,可問責且以人為本的人工智能系統(tǒng)。在我們開始探究可信人工智能相關(guān)問題之前,需要首先對可信人工智能提供者、部署者等概念進行界定,厘清概念之間相關(guān)性。在人工智能的語境中,提經(jīng)常被本白皮書采用歐盟《人工智能法》第三條對于提供者(provider)和部署

者(deployer)的定義。

提供者(provider):開發(fā)人工智能系統(tǒng)或通用人工智能模型,或已開發(fā)人工智能系統(tǒng)或通用人工智能模型,并將其投放市場或以自己的名義或商標提供服務(wù)的自然人或法人,公共機關(guān)、機構(gòu)或其他團體,無論有償還是無償。

部署者(deployer):在其授權(quán)下使用人工智能系統(tǒng)的任何自然人或法人、公共機關(guān)、機構(gòu)或其他團體,

但在個人非職業(yè)活動中使用人工智能系統(tǒng)的情況除外。第一章全球人工智能發(fā)展與監(jiān)管體系

04可信人工智能治理

白皮書第二章人工智能的可信原則02為了確保人工智能技術(shù)的健康發(fā)展,推動其在促進科技創(chuàng)新和經(jīng)濟發(fā)展中發(fā)揮積極作用,我們必須著眼于構(gòu)建可信人工智能體系??尚湃斯ぶ悄艿暮诵脑谟?,其設(shè)計、開發(fā)

和部署過程中必須嚴格遵循一系列基本原則,包括但不限于安全性、公平性、可解釋性和

隱私保護。這些原則不僅關(guān)乎人工智能技術(shù)的內(nèi)在可信度,更關(guān)系到其與人類社會的和諧共融。安永認為相關(guān)利益方應(yīng)積極理解AI的核心原則,建立可信人工智能體系,構(gòu)建AI治理與風險管理架構(gòu),并隨著監(jiān)管態(tài)勢、科技發(fā)展、社會生產(chǎn)力等變化動態(tài)調(diào)整,以實現(xiàn)可持續(xù)發(fā)展進步。PART《G20貿(mào)易和數(shù)字經(jīng)濟部長聲明》中提出的人工智能原則是在2019年由G20成員共同商定的一

套國際性指導原則,旨在確保人工智能的發(fā)展方向能夠符合人類社會的共同利益,人工智能應(yīng)用是可

持續(xù)、負責任和以人為本的。所有利益相關(guān)者,根

據(jù)各自的角色,秉持以下原則對可信人工智能進行

負責任管理。1

.包容性增長、可持續(xù)發(fā)展及福祉應(yīng)積極負責任地管理值得信賴的

AI,以追求人類和地球的有益成果,從而振興包容性增長,可持

續(xù)發(fā)展和福祉。增強人的能力和創(chuàng)造力,促進和包

容代表性不足的人,減少經(jīng)濟,社會,性別和其他

不平等,保護自然環(huán)境。2.

尊重法治、人權(quán)以及民主價值觀,包括公平

和隱私應(yīng)尊重法治、人權(quán)、民主和在整個AI

系統(tǒng)生命

周期中以人為本的價值觀。這些包括不歧視和平等、

自由、尊嚴、個人自主,

隱私和數(shù)據(jù)保護、多樣性、

公平性、社會正義以及國際公認的勞工權(quán)利。為此

目的,還應(yīng)實施適合于環(huán)境和符合技術(shù)水平的機制和保障措施。3

.透明度和可解釋性應(yīng)致力于負責任地披露

AI系統(tǒng)信息。為此,應(yīng)

提供適合于客觀實際并符合技術(shù)發(fā)展水平的有意義的信息:促進對AI系統(tǒng)的普遍理解;讓利益相關(guān)者

了解與

AI系統(tǒng)的互動情況;

使受

AI系統(tǒng)影響的人能夠理解系統(tǒng)的結(jié)果;

使受到

AI系統(tǒng)不利影響的人能

夠根據(jù)相關(guān)因素的簡單易懂的信息,作為預(yù)測、建議或決策基礎(chǔ)的邏輯來源,

并可質(zhì)疑

AI系統(tǒng)產(chǎn)生不

利影響。4

.穩(wěn)健性、安全性和保障性AI系統(tǒng)應(yīng)在整個生命周期內(nèi)保持穩(wěn)健、安全和

有保障,從而在正常使用、可預(yù)見的使用或誤用,

或其他不利條件下,能夠正常運作,避免造成不合

理的安全風險。還需確保如果人工智能系統(tǒng)有風險

導致不當傷害或表現(xiàn)出不良行為的,可以被覆蓋、

修復或根據(jù)需要安全退役。在技術(shù)上可行的情況下,

還應(yīng)加強信息廉潔,同時確保尊重言論自由。5.

問責制應(yīng)對人工智能系統(tǒng)的正常運作負責,并對人工2.1G20人工智能可信原則第二章人工智能的可信原則

05可信人工智能治理

白皮書2019年4月8

日,

歐盟人工智能高級別專家組發(fā)布《人工智能倫理指南》(Ethics

Guidelinesfor

Artificial

Intelligence),提出了人工智能系統(tǒng)應(yīng)滿足

的七項關(guān)鍵要求,才能被視為可信賴。具體要求如下:(一

)人類的能動性與監(jiān)督:人類應(yīng)對

AI系統(tǒng)

擁有權(quán)力并能夠監(jiān)督人工智能所做的決定和行為。(二

)技術(shù)的穩(wěn)健性與安全性:AI系統(tǒng)應(yīng)是穩(wěn)健

的、可復原的、安全的,出現(xiàn)問題時可最大限度地

減少和防止意外傷害。(三

)隱私與數(shù)據(jù)治理:AI系統(tǒng)需充分尊重隱私

和數(shù)據(jù)保護,同時還應(yīng)有適當?shù)臄?shù)據(jù)質(zhì)量、完整性、

合法訪問等相關(guān)數(shù)據(jù)治理機制。2.3安永觀點:可信人工智能原則經(jīng)濟合作與發(fā)展組織(OECD)、二十國集團

(G20)以及歐盟提出的人工智能原則,提倡人工智

能應(yīng)具有創(chuàng)新性、值得信賴、尊重人權(quán)和民主價值觀,

為人工智能制定了切實可行、靈活多變、經(jīng)得起時

間考驗的標準。體現(xiàn)了國際社會對人工智能技術(shù)發(fā)

展的共同關(guān)注和期望,也為全球范圍內(nèi)人工智能的

研究、開發(fā)和應(yīng)用提供了一套價值觀和行為準則。

為此,安永在全球化的商業(yè)服務(wù)實踐中,將AI技術(shù)(四

)透明度:AI的數(shù)據(jù)、系統(tǒng)和商業(yè)模式應(yīng)該是透明的;AI系統(tǒng)的相關(guān)決策、系統(tǒng)功能以及局限

性應(yīng)對相關(guān)利益方進行解釋和告知。(五

)多樣性、非歧視與公平性:AI系統(tǒng)必須避

免歧視性以及不公平的偏見;同時,AI系統(tǒng)應(yīng)保持

多樣性,應(yīng)該向所有人開放,并讓相關(guān)利益方參與

其中。(六

)社會和環(huán)境福祉:AI系統(tǒng)應(yīng)造福全人類,

并考慮其他生物生存的社會影響,確保是可持續(xù)和

環(huán)保的。(七)問責制:

建立問責機制,確保AI系統(tǒng)及其成果是可問責的,能夠?qū)λ惴?、?shù)據(jù)和設(shè)計流程

進行審計,還應(yīng)確保提供適當和便捷的補救措施。與安永服務(wù)能力進行深度結(jié)合,不僅增強了客戶服

務(wù)的轉(zhuǎn)型升級,

也為可信

AI的未來發(fā)展建立了社會

信心。安永強調(diào)可信、以人為本的方法實現(xiàn)

AI

的潛力,

專注于為所有人創(chuàng)造價值,以實現(xiàn)可持續(xù)增長并為更好的商業(yè)世界賦予人和社會力量。安永根據(jù)國際

化的人工智能商業(yè)實踐經(jīng)驗和對全球人工智能法規(guī)

政策的洞察,認為具有問責性、合規(guī)性、可解釋性、

公平性等原則的人工智能才是可信人工智能。包容性增長、可持續(xù)發(fā)展

和福祉應(yīng)積極負責任地管理值得信賴的,以人類和地球追求有益的成果,從而振興包容性增長、可持續(xù)發(fā)展和福祉可持續(xù)性公平和偏見增強人類的能力和增強創(chuàng)造力促進和保護代表性不足的人減少經(jīng)濟、社會、性別和其他不平等現(xiàn)象保護自然環(huán)境智能系統(tǒng)的正常運作負責;同時還應(yīng)確保在人工智能系統(tǒng)生命周期中做出的數(shù)據(jù)集、流程和決策是可追溯的;人工智能系統(tǒng)的各方參與者有責任根據(jù)其角色,以適合于客觀實際并符合技術(shù)發(fā)展水平的方式,確保AI系統(tǒng)的

正常運行,將風險管理方法應(yīng)用于人工智能系統(tǒng)的全生命周期。2.2歐盟可信人工智能原則OECD&G20:AI原則基本措施安永:AI原則第二章人工智能的可信原則

06可信人工智能治理

白皮書OECD&G20:AI原則基本措施安永:AI原則以人為本的價值觀和公平人應(yīng)尊重法治、人權(quán)、民主和在整個

AI系統(tǒng)生命周期中以人為本

的價值觀。這些包括不歧視和平等、自由、尊嚴、個人自主,

隱私

和數(shù)據(jù)保護、多樣性、公平性、社會正義以及國際公認的勞工權(quán)利??沙掷m(xù)性公平和偏見合規(guī)為此目的,還應(yīng)實施適合于環(huán)境和符合技術(shù)水平的機制和保障措施。透明度和可解釋性應(yīng)致力于負責任地披露

AI系統(tǒng)信息。為此,應(yīng)提供適合于客觀實

際并符合技術(shù)發(fā)展水平的有意義的信息:透明度促進對人工智能系統(tǒng)的全面理解讓利益相關(guān)者了解與

AI系統(tǒng)的互動情況使受

AI系統(tǒng)影響的人能夠理解系統(tǒng)的結(jié)果可解釋性使受到AI

系統(tǒng)不利影響的人能夠根據(jù)相關(guān)因素的簡單易懂的信息,

作為預(yù)測、建議或決策基礎(chǔ)的邏輯來源,并可質(zhì)疑

AI系統(tǒng)產(chǎn)生不

利影響。穩(wěn)健性、安全性和保障性AI系統(tǒng)應(yīng)在整個生命周期內(nèi)保持穩(wěn)健、安全和有保障,從而在正

常使用、可預(yù)見的使用或誤用,或其他不利條件下,能夠正常運作,

避免造成不合理的安全風險??煽啃园踩€需確保如果人工智能系統(tǒng)有風險導致不當傷害或表現(xiàn)出不良行

為的,可以被覆蓋、修復或根據(jù)需要安全退役。透明度在技術(shù)上可行的情況下,還應(yīng)加強信息廉潔,同時確保尊重言論自

由。可靠性問責制AI系統(tǒng)的各方參與者有責任根據(jù)其角色,以適合于客觀實際并符

合技術(shù)發(fā)展水平的方式,確保

AI系統(tǒng)的正常運行,將風險管理方

法應(yīng)用于人工智能系統(tǒng)的全生命周期。問責制安永在全球化的商業(yè)服務(wù)實踐中,將

AI技術(shù)與安永服務(wù)能力進行深度結(jié)合,不僅增強了客戶服務(wù)的轉(zhuǎn)型升級,也為可信

AI

的未來發(fā)展建立了社會信心,創(chuàng)造指數(shù)級的價值。安永強調(diào)可信、以人為本的方法實現(xiàn)

AI

的潛力,

專注于為所有人創(chuàng)造價值,已實現(xiàn)可持續(xù)增長并為更好地商業(yè)世界賦予人和社會力量。圖3安永所倡導的

AI原則第二章人工智能的可信原則

07可信人工智能治理

白皮書疑影響了用戶體驗。中國青年報社社會調(diào)查中心對1501名受訪者進行的調(diào)查表明,超過62%的受訪者感受到“大數(shù)據(jù)+算法”精準推送帶來的“信息繭房”2。算法黑箱和信息繭房問題,往往根植于大型機器學習模型的內(nèi)在特性。與基礎(chǔ)算法相比,人工智能模型采用的神經(jīng)網(wǎng)絡(luò)算法的復雜性源于其擁有龐大的參數(shù)網(wǎng)絡(luò)和處理高維數(shù)據(jù)的能力,且決策過程無法僅通過底層算法預(yù)測,而是基于訓練數(shù)據(jù)深度學習到的復雜模式和規(guī)律。以個性化推薦算法為例,其依據(jù)用戶行為數(shù)據(jù)進行內(nèi)容定制,以此增強用戶體驗和平臺互動性。然而,這種算法可能導致用戶行為(如點擊、點贊和評論)進一步強化其內(nèi)部推薦邏輯,形成了

一個自我加強的反饋循環(huán)。用戶難以直觀地查看或修改模型的內(nèi)部機制,也難以理解模型如何完成文本生成、

推斷、分類等任務(wù)。此外,企業(yè)在處理數(shù)據(jù)時,出于隱私保護和商業(yè)機密的考慮,往往不會完全公開其數(shù)據(jù)處理流程。同時,

現(xiàn)行的知識產(chǎn)權(quán)法律在保護創(chuàng)新成果的同時,也可能間接限制了算法透明度的提升。第三章可信人工智能的關(guān)鍵問題03在各國人工智能法律法規(guī)的框架之下,企業(yè)對人工智能技術(shù)的應(yīng)用依然面臨著諸多

風險與問題。一方面,數(shù)據(jù)隱私問題令人擔憂,大量的個人數(shù)據(jù)被收集用于訓練算法,然

而這些數(shù)據(jù)的安全性和合規(guī)使用卻難以得到完全保障。另一方面,算法偏見也不容忽視。

由于訓練數(shù)據(jù)的不全面或偏差,算法可能會對某些群體產(chǎn)生不公平的判斷和決策。人工智

能技術(shù)固有的內(nèi)生安全問題可能被惡意利用,造成難以估量的危害。這些風險對企業(yè)如何

更合規(guī)應(yīng)用人工智能技術(shù)提出了新的挑戰(zhàn)。PART3.1算法黑箱與信息繭房問題2024年,某大型網(wǎng)約車服務(wù)平臺推出“車費保鏢”服務(wù)旨在通過實時監(jiān)控車費波動,為消費者提供一個公

平且透明的出行體驗,并在檢測到異常收費時提供先行賠付。然而,上海市消費者權(quán)益保護委員會對該服務(wù)的

算法透明度提出批評,指出由于缺乏明確的標準來定義“合理”的車費變動,消費者難以評估服務(wù)的實際保障水平,

從而使“車費保鏢”服務(wù)在實際運作中存在透明度不足的問題。算法黑箱與信息繭房問題因其直接觸及人們的日常使用體驗和信息獲取路徑而尤為凸顯。算法的不透明性常常讓用戶在使用搜索引擎、社交媒體和在線購物平臺時感到困惑,因為他們無法洞悉背后的推薦邏輯,這無第三章可信人工智能的關(guān)鍵問題

08可信人工智能治理

白皮書3.2算法偏見問題算法偏見是人工智能領(lǐng)域內(nèi)一個日益顯著的問題,由于訓練數(shù)據(jù)的不均衡或算法設(shè)計的不完善,這導致系統(tǒng)輸出結(jié)果可能帶有不公平性。這種偏見可能在招聘、司法、金融等多個關(guān)鍵領(lǐng)域顯現(xiàn),對特定群體造成系統(tǒng)

性的不公正影響。2018年某知名跨國電商企業(yè)的招聘算法被發(fā)現(xiàn)在篩選簡歷時,對含有與“女性”相關(guān)詞匯的簡歷評分偏低,這一性別偏見問題最終導致了該算法的關(guān)閉。無獨有偶,多家知名企業(yè)廣泛采用的AI面試工具,被指出在解讀面試者表情時可能存在誤判,從而導致對面試者性格特征的不準確推斷。算法偏見的形成原因可以歸納為以下三個方面:據(jù)保護法規(guī)要求。這不僅會損害用戶的利益,還可能對人工智能行業(yè)的健康發(fā)展造成負面影響。底層數(shù)據(jù)源的安全問題是一個多維度的挑戰(zhàn),

它不僅包括數(shù)據(jù)源獲取的合法性,還涵蓋了數(shù)據(jù)語

料庫的管理、數(shù)據(jù)投毒攻擊、數(shù)據(jù)源的依賴性和時

效性等。龐大的數(shù)據(jù)語料庫可能潛藏著仇恨言論、

歧視性言論、虛假信息等有害內(nèi)容,這些內(nèi)容若被

惡意注入,不僅會誤導人工智能的學習過程,損害

模型的準確性,還可能對用戶的利益造成實質(zhì)性的

威脅。同樣,確保數(shù)據(jù)源的多樣性和時效性至關(guān)重要,

如果算法過度依賴單一或有限的數(shù)據(jù)源,其魯棒性

將受到削弱,而依賴過時的數(shù)據(jù)源,使用不再反映

現(xiàn)實的陳舊數(shù)據(jù)也會降低人工智能決策的準確性和

可靠性。3.3.1底層數(shù)據(jù)源2017年,英國信息委員會(ICO)對倫敦某醫(yī)

院基金會與某科技公司旗下人工智能研究公司的智

能醫(yī)療合作項目進行了調(diào)查,調(diào)查結(jié)果顯示,在開

發(fā)移動醫(yī)療應(yīng)用的過程中,該人工智能研究公司未

能充分向患者披露其個人醫(yī)療數(shù)據(jù)的使用目的和范

圍,使用超過160萬患者的醫(yī)療記錄作為訓練和測試的數(shù)據(jù)源3

。數(shù)據(jù)源獲取的合法性問題可能觸發(fā)一

系列復雜問題,包括知識產(chǎn)權(quán)侵權(quán)、公民個人信息

保護不足等。數(shù)據(jù)作為用戶與模型之間的溝通橋梁,

其質(zhì)量和來源直接影響到人工智能模型的性能表現(xiàn)。

如果數(shù)據(jù)來源不明確或獲取方式存在法律問題,那

么在使用這些數(shù)據(jù)的過程中,就難以滿足現(xiàn)行的數(shù) 訓練數(shù)據(jù)的不均衡性:如果訓練數(shù)據(jù)在收集時存在歷史偏見或代表性不足,算法可能會繼承并放大這些偏見,從而產(chǎn)生歧視性結(jié)果。 特征選擇的偏差:在模型訓練過程中,選擇哪些特征作為輸入變量對結(jié)果具有重大影響,不當?shù)奶卣鬟x

擇可能無意中引入歧視性偏見。 算法設(shè)計的不完善:如果算法設(shè)計過程中未能充分考慮公平性原則,或設(shè)計者本身存在偏見,可能導致

算法在處理數(shù)據(jù)時無法保持公正和客觀。3.3數(shù)據(jù)安全問題數(shù)據(jù)安全是構(gòu)建可信人工智能的關(guān)鍵,它不僅保護用戶隱私,確保企業(yè)遵守法律法規(guī),還構(gòu)建了用戶對系統(tǒng)的信任。數(shù)據(jù)安全通過防止算法偏見、保障決策公正性、維護數(shù)據(jù)的完整性和準確性,支撐了人工智能的可

信應(yīng)用,并促進了技術(shù)與社會的和諧發(fā)展。公眾對人工智能的信任建立在數(shù)據(jù)安全的基礎(chǔ)之上,

一旦發(fā)生安全事件,不僅用戶隱私受損,企業(yè)的聲譽和信任度也會受到嚴重影響。第三章可信人工智能的關(guān)鍵問題

09可信人工智能治理

白皮書3.3.2數(shù)據(jù)泄露2023年4月,全球著名的商業(yè)集團因允許其半導體部門工程師使用ChatGPT解決源代碼問題,不慎泄露包括半導體設(shè)備測量資料和產(chǎn)品良率等在內(nèi)

的機密數(shù)據(jù)。根據(jù)美國數(shù)據(jù)安全公司Cyberhaven發(fā)布的報告4,

到2024年3月,

員工向人工智能模型輸入的公司數(shù)據(jù)中,敏感數(shù)據(jù)的比例從

10.7%激增至27.4%。盡管企業(yè)有責任嚴密保護機密信息,但

員工可能因缺乏安全意識在無意中將機密數(shù)據(jù)以提

問的形式輸入人工智能模型中,致使企業(yè)商業(yè)機密

面臨持續(xù)泄露風險。人工智能模型的反向工程是一種高級的數(shù)據(jù)泄

露風險,攻擊者通過精心設(shè)計的查詢,分析人工智能模型的輸出結(jié)果,從而推斷出用于訓練該模型的

敏感數(shù)據(jù)。由于人工智能模型可能記住了訓練過程

中的特定模式和細節(jié),攻擊者利用這些信息,可以

對模型進行“反向?qū)W習”,恢復或重建原始數(shù)據(jù)集的

一部分,對數(shù)據(jù)隱私和安全構(gòu)成嚴重威脅。3.3.3出海涉及相關(guān)數(shù)據(jù)出境規(guī)制在全球化大潮中,人工智能系統(tǒng)處理的數(shù)據(jù)頻

繁跨越國界,帶來了跨境數(shù)據(jù)傳輸與處理的挑戰(zhàn)。數(shù)據(jù)主權(quán)作為國家對數(shù)據(jù)控制權(quán)的體現(xiàn),涵蓋了數(shù)

據(jù)的收集、存儲、處理和傳輸?shù)壬芷诟鳝h(huán)節(jié)。個人信息出境要求,作為數(shù)據(jù)主權(quán)的重要組成部分,

規(guī)定了個人信息在跨國傳輸時必須遵循的規(guī)則。為了保護本國數(shù)據(jù)安全、維護國家利益和公民隱私,

各國紛紛制定并實施了相應(yīng)的法律法規(guī)。我國通過《中華人民共和國網(wǎng)絡(luò)安全法》《中

華人民共和國數(shù)據(jù)安全法》和《中華人民共和國個

人信息保護法》等法律法規(guī),

確立了個人信息出境

的合規(guī)要求。這些法規(guī)要求企業(yè)在處理數(shù)據(jù)出境事

宜時,必須開展安全評估,確保數(shù)據(jù)接收方能夠提

供充分的數(shù)據(jù)保護措施,并且必須獲得數(shù)據(jù)主體的

明確同意。遵循這些法規(guī)不僅是企業(yè)履行法律義務(wù)

的需要,也是維護企業(yè)聲譽、保持客戶信任的關(guān)鍵。3.4

內(nèi)生安全問題人工智能技術(shù)的內(nèi)生安全問題根植于系統(tǒng)內(nèi)部,從基礎(chǔ)設(shè)施的脆弱性、數(shù)據(jù)處理的漏洞,到開發(fā)框架的缺陷、模型訓練和部署的不規(guī)范,以及應(yīng)用層和接口層的攻擊風險。這些隱患不僅威脅到系統(tǒng)的安全性和用戶隱私,

還可能導致合規(guī)性問題和聲譽損害。安全層的不足和監(jiān)控維護的滯后可能使系統(tǒng)對新威脅的防御能力下降,而

用戶交互層的安全問題將直接影響用戶信任。若不妥善解決,

這些風險可能引發(fā)錯誤決策、信任動搖、數(shù)據(jù)泄露、

安全性下降,以及技術(shù)更新滯后,對企業(yè)運營和用戶權(quán)益造成嚴重影響。3.4.1人工智能基礎(chǔ)設(shè)施安全風險人工智能基礎(chǔ)設(shè)施的安全風險包括軟件漏洞、

依賴性風險、技術(shù)過時和網(wǎng)絡(luò)攻擊,這些問題共同

威脅著系統(tǒng)的穩(wěn)定性和可靠性。軟件層面,操作系統(tǒng)、數(shù)據(jù)庫和應(yīng)用程序中的

未修復漏洞可能使系統(tǒng)面臨未授權(quán)訪問和破壞的風

險,而維護更新不足會加劇這一問題。對特定軟件

庫或框架的過度依賴可能引入依賴性風險,

一旦這

些依賴項存在問題,整個系統(tǒng)將受影響。使用過時

的技術(shù)因缺乏最新安全功能易于遭受攻擊。此外,網(wǎng)絡(luò)攻擊如DDoS、端口掃描和未授權(quán)訪問會直接影響系統(tǒng)的可用性和穩(wěn)定性。3.4.2數(shù)據(jù)安全風險人工智能系統(tǒng)的數(shù)據(jù)泄露風險遍布數(shù)據(jù)處理各環(huán)節(jié),尤其在安全防護不足時更為嚴峻。原因多樣:

數(shù)據(jù)加密不足易遭截獲;軟件漏洞可能被攻擊者利用;不安全的系統(tǒng)配置如開放端口和簡單密碼易于

被攻破;內(nèi)部人員的疏忽或故意行為可能引起數(shù)據(jù)

泄露;員工和用戶的數(shù)據(jù)保護意識不足,易成為網(wǎng)

絡(luò)攻擊目標;數(shù)據(jù)訪問控制寬松,敏感信息面臨未第三章可信人工智能的關(guān)鍵問題

10可信人工智能治理

白皮書在人工智能領(lǐng)域,應(yīng)用服務(wù)的安全風險是多方面的,涉及復雜的技術(shù)和倫理問題。用戶與人工智能服務(wù)的互動可能伴隨著隱私泄露的風險,用戶可

能無意中分享了敏感信息,或者人工智能系統(tǒng)可能

在缺乏告知同意的情況下收集數(shù)據(jù),可能違反數(shù)據(jù)

保護法規(guī)。此外,用戶反饋對人工智能系統(tǒng)既是改

進服務(wù)的寶貴資源,也可能被惡意用戶可能利用從

而進行數(shù)據(jù)操縱或探測系統(tǒng)缺陷。而用戶提問中可

能包含的不當言論或虛假信息,不僅違背平臺規(guī)定,

也可能對社會秩序和個人權(quán)益造成損害。在內(nèi)容生成與決策方面,人工智能模型可能產(chǎn)

生帶有偏見或不準確的信息。同時,人工智能技術(shù)

的濫用,如深度偽造(Deepfake)技術(shù)或自動化網(wǎng)

絡(luò)攻擊,對個人名譽和網(wǎng)絡(luò)安全構(gòu)成了嚴重威脅。人工智能模型的決策安全在醫(yī)療、金融、交通等領(lǐng)

域至關(guān)重要,這些領(lǐng)域的人工智能技術(shù)應(yīng)用一旦做

出錯誤決策,可能會引發(fā)包括經(jīng)濟損失、健康風險

甚至生命安全在內(nèi)的嚴重后果。授權(quán)訪問風險;日志和監(jiān)控機制不足,難以及時檢測泄露。這些因素交織,形成數(shù)據(jù)泄露的復雜風險

環(huán)境。3.4.3模型安全風險在人工智能領(lǐng)域,模型安全風險是核心問題,

包括對抗性攻擊、數(shù)據(jù)投毒、模型竊取、算法后門

和模型過擬合等方面。對抗性攻擊利用構(gòu)造輸入誤導模型,數(shù)據(jù)投毒

通過篡改訓練數(shù)據(jù)扭曲學習過程,模型竊取嘗試逆

向工程獲取內(nèi)部參數(shù),算法后門植入隱蔽觸發(fā)條件,

而過擬合導致模型泛化能力差。這些問題往往源于

數(shù)據(jù)管理不足、安全措施缺失、技術(shù)缺陷、計算資

源限制、透明度和監(jiān)管不足、復雜性增加、驗證和

測試不完善以及內(nèi)部威脅等復合因素。隨著攻擊技

術(shù)的發(fā)展,模型安全問題變得更加隱蔽和難以防范,

要求在數(shù)據(jù)管理、模型設(shè)計、訓練和驗證各環(huán)節(jié)加

強安全防護。3.4.4應(yīng)用服務(wù)安全風險

自然人的知情權(quán)、選擇權(quán)、公平交易權(quán)以及未成年人和老年人群體的合法權(quán)益受損,從而導致大數(shù)據(jù)殺熟、沉迷消費、服務(wù)歧視等倫理問題;

特定行業(yè)和企業(yè)在利用人工智能技術(shù)時缺乏科技倫理審查所引發(fā)產(chǎn)品缺陷、侵犯用戶合法權(quán)益、使用人

工智能技術(shù)進行違法犯罪活動等法律風險;

人工智能技術(shù)的倫理問題也可能引發(fā)社會群體性失業(yè)、弱勢群體不公平待遇進一步加劇等社會性的倫理問題。企業(yè)若違反科技倫理不僅影響企業(yè)聲譽,更會面臨行政責任乃至刑事責任。2023

12

1日正式施行的《科3.5科技倫理問題當前以人工智能等核心科技的新一輪科技革命和產(chǎn)業(yè)變革加速演進,在生命科學、醫(yī)學、人工智能等領(lǐng)域的科技活動的倫理挑戰(zhàn)日益增多,AI深度生成、基因編輯、自動駕駛等人工智能技術(shù)正面臨科技倫理的拷問與審視。人工智能大模型的訓練、推理、應(yīng)用等活動依賴大量的數(shù)據(jù)來訓練,其訓練決策的過程復雜且不透明,

可能會引發(fā)如下科技倫理問題:技倫理審查辦法(試行)》為規(guī)范科學研究、技術(shù)開發(fā)等科技活動,

強化科技倫理風險防控,提供了法律依據(jù)。第三章可信人工智能的關(guān)鍵問題

11可信人工智能治理

白皮書第四章企業(yè)級

AI的合規(guī)要求04在全球人工智能監(jiān)管日益趨強的背景下,為更好應(yīng)對算法黑箱、算法偏見和外部攻擊等紛繁復雜的內(nèi)憂外患,相關(guān)企業(yè)也面臨著從準入資質(zhì)、算法合規(guī)義務(wù)到生成內(nèi)容合規(guī)

義務(wù)的一系列要求,以確保企業(yè)人工智能相關(guān)的發(fā)展和應(yīng)用合法合規(guī)。PART4.1.1互聯(lián)網(wǎng)信息服務(wù)提供者的基礎(chǔ)資質(zhì)通過互聯(lián)網(wǎng)向上網(wǎng)用戶提供信息的服務(wù)提供者

應(yīng)當首先具備互聯(lián)網(wǎng)信息服務(wù)的基礎(chǔ)資質(zhì)。常見的

基礎(chǔ)資質(zhì)包括互聯(lián)網(wǎng)信息服務(wù)經(jīng)營許可證(ICP許可

證)、增值電信業(yè)務(wù)經(jīng)營許可證-在線數(shù)據(jù)處理與交

易處理業(yè)務(wù)(EDI許可證)和增值電信業(yè)務(wù)經(jīng)營許可

證-移動網(wǎng)信息服務(wù)業(yè)務(wù)(SP許可證)等。通過互聯(lián)網(wǎng)進行電子公告服務(wù)和電子郵件、短

信服務(wù)等增值電信業(yè)務(wù)的經(jīng)營性互聯(lián)網(wǎng)信息服務(wù)提

供者,應(yīng)當向省、自治區(qū)、直轄市電信管理機構(gòu)或

者國務(wù)院信息產(chǎn)業(yè)主管部門申請辦理互聯(lián)網(wǎng)信息服

務(wù)增值電信業(yè)務(wù)經(jīng)營許可證。從事在線數(shù)據(jù)處理和交易處理業(yè)務(wù)、移動網(wǎng)信息服務(wù)業(yè)務(wù)等電信增值服

務(wù)的服務(wù)提供者還應(yīng)當提交滿足申請條件的材料,

以在業(yè)務(wù)開展前期獲得EDI許可證和SP許可證。4.1.2提供具體服務(wù)的特殊資質(zhì)互聯(lián)網(wǎng)新聞信息服務(wù)、網(wǎng)絡(luò)出版服務(wù)、網(wǎng)絡(luò)文

化活動和網(wǎng)絡(luò)視聽節(jié)目服務(wù)、生成式人工智能服務(wù)等具體服務(wù)的提供者,應(yīng)當相應(yīng)取得互聯(lián)網(wǎng)新聞信息服務(wù)許可、網(wǎng)絡(luò)出版服務(wù)許可證、信息網(wǎng)絡(luò)傳播

視聽節(jié)目許可證等特殊資質(zhì)。以互聯(lián)網(wǎng)新聞信息服務(wù)為例,“互聯(lián)網(wǎng)新聞信息

服務(wù)”包括互聯(lián)網(wǎng)新聞信息采編發(fā)布服務(wù)、轉(zhuǎn)載服務(wù)

和傳播平臺服務(wù)。申請主體需為通過互聯(lián)網(wǎng)站、應(yīng)

用程序、論壇、博客、微博客、公眾賬號、即時通

信工具、網(wǎng)絡(luò)直播等形式向社會公眾提供互聯(lián)網(wǎng)新

聞信息服務(wù)的主體,包括提供互聯(lián)網(wǎng)新聞信息服務(wù)

的算法推薦服務(wù)提供者、移動互聯(lián)網(wǎng)應(yīng)用程序提供

者等主體。這些企業(yè)應(yīng)當向特定主管部門,

即省、

自治區(qū)、直轄市互聯(lián)網(wǎng)信息辦公室提出申請。同樣,

從事網(wǎng)絡(luò)出版服務(wù)、網(wǎng)絡(luò)文化活動和網(wǎng)絡(luò)視聽節(jié)目

服務(wù)的深度合成服務(wù)提供者和技術(shù)支持者取得網(wǎng)絡(luò)

出版服務(wù)、網(wǎng)絡(luò)文化活動和網(wǎng)絡(luò)視聽節(jié)目服務(wù)相關(guān)

許可;生成式人工智能服務(wù)提供者則應(yīng)當取得生成

式人工智能服務(wù)相關(guān)行政許可。4.1資質(zhì)監(jiān)管要求人工智能相關(guān)企業(yè)的業(yè)務(wù)可能既包括信息服務(wù)和電子郵件、短信服務(wù)等增值電信業(yè)務(wù),也涉及網(wǎng)絡(luò)新聞、網(wǎng)絡(luò)文化、網(wǎng)絡(luò)出版等內(nèi)容,因此會涉及諸多資質(zhì)?;诖?,白皮書將相關(guān)資質(zhì)分為互聯(lián)網(wǎng)信息服務(wù)提供者的基礎(chǔ)資質(zhì)和提供具體服務(wù)的特殊資質(zhì)兩大類,并重點說明相關(guān)企業(yè)應(yīng)當注意的監(jiān)管要求。第四章企業(yè)級

AI的合規(guī)要求12可信人工智能治理

白皮書4.2.1算法備案要求算法備案制度要求具有輿論屬性或者社會動員

能力的算法推薦服務(wù)提供者、深度合成服務(wù)提供者、

深度合成服務(wù)技術(shù)支持者和生成式人工智能服務(wù)提

供者,按照法律程序就其所使用的算法推薦技術(shù)、

深度合成技術(shù)和生成式人工智能技術(shù)進行備案。其中,“具有輿論屬性或者社會動員能力”是指

以下兩種情形:(1)開辦論壇、博客、微博客、聊天室、通訊群組、公眾賬號、短視頻、網(wǎng)絡(luò)直播、

信息分享、小程序等信息服務(wù)或者附設(shè)相應(yīng)功能;(2)

開辦提供公眾輿論表達渠道或者具有發(fā)動社會公眾

從事特定活動能力的其他互聯(lián)網(wǎng)信息服務(wù)。算法推

薦服務(wù)提供者是指利用生成合成類、個性化推送類、

排序精選類、檢索過濾類、調(diào)度決策類等算法技術(shù)

向用戶提供信息的組織或個人;深度合成服務(wù)提供

者是指通過利用深度學習、虛擬現(xiàn)實等生成合成類

算法制作文本、圖像、音頻、視頻、虛擬場景等網(wǎng)絡(luò)信息的技術(shù)來提供服務(wù)的組織或個人;技術(shù)支持

者是指為深度合成服務(wù)提供技術(shù)支持的組織、個人;

生成式人工智能服務(wù)提供者是指利用生成式人工智

能技術(shù)提供生成式人工智能服務(wù)(包括通過提供可編程接口等方式提供生成式人工智能服務(wù))的組織、

個人。符合前述條件的企業(yè)應(yīng)當通過互聯(lián)網(wǎng)信息服務(wù)

算法備案系統(tǒng)填報服務(wù)提供者的名稱、服務(wù)形式、

應(yīng)用領(lǐng)域、算法類型、算法自評估報告、擬公示內(nèi)

容等信息,以履行備案手續(xù)。4.2.2算法評估要求根據(jù)評估主體的不同,算法評估可以區(qū)分為自

評估和監(jiān)管機構(gòu)評估。自評估是指具有輿論屬性或

者社會動員能力的算法推薦服務(wù)提供者、深度合成

服務(wù)提供者和技術(shù)支持者、具有輿論屬性或者社會

動員能力的生成式人工智能服務(wù)提供者、上線具有

輿論屬性或者社會動員能力的新技術(shù)、新應(yīng)用、新4.2算法合規(guī)要求在《中華人民共和國網(wǎng)絡(luò)安全法》《中華人民共和國數(shù)據(jù)安全法》《中華人民共和國個人信息保護法》三駕馬車的引領(lǐng)下,算法合規(guī)要求的主要依據(jù)來源于《算法推薦管理規(guī)定》《深度合成管理規(guī)定》和《生成式人

工智能服務(wù)管理辦法》的監(jiān)管規(guī)范,并初步形成了算法合規(guī)義務(wù)清單。圖4算法合規(guī)義務(wù)清單本節(jié)主要解讀算法備案、算法評估和算法透明性要求,聚焦企業(yè)的基礎(chǔ)合規(guī)要點與實踐操作指引。第四章企業(yè)級

AI的合規(guī)要求13可信人工智能治理

白皮書功能的應(yīng)用程序提供者、互聯(lián)網(wǎng)新聞信息服務(wù)提供者、互聯(lián)網(wǎng)信息服務(wù)提供者等主體,就其所應(yīng)用的

技術(shù)自行組織開展或委托第三方機構(gòu)進行安全評估。

監(jiān)管機構(gòu)評估是指網(wǎng)信、電信、公安、市場監(jiān)管等

有關(guān)部門就相關(guān)企業(yè)所應(yīng)用的技術(shù)自行組織或委托

第三方機構(gòu)開展安全評估。從評估對象角度,算法評估包括針對服務(wù)和技

術(shù)的評估。針對算法服務(wù)的評估內(nèi)容主要包括算法

梳理情況、對算法服務(wù)基本原理、目的意圖和主要

運行機制的公示、安全風險、可恢復性、安全應(yīng)急

處置機制、個人信息收集和使用的安全管理、用戶選擇的彈窗等設(shè)置以及投訴舉報反饋機制。針對算

法技術(shù)的評估內(nèi)容主要包括算法的通用條款、設(shè)計

開發(fā)、驗證確認、部署運行、維護升級和退役下線

的具體技術(shù)情況。因此,算法服務(wù)提供者應(yīng)當開展算法自評估活動,就其所提供的服務(wù)進行安全評估。算法自評估

報告應(yīng)當覆蓋下列信息:第一,算法基礎(chǔ)屬性信息:

選擇所需備案算法的算法類型、應(yīng)用領(lǐng)域、使用場

景等,并填寫《算法安全自評估報告》和《擬公示內(nèi)容》;第二,算法詳細描述信息:填寫算法簡介、應(yīng)用范圍、服務(wù)群體、用戶數(shù)量、社會影響情況、軟硬件設(shè)施及部署位置等信息;第三,算法風險描述信息:根據(jù)評估算法特點,確定可能存在的算法濫用、惡意利用、算法漏洞等安全風險,并加以描述。4.2.3算法透明性要求算法監(jiān)管規(guī)范將企業(yè)的透明性義務(wù)表述為“告知”,即算法推薦服務(wù)提供者應(yīng)當以顯著方式告知用戶其提

供算法推薦服務(wù)的情況,并以適當方式公示算法推薦服務(wù)的基本原理、目的意圖和主要運行機制等;深度合成服務(wù)提供者和技術(shù)支持者提供人臉、人聲等生物識別信息編輯功能的,應(yīng)當提示深度合成服務(wù)使用者

依法告知被編輯的個人,并取得其單獨同意。實踐中,企業(yè)作為服務(wù)提供者應(yīng)當重視相關(guān)規(guī)則的透明化和可解釋化,在提供算法相關(guān)服務(wù)時,以顯著的方式告知用戶基本情況,并以可理解的語言表述公示算法的基本原理、使用目的和運行情況。需要取得同意的,應(yīng)當及時告知用戶并征得其明確單獨的同

意。第四章企業(yè)級

AI的合規(guī)要求14可信人工智能治理

白皮書絡(luò)信息內(nèi)容生產(chǎn)者責任,深度合成服務(wù)提供者則承擔信息內(nèi)容管理主體責任,采取技術(shù)或者人工方式

對深度合成服務(wù)使用者的輸入數(shù)據(jù)和合成結(jié)果進行

審核。目前,內(nèi)容審核義務(wù)主要由網(wǎng)絡(luò)信息內(nèi)容服務(wù)平臺承擔。2021年9月15

日,

國家互聯(lián)網(wǎng)信息辦

公室發(fā)布《關(guān)于進一步壓實網(wǎng)站平臺信息內(nèi)容管理

主體責任的意見》,

明確要求網(wǎng)絡(luò)信息內(nèi)容服務(wù)平臺充分發(fā)揮網(wǎng)站平臺信息內(nèi)容管理第一責任人作用。

因此,網(wǎng)絡(luò)信息內(nèi)容服務(wù)平臺企業(yè)應(yīng)當健全內(nèi)容審

核機制,依據(jù)意見落實總編輯負責制度,明確總編

輯在信息內(nèi)容審核方面的權(quán)利和所應(yīng)承擔的責任,

以建立總編輯對全產(chǎn)品、全鏈條信息內(nèi)容的審核工

作機制。4.3.1生成內(nèi)容審核義務(wù)從義務(wù)主體角度,深度合成服務(wù)提供者、生成

式人工智能服務(wù)提供者、應(yīng)用程序提供者、應(yīng)用程

序分發(fā)平臺、網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者、網(wǎng)絡(luò)信息內(nèi)容

服務(wù)平臺和互聯(lián)網(wǎng)信息服務(wù)提供者都應(yīng)當對網(wǎng)絡(luò)信

息內(nèi)容負有責任。依據(jù)其性質(zhì),可以將這些主體分

為網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者、網(wǎng)絡(luò)信息內(nèi)容服務(wù)平臺和

網(wǎng)絡(luò)信息內(nèi)容服務(wù)提供者三類。其中,

網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者就其制作、復制、發(fā)布相關(guān)信息承擔責任;網(wǎng)絡(luò)信息內(nèi)容服務(wù)平臺主

要就其提供的發(fā)布、下載、動態(tài)加載等網(wǎng)絡(luò)信息內(nèi)

容傳播服務(wù)承擔責任,即信息內(nèi)容管理主體責任;

網(wǎng)絡(luò)信息內(nèi)容服務(wù)提供者則根據(jù)情況承擔不同的責

任,例如,生成式人工智能服務(wù)提供者依法承擔網(wǎng)4.3

內(nèi)容合規(guī)要求我國重視內(nèi)容治理,多部規(guī)范就生成內(nèi)容為企業(yè)設(shè)定了合規(guī)要求,具體包括內(nèi)容審核義務(wù)、內(nèi)容標識義務(wù)和投訴處理機制。圖5人工智能生成內(nèi)容的合規(guī)要求第四章企業(yè)級

AI的合規(guī)要求15可信人工智能治理

白皮書4.3.2生成內(nèi)容標識義務(wù)內(nèi)容標識義務(wù)主要圍繞合成內(nèi)容展開。算法推薦服務(wù)提供者負有對未作顯著標識的算法生成合成

信息進行標識的義務(wù);深度合成服務(wù)提供者對使用其深度合成服務(wù)生成或者編輯的信息內(nèi)容,以及所

提供的特定深度合成服務(wù)可能導致公眾混淆或者誤

認的,都負有標識義務(wù);生成式人工智能服務(wù)提供

者負有對圖片、視頻等生成內(nèi)容進行標識的義務(wù)。內(nèi)容標識的對象包括算法生成合成信息、深度合成的信息以及生成內(nèi)容,據(jù)此分析,標識的目的

在于說明相關(guān)內(nèi)容非真人產(chǎn)出的情況。因此,企業(yè)

應(yīng)當重視內(nèi)容輸出時的標識要求,根據(jù)具體情況采用顯式水印標識或隱式水印標識,對人工智能生成內(nèi)容標識“由AI生成”或“人工智能為您提供服務(wù)”等

字樣。4.3.3建立投訴舉報機制投訴舉報機制是保護用戶權(quán)益和體現(xiàn)透明度的

有效路徑。投訴舉報不僅是針對算法推薦內(nèi)容、深

度合成內(nèi)容和人工智能生成內(nèi)容的內(nèi)容合規(guī)的重要

路徑,同樣也是應(yīng)用程序合規(guī)的基本要求。企業(yè)應(yīng)

當設(shè)置便捷的用戶申訴和公眾投訴、舉報入口,公

布投訴舉報方式,公布處理流程和反饋時限,及時

受理、處理公眾投訴舉報并反饋處理結(jié)果。第四章企業(yè)級

AI的合規(guī)要求16可信人工智能治理

白皮書05PART5.1風險治理架構(gòu)人工智能風險治理架構(gòu)旨在構(gòu)建一套周詳而立體的體系,

強化對人工智能潛在風險的管控效能,并提升人

工智能技術(shù)的可靠性與責任感。該架構(gòu)由若干緊密交織的層面組成,每一層面均針對人工智能治理的特定維度進行深入考量和精細規(guī)劃,從而確保整個架構(gòu)的協(xié)同運作與高效實施。通過這種多維度的治理機制,我們期望

實現(xiàn)對人工智能技術(shù)發(fā)展與應(yīng)用的全方位引導,確保其在遵循倫理準則和社會責任的前提下穩(wěn)健前行。第五章人工智能風險治理圖6人工智能風險治理框架第五章人工智能風險治理

17可信人工智能治理

白皮書危機時快速響應(yīng)和有效應(yīng)對,減少對企業(yè)聲譽的負面影響。這種危機管理能力是企業(yè)聲譽保護的關(guān)鍵,

有助于企業(yè)在復雜多變的市場環(huán)境中保持穩(wěn)定發(fā)展,贏得消費者和社會的長期信任。5.1.2風險治理架構(gòu)對創(chuàng)新的推動在技術(shù)創(chuàng)新方面,人工智能風險治理架構(gòu)也有

著深遠影響。它首先確保了技術(shù)創(chuàng)新活動在安全可

控的范圍內(nèi)進行,避免潛在的倫理和法律風險。通

過制定相應(yīng)的政策和標準,人工智能風險治理架構(gòu)

能夠引導技術(shù)開發(fā)者遵循最佳實踐,從而提高技術(shù)

創(chuàng)新的質(zhì)量和可靠性。進一步地,人工智能風險治理架構(gòu)通過識別和

評估技術(shù)創(chuàng)新的潛在風險,促進了技術(shù)創(chuàng)新的健康

發(fā)展。該架構(gòu)賦予了相關(guān)部門前瞻性地采取措施的

能力,以減少負面影響,保護公眾利益,并通過維

護市場秩序和增強消費者信心,為人工智能創(chuàng)新發(fā)

展注入了持續(xù)的活力。此外,人工智能風險治理架構(gòu)在全球化背景下

尤為重要,其促進了跨國企業(yè)間的交流與合作。通

過共同制定和遵守統(tǒng)一的治理架構(gòu),各國企業(yè)可以

加強信息共享和經(jīng)驗交流,共同應(yīng)對全球性挑戰(zhàn),人工智能風險治理架構(gòu)對企業(yè)的影響是多維度的,它不僅塑造了企業(yè)運營的穩(wěn)健性,也是推動創(chuàng)

新和維護聲譽的關(guān)鍵因素。企業(yè)需要認識到風險治

理的重要性,并積極構(gòu)建和實施這一架構(gòu),以實現(xiàn)

人工智能技術(shù)的健康發(fā)展和商業(yè)價值的最大化。通

過有效的風險治理,企業(yè)不僅能夠提升自身的競爭

力,也能夠為社會的可持續(xù)發(fā)展做出貢獻。人工智能風險治理架構(gòu)為企業(yè)提供了一個結(jié)構(gòu)

化的決策支持系統(tǒng)。通過風險識別和量化,企業(yè)能

夠更準確地評估人工智能項目的風險和收益,做出更加科學和合理的決策。此外,該架構(gòu)還強調(diào)了風

險溝通的重要性,通過提高企業(yè)內(nèi)部和外部的風險

透明度,增強了公眾對企業(yè)決策的信任,為企業(yè)樹

立了積極的社會責任形象。同時,人工智能風險治理架構(gòu)為企業(yè)在人工智能領(lǐng)域的創(chuàng)新嘗試和探索提供了一個安全的環(huán)境。

通過平衡風險管理和創(chuàng)新需求,企業(yè)能夠在保障安

全的前提下,實現(xiàn)可持續(xù)的創(chuàng)新發(fā)展。這種平衡策

略不僅有助于企業(yè)在市場中保持領(lǐng)先地位,也是企

業(yè)聲譽和品牌忠誠度提升的基石。積極的人工智能風險治理還使企業(yè)能夠在面臨5.1.1風險治理架構(gòu)對企業(yè)的指導人工智能技術(shù)的崛起為企業(yè)提供了巨大的機遇,但同時也帶來了復雜的風險挑戰(zhàn)。因此,一個全面的人工

智能風險治理架構(gòu)對于企業(yè)來說至關(guān)重要,它不僅關(guān)系到企業(yè)的合規(guī)性、安全性、社會責任和商業(yè)連續(xù)性,還

直接影響到企業(yè)的運營效率、決策質(zhì)量、創(chuàng)新能力和市場聲譽。人工智能風險治理架構(gòu)是企業(yè)應(yīng)對人工智能相關(guān)風險的基礎(chǔ),它包括風險識別、評估、監(jiān)控和緩解等多個環(huán)節(jié),涵蓋了數(shù)據(jù)管理、模型開發(fā)、技術(shù)應(yīng)用和倫

理合規(guī)等多個方面。該治理架構(gòu)為企業(yè)提供了以下指導和建議: 在數(shù)據(jù)管理上建立嚴格的政策和流程,確保數(shù)據(jù)的質(zhì)量和安全,同時符合數(shù)據(jù)保護法規(guī)。這不僅提高了數(shù)據(jù)的可靠性,也為人工智能模型的開發(fā)和部署提供了堅實的基礎(chǔ)。

確保人工智能模型的開發(fā)過程遵循公平性、透明度和可解釋性原則,避免算法偏見和歧視。這要求企業(yè)

在模型設(shè)計、訓練和驗證階段進行嚴格的風險評估和測試。

建立實時監(jiān)控系統(tǒng),對人工智能系統(tǒng)的性能進行持續(xù)評估,及時發(fā)現(xiàn)并應(yīng)對潛在風險。這不僅提高了系統(tǒng)的穩(wěn)定性和可靠性,也為風險管理和決策提供了實時數(shù)據(jù)支持。第五章人工智能風險治理

18可信人工智能治理

白皮書圖7人工智能生命周期及對應(yīng)風險模型管理人工智能生命周期是確保技術(shù)可信、合規(guī)和有效的關(guān)鍵。問題識別是人工智能項目啟動的初期階段,主要工作包括收集和分析用戶及業(yè)務(wù)需求,梳理合規(guī)要求以初步評估風險,設(shè)計系統(tǒng)架構(gòu),規(guī)劃必要資源,制定項目計劃,為項目的順利實施打下堅實基礎(chǔ)。在明確人工智能的設(shè)計需求后,就要開始準備訓練人工智能所需的數(shù)據(jù)。這一階段的工作重點在于合法合

規(guī)地收集數(shù)據(jù),并通過清洗和標注提高數(shù)據(jù)質(zhì)量,同時進行特征工程以增強模型的預(yù)測能力。在開展模型訓練前,要選擇合適的算法,進行調(diào)優(yōu),并在后續(xù)訓練和驗證過程中進一步評估模型性能,確保其準確性和泛化能力。進入模型部署階段,工作轉(zhuǎn)向確保模型在生產(chǎn)環(huán)境中的穩(wěn)定運行,包括制定和實施部署策略。在模型穩(wěn)定

運行后,則側(cè)重于監(jiān)控模型性能,收集用戶反饋,并及時響應(yīng)任何性能下降或偏差。隨著環(huán)境變化,模型可能推動全球技術(shù)創(chuàng)新的進步。綜上所述,人工智能風險治理架構(gòu)對技術(shù)創(chuàng)新

具有積極的推動作用,它不僅能夠保障技術(shù)創(chuàng)新的

安全性,還能夠促進技術(shù)創(chuàng)新的健康發(fā)展和國際合

作,為全球人工智能技術(shù)創(chuàng)新的繁榮貢獻了力量。5.1.3風險治理架構(gòu)對市場的維護人工智能風險治理架構(gòu)在維護市場公平競爭中

也發(fā)揮著至關(guān)重要的作用。首先,它有助于確保人

工智能技術(shù)的合規(guī)性,防止濫用人工智能造成市場

壟斷或不正當競爭。通過制定嚴格的倫理標準和監(jiān)

管措施,該架構(gòu)能夠限制企業(yè)利用算法優(yōu)勢排擠競

爭對手,維護市場的公平性。其次,人工智能風險治理架構(gòu)通過增強透明度

和問責制,加深了市場參與者之間的信任。透明的決策過程和明確的責任歸屬使消費者和其他利益相關(guān)者更容易認可人工智能市場的公平性,這對于保

持市場秩序和穩(wěn)定至關(guān)重要。最后,人工智能風險治理架構(gòu)還有助于應(yīng)對數(shù)

據(jù)安全、隱私侵犯等潛在風險和挑戰(zhàn)。通過預(yù)防和

解決這些問題,該架構(gòu)不僅保護了消費者權(quán)益,也

維護了整個市場生態(tài)的健康發(fā)展。綜上所述,人工智能風險治理架構(gòu)通過確保技

術(shù)合規(guī)性、促進透明度和問責制、以及有效應(yīng)對風

險挑戰(zhàn),共同營造了一個公平、透明和健康的市場

環(huán)境。這些措施不僅維護了市場的競爭秩序,也為

所有參與者創(chuàng)造了一個更加穩(wěn)定和可預(yù)測的商業(yè)氛

圍。5.2生命周期風險治理第五章人工智能風險治理

19可信人工智能治理

白皮書5.2.1風險管理左移風險管理左移旨在將風險評估和緩解提前到項

目生命周期的起始階段,其核心在于盡早識別潛在

風險。企業(yè)需要在規(guī)劃和設(shè)計階段深入分析項目需

求,評估技術(shù)可行性,預(yù)測資源需求,并識別潛在

合規(guī)性與倫理問題。這種做法有助于企業(yè)制定全面

的預(yù)防策略,減少后期返工和成本,確保項目順利

推進。在項目啟動初期,企業(yè)必須進行全面的合規(guī)性

審查,確保符合法律法規(guī)、數(shù)據(jù)保護、隱私標準、

知識產(chǎn)權(quán)和倫理準則。這一過程旨在預(yù)防法律和合

規(guī)風險,確立合法的項目設(shè)計和實施框架,增強各

利益方的信任。同時,企業(yè)應(yīng)制定合規(guī)策略和控制措施,保障項目持續(xù)遵循規(guī)定,為項目的順利進行

和成功交付奠定基礎(chǔ)。當企業(yè)考慮與第三方合作人工智能項目時,需

要對其資質(zhì)、信譽和技術(shù)能力進行嚴格評估和審查,

并簽訂服務(wù)水平協(xié)議、合同等明確各自的責任和義

務(wù)。同時,企業(yè)還需建立一套有效的監(jiān)督機制,確

保第三方服務(wù)提供商的行為符合企業(yè)的風險管理政

策和標準。高質(zhì)量數(shù)據(jù)集的構(gòu)建是保障可信人工智能準確

性、公平性的基礎(chǔ)。企業(yè)需確保數(shù)據(jù)的合法合規(guī)采集、

數(shù)據(jù)源的可信度和透明度以及數(shù)據(jù)集的多樣性和代

表性;同時,還應(yīng)開展數(shù)據(jù)清洗、預(yù)處理和標注工作,

輔以機器

/人工審核和校對,提升后續(xù)模型訓練的效

率。在進行數(shù)據(jù)集管理時,企業(yè)應(yīng)詳細記錄數(shù)據(jù)的來源、構(gòu)成情況以及預(yù)處理操作,并進行文檔化記錄,確保數(shù)據(jù)的可追溯性和透明度。為提高模型的時效

性和預(yù)測能力,企業(yè)還應(yīng)加強數(shù)據(jù)集的可擴展性和可維護性,定期更新數(shù)據(jù)集的同時完善數(shù)據(jù)集的版

本控制。此外,數(shù)據(jù)安全與隱私保護是數(shù)據(jù)集管理

的另一核心,企業(yè)需通過加密和訪問控制等措施來

保護數(shù)據(jù),并定期開展合規(guī)性與倫理審查。5.2.2敏捷管理模式敏捷管理模式強調(diào)快速響應(yīng)和持續(xù)改進,風險治理需與這一理念相匹配,確保在整個生命周期中,

風險得到及時識別、評估和控制。首先,在進行模型選擇時,需要評估不同模型

的理論基礎(chǔ)、性能指標和適用性,選擇在準確性、

泛化能力、魯棒性、可追溯性和可解釋性方面表現(xiàn)

最佳的模型。同時,考慮到潛在的風險,如數(shù)據(jù)偏

見、模型復雜性和對抗性攻擊等脆弱性,要選擇在

源頭上最小化這些風險的模型。此外,模型選擇還

應(yīng)考慮合規(guī)性和倫理性,確保所選模型符合法律法

規(guī)和行業(yè)標準,且避免對特定群體產(chǎn)生不公平的影

響。對于訓練、優(yōu)化模型所使用的算法,企業(yè)需要深入理解它們的優(yōu)缺點和適用場景以選擇最佳方案。

在此基礎(chǔ)上,設(shè)計算法原型并進行初步測試,以評

估算法在實際應(yīng)用中的可行性和性能。同時,要在

算法開發(fā)的早期階段就進行機制機理的審核,確保

算法的目的、采用的技術(shù)、干預(yù)的方式等均符合預(yù)

期目標和倫理標準。在模型訓練階段,有效的模型訓練管理確保了會經(jīng)過變更完成迭代,這一過程需要優(yōu)化模型以適應(yīng)新數(shù)據(jù)或業(yè)務(wù)需求,同時進行影響評估和測試以確保變更的有效性。最終,若模型不再使用,還需考慮知識保留和數(shù)據(jù)存檔,確保平穩(wěn)過渡和歷史數(shù)據(jù)的安全性。管理人工智能生命周期中的風險是實現(xiàn)監(jiān)管機構(gòu)所提倡的可信人工智能的關(guān)鍵。在整個人工智能生命周期

中,風險無處不在,企業(yè)需要從生命周期的各個階段入手,建立全面的風險治理機制,確保人工智能系統(tǒng)在設(shè)計、

開發(fā)、部署和運行的每個環(huán)節(jié)都符合監(jiān)管要求,減少風險發(fā)生的可能性,提高系統(tǒng)的可靠性和用戶的信任度。這不僅有助于保護用戶隱私和數(shù)據(jù)安全,也有助于企業(yè)在快速變化的市場中保持競爭力,實現(xiàn)可持續(xù)發(fā)展和可

信人工智能的目標。第五章人工智能風險治理

20可信人工智能治理

白皮書人工智能模型的高效開發(fā)和性能優(yōu)化。這一過程包括資源合理分配、自動化超參數(shù)調(diào)優(yōu)、實施訓練指

標監(jiān)控等,并采取正則化和數(shù)據(jù)增強策略防止過擬

合。同時,維護數(shù)據(jù)質(zhì)量、實施版本控制、保存模

型狀態(tài)、記錄詳細日志,以及確保訓練過程的安全性,

都是提升模型可復現(xiàn)性、可追蹤性和透明度的基礎(chǔ)

措施。在人工智能模型部署前進行測試是確保其安全

性和可靠性的一項關(guān)鍵措施。通過功能、性能、安

全性測試和合規(guī)性檢查,可以對模型的準確性、穩(wěn)

定性、透明度、可解釋性、隱私保護和公平性開展

綜合評估。其目的在于發(fā)現(xiàn)并修復模型中的漏洞,

保證其在面對各種可能的攻擊和濫用時的魯棒性。

同時,制定靈活的部署策略至關(guān)重要??梢酝ㄟ^模

塊化部署等方式確保模型與現(xiàn)有系統(tǒng)的兼容性。通

常建議企業(yè)實施隔離部署,將人工智能系統(tǒng)或關(guān)鍵

組件部署在隔離環(huán)境中,以控制交互風險。此外,

通過自動化監(jiān)控和彈性擴展機制動態(tài)調(diào)整資源,可

以應(yīng)對用戶和數(shù)據(jù)量的增長,保障模型性能和系統(tǒng)

穩(wěn)定性。企業(yè)應(yīng)及時收集和

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論