版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)
文檔簡介
???AI?&??????)8?lt??SafetyandGlobalGovernanceofGenerativeA?Report2024?1??Wif?t?tR&*3??U??????????±Jl??????????Jan
2024第三章
人工智能治理助力發(fā)展中國家與全球可持續(xù)發(fā)展發(fā)展中國家距離利用人工智能的力量還有多遠(yuǎn)?23?23?尤金尼奧·巴爾加斯·加西亞(EugenioVargasGarcia)23?25?推動發(fā)展中國家參與人工智能治理與可持續(xù)發(fā)展魯傳穎25?27?人工智能供應(yīng)鏈與地緣政治:與全球南方國家共同治理方淑霞(Marie-TheresePng)27?29?人工智能監(jiān)督可以從碳排放中學(xué)到什么夏洛特·西格曼(CharlotteSiegmann),丹尼爾·普里維特拉(DanielPrivitera)人工智能治理如何促進(jìn)全球經(jīng)濟(jì)增長與可持續(xù)發(fā)展?29?31?廖璐31?32?為全球大多數(shù)人的人工智能治理——以東南亞為例莉安托涅特·蔡(LyantonietteChua)第四章
工程視角下的人工智能治理32?34?34?理解模型能力是全球人工智能治理的優(yōu)先事項納撒尼爾·沙拉丁(NathanielSharadin)34?36?標(biāo)準(zhǔn)化視角下的人工智能安全治理全球協(xié)作與敏捷更新馬騁昊、高萬琪、范思雨36?38?人工智能治理——一場再建巴比塔的革命王俊,娜迪婭38?41?新加坡治理生成式人工智能的方法和實踐丹尼絲·王(DeniseWong)41?43?通過人工智能技術(shù)民主化實現(xiàn)人工智能對齊伊麗莎白·西格(ElizabethSeger)學(xué)習(xí)機(jī)器的工程智慧43?45?布雷特·卡蘭(BrettKarlan),科林·艾倫(ColinAllen)45?47?多元、開放、互動:生成式人工智能模型訓(xùn)練所需的原則劉紀(jì)璐(JeeLooLiu)47?49?49?第五章
企業(yè)視角下的人工智能治理一種負(fù)責(zé)任地擴(kuò)展人工智能模型的框架邁克爾·塞利托(MichaelSellitto)49?51?以價值對齊塑造健康可持續(xù)的大模型發(fā)展生態(tài)司曉、曹建峰51?53?不要讓深黑盒人工智能鎖定了我們文明進(jìn)化的路徑韋韜53?54?英特爾負(fù)責(zé)任的人工智能應(yīng)用探索鄒寧、王海寧54?I致謝56?56?56?56?免責(zé)聲明聯(lián)系方式貢獻(xiàn)情況編者的話本報告是由多元的作者觀點匯集而成,旨在引起公眾對生成式人工智能技術(shù)發(fā)展的安全性和治理問題的關(guān)注,并激發(fā)進(jìn)一步的思考。我們認(rèn)識到,這一領(lǐng)域的發(fā)展速度迅猛,伴隨著許多潛在的挑戰(zhàn)和機(jī)遇。報告中的具體觀點僅代表各個作者本人,而不代表世界工程組織聯(lián)合會創(chuàng)新技術(shù)專委會(WFEO-CEIT)或深圳科學(xué)技術(shù)協(xié)會的立場。我們強(qiáng)調(diào),對于生成式人工智能技術(shù)的探索和應(yīng)用,需要行業(yè)內(nèi)外的廣泛合作與持續(xù)對話,以確??萍嫉倪M(jìn)步能夠造福全人類,并在倫理和法律框架內(nèi)得到妥善管理。通過這份報告,我們希望促進(jìn)更多的交流和合作,共同探索這一前沿科技的未來。I生成式人工智能安全與全球治理報告序言人工智能治理:為了人工智能發(fā)展得更好更快,以加速實現(xiàn)全球可持續(xù)發(fā)展目標(biāo)龔克首先祝賀世界工程組織聯(lián)合會創(chuàng)新技術(shù)專委會(WFEO-CEIT)和深圳市科學(xué)技術(shù)協(xié)會共同組織編寫了這份報告,做了一件很有意義的工作。在這份報告中,來自不同國家和地區(qū)、不同行業(yè)和領(lǐng)域的專家們,為我們帶來了在不同視角下對人工智能治理的觀察和思考以及有益的實踐經(jīng)驗,他們從不同的角度提出完善人工智能治理的建議,包含了非常重要的共識:比如,加快建立人工智能全球多方共同治理的機(jī)制和開展廣泛的對話,將倫理作為人工智能治理的最重要的基礎(chǔ),將風(fēng)險較高的領(lǐng)域作為加快建立全球治理規(guī)范的優(yōu)先領(lǐng)域,等等。發(fā)布這個報告的時間,恰好處于《聯(lián)合國
2030
年可持續(xù)發(fā)展議程》的中點。在不久前舉行
2023
年聯(lián)合國可持續(xù)發(fā)展目標(biāo)峰會上,各國領(lǐng)導(dǎo)人一致呼吁要加倍努力,加速實現(xiàn)可持續(xù)發(fā)展目標(biāo)(SDGs)。聯(lián)合國秘書長古特雷斯指出,可持續(xù)發(fā)展目標(biāo)不僅僅是一系列目標(biāo),它們承載著各國人民的希望、夢想、權(quán)利和期許。然而如今,只有15%的目標(biāo)按預(yù)期進(jìn)展,很多目標(biāo)甚至出現(xiàn)了倒退?,F(xiàn)在急需制定一項全球計劃來挽救這些目標(biāo)的實現(xiàn)。古特雷斯強(qiáng)調(diào)要在
6
個關(guān)鍵領(lǐng)域采取行動,其中之一就是“利用數(shù)字化轉(zhuǎn)型機(jī)遇”??梢哉f,我們急需人工智能成為推動
SDG加速的實現(xiàn)的重要動力。人工智能是革命性的通用目的技術(shù),是驅(qū)動第四次工業(yè)革命和經(jīng)濟(jì)社會數(shù)字化轉(zhuǎn)型的先進(jìn)生產(chǎn)力。無論是從全球的層面(如加速實現(xiàn)可持續(xù)發(fā)展轉(zhuǎn)型),區(qū)域和國家的層面(如結(jié)合區(qū)域與國家實際的能源轉(zhuǎn)型行動、促進(jìn)經(jīng)濟(jì)增長和就業(yè)),行業(yè)和企業(yè)以及各種組織的層面(如提高行業(yè)的數(shù)字化轉(zhuǎn)型、增進(jìn)企業(yè)競爭力和組織效能),還是個人的層面(如提升職業(yè)能力、提升家庭生活的便捷性等等),人工智能都具有極大的潛力。因此,人工智能的治理無論如何都不是也不應(yīng)該是阻礙人工智能發(fā)展的治理,而是促使它更好更快發(fā)展的治理。人工智能的快速發(fā)展尤其今年以來生成式人工智能的快速發(fā)展,在給人們帶來前所未有的體驗和驚喜的同時,也加劇了人們對人工智能安全和倫理的關(guān)切,甚至出現(xiàn)II序言了一定程度上的社會焦慮。這就凸顯了完善人工智能治理、保證人工智能可控、向善的重要性和緊迫性。鑒于人工智能等新興數(shù)字技術(shù)從本質(zhì)上將是全球性的技術(shù),這些技術(shù)不認(rèn)可地緣政治邊界。人工智能的發(fā)展和治理,涉及全人類的共同利益,它們產(chǎn)生的影響(無論是正面的或是負(fù)面的)都會產(chǎn)生跨越國界、跨越行業(yè)和專業(yè)的全球性、全局性影響。因此,對于人工智能的有效治理必須是全球的、多利益相關(guān)方參與的共同治理。事實上,國際組織(聯(lián)合國、G20、G7、OECD、歐盟等)和各國政府以及人工智能企業(yè)已經(jīng)在人工智能治理上采取行動,從這個報告中可以看到這些努力和重要的治理發(fā)展以及有益的實踐。然而,盡管各國、各個組織提出的這些治理原則在極大程度上是一致或相近的,但是仍然缺乏廣泛的明確的全球共識,作為進(jìn)一步加強(qiáng)全球行動的基礎(chǔ)。在當(dāng)前已有的治理發(fā)展中,應(yīng)該特別重視聯(lián)合國教科文組織(UNESCO)的人工智能倫理建議書。世界工程組織聯(lián)合會(WFEO)從工程促進(jìn)可持續(xù)發(fā)展的使命出發(fā),在高度重視促進(jìn)人工智能發(fā)展和應(yīng)用以加快雙重轉(zhuǎn)型的同時,也高度重視人工智能的治理。2020年
WFEO-CEIT在第一個世界工程日發(fā)布了在工程中負(fù)責(zé)任應(yīng)用大數(shù)據(jù)和人工智能的七項原則、2021年
WFEO支持聯(lián)合國經(jīng)濟(jì)和社會事務(wù)部(UNDESA)和聯(lián)合國秘書長技術(shù)事務(wù)特使辦公室一起發(fā)布了《人工智能發(fā)展戰(zhàn)略資源指南》,WFEO還積極參與了UNESCO的《人工智能倫理建議書》的咨詢工作。我們認(rèn)為,鑒于人工智能的發(fā)展和應(yīng)用都離不開工程,而且只有工程化的人工智能才能真正在人類生產(chǎn)和生活中發(fā)生作用,所以,工程界應(yīng)該成為人工智能共同治理中重要的、積極的一員。從工程的角度看,應(yīng)該特別重視將人工智能治理的倫理原則、法律規(guī)定落實到可以檢驗的技術(shù)標(biāo)準(zhǔn)之中。這些標(biāo)準(zhǔn)應(yīng)該是全球性的,可以互通的和具有互操作性的。而要是這些原則和標(biāo)準(zhǔn)落到實處而不是停留于紙面,應(yīng)當(dāng)優(yōu)先發(fā)展支持治理的技術(shù)手段和工具,比如隱私計算的技術(shù)、倫理審計的技術(shù),等等。WFEO還強(qiáng)調(diào),人工智能的發(fā)展和治理離不開包括工程教育在內(nèi)的廣泛的能力建設(shè),特別是要采取實際行動減少與人工智能相關(guān)的數(shù)字能力鴻溝,這本身也應(yīng)該成為人工智能全球治理的題中應(yīng)有之義。總而言之,作為全球工程界的領(lǐng)導(dǎo)者——WFEO愿意在人工智能全球共同治理中發(fā)揮積極的作用。我們相信,人工智能先進(jìn)技術(shù)的發(fā)展和應(yīng)用,是無可阻擋的,人工智能治理應(yīng)該是促進(jìn)性的治理,即以人工智能更好更快的發(fā)展為目標(biāo),最大限度發(fā)揮它的技術(shù)潛力為人類和地球的可持續(xù)發(fā)展服務(wù);我們重申,人工智能的有效治理必須是全球的、多利益相關(guān)方參與的共同治理,當(dāng)前應(yīng)該的聯(lián)合國的框架內(nèi)組織廣泛參與III生成式人工智能安全與全球治理報告的對話以促進(jìn)明確的治理共識,并形成常效機(jī)制(如同氣候協(xié)定),作為進(jìn)一步推進(jìn)共同治理行動的基礎(chǔ);我們強(qiáng)調(diào),人工智能的治理應(yīng)該是基于倫理的治理,UNESCO的《人工智能倫理建議書》為此提供了重要的基礎(chǔ);我們還注意到,已經(jīng)提出的治理原則和正在進(jìn)行的治理實踐,都采取基于風(fēng)險的差異化治理,因此我們呼吁對于人工智能的風(fēng)險認(rèn)識應(yīng)成為全球多元對象的優(yōu)先事項;我們還主張,要把人工智能發(fā)展和治理的能力建設(shè),特別是縮小人工智能能力差距,作為人工智能治理的重要方面,并在把幫助發(fā)展中國家建設(shè)人工智能能力方面,實施有力且緊迫的行動。龔克,WFEO前任主席(2019-2022),WFEO-CEIT顧問。IV介紹介紹2023年
10月
18日,習(xí)近平主席在第三屆“一帶一路”國際合作高峰論壇開幕式主旨演講中宣布中方將提出《全球人工智能治理倡議》,并于同日由中央網(wǎng)信辦正式發(fā)布,圍繞人工智能的發(fā)展、安全和治理闡述立場主張,表示愿同各方就全球人工智能治理開展溝通交流、務(wù)實合作,推動人工智能技術(shù)造福全人類。10月
26日,聯(lián)合國秘書長古特雷斯宣布,正式組建一個新的高級別人工智能咨詢機(jī)構(gòu),全球
39名專家共商人工智能治理,以探討這項技術(shù)帶來的風(fēng)險和機(jī)遇,并為國際社會加強(qiáng)治理提供支持。11月
1日,首屆全球人工智能安全峰會在英國布萊切利園拉開帷幕。包括中國、美國在內(nèi)的
28個國家和歐盟,共同簽署了《布萊切利人工智能安全宣言》,一致認(rèn)為人工智能對人類構(gòu)成了潛在的災(zāi)難性風(fēng)險。在這個背景下,本報告匯集了全球
40多位人工智能治理、科技倫理、大模型安全和對齊、通用人工智能風(fēng)險等領(lǐng)域的政策制定者、企業(yè)家、專家學(xué)者、工程師等的
29篇評論,旨在引起對生成式人工智能發(fā)展與安全與治理的關(guān)注和進(jìn)一步的思考,呼吁開展廣泛的合作。其中的具體觀點并不代表任何主辦和主編機(jī)構(gòu)。按照討論主題分為以下五章:第一章,生成式人工智能的風(fēng)險與挑戰(zhàn)從近期和長遠(yuǎn)兩個時間維度來看,專家們關(guān)注的近期風(fēng)險和挑戰(zhàn)包括:一是大語言模型的隱私和安全隱患;二是大語言模型生成的虛假信息和“幻覺”問題;三是模型的價值觀偏差和缺乏解釋性;四是模型濫用造成的道德和倫理風(fēng)險;五是人工智能應(yīng)用帶來的知識產(chǎn)權(quán)和法律監(jiān)管問題。而長遠(yuǎn)風(fēng)險和挑戰(zhàn)包括:一是人工智能可能導(dǎo)致經(jīng)濟(jì)和社會的重大變革,需要統(tǒng)籌應(yīng)對;二是人工智能可能顛覆現(xiàn)有國際法律體系和世界秩序;三是人工智能存在全球共同的風(fēng)險,需要建立國際規(guī)范和監(jiān)管;四是不同國家和文化在人工智能價值觀上存在分歧;五是強(qiáng)人工智能可能脫離人類控制,產(chǎn)生災(zāi)難性風(fēng)險??傮w而言,近期的風(fēng)險更多集中在個別模型和應(yīng)用層面,而長期的風(fēng)險和挑戰(zhàn)更多關(guān)乎人工智能技術(shù)的整體發(fā)展方向和社會影響。但無論近遠(yuǎn),建立國際合作和制定倫理規(guī)范對于應(yīng)對人工智能風(fēng)險都至關(guān)重要。第二章,生成式人工智能的全球治理策略專家們關(guān)注的優(yōu)先事項為:一是全球合作與協(xié)調(diào):在人工智能治理中強(qiáng)調(diào)國際合作的必要性,盡快啟動多邊協(xié)調(diào)與合作進(jìn)程,促進(jìn)廣泛國家參與治理;二是風(fēng)險識別V生成式人工智能安全與全球治理報告與管理:集中關(guān)注人工智能系統(tǒng)可能帶來的共同大規(guī)模高風(fēng)險危害;三是倫理和透明度:在人工智能的設(shè)計、開發(fā)和部署中強(qiáng)調(diào)倫理原則和透明度;四是技術(shù)發(fā)展與安全的平衡:在促進(jìn)技術(shù)創(chuàng)新的同時,確保安全和合規(guī)性。為此提出的相關(guān)政策建議包括:一是建立多邊組織和國際社會的共同努力:為了識別和緩解人工智能風(fēng)險,需要全球性的參與和合作,推動建立國際人工智能組織來確保國際監(jiān)督標(biāo)準(zhǔn)的實施;二是制定風(fēng)險預(yù)警和應(yīng)對機(jī)制:包括事后監(jiān)管審查和預(yù)防策略,確保系統(tǒng)的安全性和可靠性;三是建立第三方評估機(jī)制:獨立專家的第三方評估補充內(nèi)部評估,以提供一個穩(wěn)固的安全網(wǎng);四是構(gòu)建可互操作的合規(guī)體系:推動不同國家治理規(guī)則標(biāo)準(zhǔn)化和對接;五是制定國際公約:在全球范圍內(nèi)分享人工智能成果與利益??傮w而言,當(dāng)前亟需統(tǒng)一全球視野,就人工智能治理原則和政策達(dá)成共識,并采取統(tǒng)籌協(xié)調(diào)的國際合作,以應(yīng)對快速發(fā)展帶來的挑戰(zhàn)。第三章,人工智能治理助力發(fā)展中國家與全球可持續(xù)發(fā)展專家們認(rèn)為,人工智能治理可以為發(fā)展中國家提供的助力包括:一是解決緊迫問題:人工智能可以幫助發(fā)展中國家應(yīng)對貧困、饑餓、衛(wèi)生事件等迫切問題,通過提供精確的數(shù)據(jù)分析和解決方案;二是彌補資源缺乏:利用人工智能,可以在資源有限的情況下有效地管理和分配資源,特別是在科技和教育領(lǐng)域;三是改善數(shù)字基礎(chǔ)設(shè)施:通過人工智能推動網(wǎng)絡(luò)和通信技術(shù)的發(fā)展,提高互聯(lián)網(wǎng)接入和計算能力,縮小數(shù)字鴻溝;四是縮小能力差距:提供優(yōu)質(zhì)的教育和技術(shù)培訓(xùn),提升本地人才的技術(shù)專長,增強(qiáng)就業(yè)機(jī)會;五是本土化人工智能應(yīng)用:培養(yǎng)適應(yīng)本地需求和文化的人工智能應(yīng)用,特別是在語言和文化多樣性方面;六是國際合作:推動發(fā)展中國家參與國際人工智能治理,確保它們在全球人工智能產(chǎn)業(yè)鏈和價值鏈中有話語權(quán)。對全球可持續(xù)發(fā)展的助力則包括:一是促進(jìn)經(jīng)濟(jì)增長:人工智能可提升生產(chǎn)效率,降低成本,增強(qiáng)全球競爭力,尤其對發(fā)展中國家而言,這是推動經(jīng)濟(jì)多元化的關(guān)鍵;二是改進(jìn)社會服務(wù)和基礎(chǔ)設(shè)施:在教育、醫(yī)療、城市規(guī)劃等領(lǐng)域,人工智能能提供更高效、更精確的服務(wù),提升資源利用率,減少浪費;三是實現(xiàn)聯(lián)合國可持續(xù)發(fā)展目標(biāo):人工智能可用于監(jiān)測和評估可持續(xù)發(fā)展目標(biāo)的進(jìn)展,為政策制定提供數(shù)據(jù)支持,幫助更有效地管理資源,減少環(huán)境影響;四是推動包容性增長:通過包容性人工智能治理,考慮到所有國家的需求和愿望,確保技術(shù)發(fā)展惠及全球大多數(shù)人;五是國際治理與合作:建立國際治理機(jī)構(gòu)和合作平臺,促進(jìn)知識和資源的共享,提供經(jīng)濟(jì)激勵促進(jìn)遵守規(guī)范,共同應(yīng)對全球挑戰(zhàn);六是敏感性和透明度:監(jiān)督人工智能行業(yè)的實踐,確保其符合倫理標(biāo)準(zhǔn),尊重數(shù)據(jù)隱私和安全,減少剝削性做法。VI介紹總體而言,人工智能治理在幫助發(fā)展中國家加速發(fā)展和實現(xiàn)全球可持續(xù)發(fā)展目標(biāo)方面發(fā)揮著重要作用,但同時也需要注意其潛在的挑戰(zhàn)和風(fēng)險,特別兼顧不同發(fā)展目標(biāo)方面。第四章,工程視角下的人工智能治理支持治理的技術(shù)手段和工具可能包括:了解和評估模型能力的重要性。目前還缺乏系統(tǒng)的概念框架來決定模型的具體能力,這阻礙了人工智能的有效治理。建議制定評估模型能力的標(biāo)準(zhǔn)化方法應(yīng)成為治理的優(yōu)先事項,并強(qiáng)調(diào)了在人機(jī)互動中形成合理策略和廣泛的理解、知識和技能的重要性,可解釋的人工智能也有助于發(fā)展實用智慧。加強(qiáng)人工智能安全治理的標(biāo)準(zhǔn)化工作。如建立準(zhǔn)則更新機(jī)制、研制應(yīng)用領(lǐng)域?qū)m棙?biāo)準(zhǔn)、建設(shè)試驗區(qū)等。這些標(biāo)準(zhǔn)化工作有助于引導(dǎo)人工智能的可控發(fā)展?;陲L(fēng)險和多方參與的方法治理生成式人工智能,開發(fā)評估框架和工具,并尋求國際合作。這為負(fù)責(zé)任地應(yīng)用人工智能提供了參考。通過開源和治理的民主化使人工智能開發(fā)與部署更符合公共利益,建議構(gòu)建跨文化跨語言的倫理數(shù)據(jù)庫,保持開放的公眾參與,這有助于提高人工智能系統(tǒng)的安全性和價值對齊。此外,還需要加強(qiáng)國際間的對話交流、建立包容的安全規(guī)則、開源高質(zhì)量數(shù)據(jù)集等,以應(yīng)對當(dāng)前人工智能發(fā)展中的規(guī)則分散、價值對齊難度、加劇貧富分化等問題??傮w而言,工程技術(shù)對人工智能治理起關(guān)鍵支撐作用。需要深化對關(guān)鍵問題的理解,并將之轉(zhuǎn)化為模型設(shè)計、訓(xùn)練與驗證等具體實踐。第五章,企業(yè)視角下的人工智能治理各家企業(yè)的討論各有側(cè)重:邁克爾·塞利托
(MichaelSellitto)介紹了
Anthropic的人工智能安全級別(ASL)的概念,用于管理人工智能潛在的災(zāi)難性風(fēng)險。該方法借鑒了處理危險生物材料的生物安全級別(BSL)標(biāo)準(zhǔn),根據(jù)人工智能能力定義了風(fēng)險等級,并要求不同等級采取不同的安全措施。司曉和曹建峰討論了人類反饋強(qiáng)化學(xué)習(xí)在提高大模型價值對齊中的應(yīng)用,以及其他技術(shù)和治理手段如數(shù)據(jù)處理、可解釋性、對抗測試等在模型價值對齊中的作用,從工程層面保障人工智能系統(tǒng)價值觀安全和對齊的方法。韋韜指出了近年來大語言模型在快速進(jìn)步的同時,也面臨缺乏認(rèn)知對齊、原則性和可解釋性等問題。這會導(dǎo)致人工智能系統(tǒng)產(chǎn)生嚴(yán)重的錯誤決策并快速擴(kuò)散執(zhí)行,造VII生成式人工智能安全與全球治理報告成難以預(yù)見的后果。建議人工智能系統(tǒng)需要提高認(rèn)知一致性,建立可驗證的推理鏈,并與人類專家互動學(xué)習(xí)。英特爾文章以其開發(fā)的偽造檢測技術(shù)為例,討論了負(fù)責(zé)任地應(yīng)用人工智能改善民眾生活的方法,如提高效率、創(chuàng)造力,幫助殘障人士等,從應(yīng)用視角闡釋了負(fù)責(zé)任的人工智能工程實踐。總體而言,這幾篇從企業(yè)實踐的角度,討論了人工智能安全分級管理、價值對齊、開源治理、負(fù)責(zé)任應(yīng)用等人工智能治理中值得關(guān)注的若干問題,提供了有益的建議和范例。其中,對于粵港澳大灣區(qū),專家認(rèn)為可以發(fā)揮的獨特貢獻(xiàn)和價值中國社會科學(xué)院哲學(xué)所科技哲學(xué)研究室主任、中國科協(xié)-復(fù)旦大學(xué)科技倫理與人類未來研究院的段偉文建議粵港澳大灣區(qū)可從三方面為人工智能治理作出貢獻(xiàn):一是數(shù)據(jù)治理創(chuàng)新,通過制度創(chuàng)新和試驗探索,探索構(gòu)建可信任的數(shù)據(jù)互通共享機(jī)制;二是實施人工智能驅(qū)動的區(qū)域整合發(fā)展戰(zhàn)略,將人工智能治理的目標(biāo)與人才、教育和就業(yè)戰(zhàn)略結(jié)合起來,對大灣區(qū)的人才、教育和產(chǎn)業(yè)進(jìn)行布局,使之適應(yīng)人工智能未來的發(fā)展;三是打造人工智能東方大灣區(qū)特區(qū),在良好的人工智能治理和人工智能驅(qū)動區(qū)域發(fā)展的基礎(chǔ)上,吸引全球人才,通過更具動態(tài)可塑性產(chǎn)業(yè)促進(jìn)政策和不斷優(yōu)化的人工智能治理模式,構(gòu)建全球人工智能創(chuàng)新試驗區(qū)。中國電子技術(shù)標(biāo)準(zhǔn)化研究院的馬騁昊、高萬琪和范思雨倡議在深圳建設(shè)國際人工智能對齊與治理創(chuàng)新示范區(qū)。呼吁全球人工智能企業(yè)及科研院所共同參與,在一定范圍內(nèi)共同驗證相關(guān)的對齊方法、標(biāo)準(zhǔn)規(guī)范、治理工具、數(shù)據(jù)共享機(jī)制等方面內(nèi)容的科學(xué)性及可操作性。南財合規(guī)科技研究院的王俊和娜迪婭建議粵港澳大灣區(qū)具有海量數(shù)據(jù)規(guī)模和豐富應(yīng)用場景優(yōu)勢,數(shù)據(jù)要素市場不斷擴(kuò)大。應(yīng)該充分發(fā)揮自身優(yōu)勢,充分挖掘數(shù)據(jù)價值,在數(shù)據(jù)合規(guī)基礎(chǔ)之上,進(jìn)一步促進(jìn)公共數(shù)據(jù)等開放,推進(jìn)多模態(tài)公共數(shù)據(jù)集建設(shè),打造高質(zhì)量中文語料數(shù)據(jù)。香港大學(xué)的納撒尼爾·沙拉丁(NathanielSharadin)認(rèn)為,以系統(tǒng)的框架評估和理解模型能力,應(yīng)成為治理的優(yōu)先事項?;浉郯目梢岳脜^(qū)位優(yōu)勢,吸引國際人工智能企業(yè)來區(qū)內(nèi)共建治理示范區(qū),進(jìn)行各類人工智能安全和倫理治理工具的驗證,為全球治理貢獻(xiàn)經(jīng)驗。綜合利用粵港澳的區(qū)位優(yōu)勢、產(chǎn)業(yè)基礎(chǔ)、開放程度等方面的獨特條件,可以為全球人工智能治理作出積極貢獻(xiàn),提升區(qū)域和中國的影響力。VIII第一章
生成式人工智能的風(fēng)險與挑戰(zhàn)第一章
生成式人工智能的風(fēng)險與挑戰(zhàn)大語言模型怪獸對利維坦與法律秩序的挑戰(zhàn)季衛(wèi)東自
2017年谷歌發(fā)布
Transformer網(wǎng)絡(luò)架構(gòu)以來,短短五年多的時間,世界上迅速出現(xiàn)了一大群大模型,而這些模型又衍生出多種技術(shù)架構(gòu)、多種模態(tài)、多種場景。從已發(fā)布大模型的全球分布來看,中國和美國明顯領(lǐng)先,超過全球總量的
80%,其中美國的大模型數(shù)量一直位居全球第一。ChatGPT于
2022年
11月底一經(jīng)發(fā)布,就憑借強(qiáng)大的對話能力和廣泛的應(yīng)用風(fēng)靡全球,短短兩個月的時間就讓月活躍用戶規(guī)模達(dá)到
1億,增速極其可觀。此后,這些大型語言模型相繼發(fā)布,從賦能個人、減輕企業(yè)負(fù)擔(dān)等方面深刻影響了包括法律運作在內(nèi)的各種社會實踐場景,留下了一幅生成式
AI物種大爆發(fā)的數(shù)字“寒武紀(jì)”景觀。據(jù)不完全統(tǒng)計,截至
2023年
5月,中國科技企業(yè)和網(wǎng)絡(luò)平臺已上線各類人工智能語言模型
79個,其中通用模型
34個。必須承認(rèn),大語言模式在給國家和社會帶來便利和利益的同時,也帶來了令人不安的風(fēng)險甚至威脅。
其中四項可列舉如下:首先,由于類似
ChatGPT的大語言模型提供在線對話服務(wù),它們可以比現(xiàn)有的互聯(lián)網(wǎng)搜索引擎收集更多的個人信息和隱私。因此,在“知道太多、利益沖突”的情況下,大型語言模型及其操作者可能會通過控制溝通,誘導(dǎo)用戶做出違背自己意圖和利益的選擇。其次,現(xiàn)階段的大語言模型會將訓(xùn)練數(shù)據(jù)中不存在也不可能存在的事物視為真實的,并在對話中以不容置疑的語氣進(jìn)行描述。
這就是用戶經(jīng)常抱怨的“嚴(yán)重胡言亂語”的現(xiàn)象。
從科學(xué)技術(shù)的角度來看,這當(dāng)然只是一種“幻覺”?!盎糜X”現(xiàn)象與機(jī)器學(xué)習(xí)用有限的訓(xùn)練數(shù)據(jù)處理無限的未知數(shù)據(jù)的泛化能力密切相關(guān)。但在應(yīng)用場景中,這種幻覺可能會導(dǎo)致虛假信息的傳播,這對用戶或社會來說可能是致命的。再次,大語言模型在使用各種數(shù)據(jù)進(jìn)行學(xué)習(xí)或人工智能自動生成各種內(nèi)容時,可能會引發(fā)復(fù)雜的知識產(chǎn)權(quán)識別和保護(hù)問題。
為了確保
AIGC的可信性并明確責(zé)任,應(yīng)該發(fā)明、應(yīng)用和推廣數(shù)字水印技術(shù)。最后,大型語言模型可能有意無意地獲取企業(yè)或政府機(jī)構(gòu)的機(jī)密信息,操縱輿論,導(dǎo)致國家中央系統(tǒng)的安全體系出現(xiàn)漏洞,信息社會功能失調(diào),甚至因惡意事故和犯罪而引發(fā)社會動蕩。1生成式人工智能安全與全球治理報告人類對語言的處理和智力的利用實際上是在無意識的情況下發(fā)生的??茖W(xué)哲學(xué)家邁克爾·波蘭尼曾在
1964年指出:“我們知道的比我們能表述的更多?!睋Q言之,知識體系還應(yīng)包括這種沒有明確意識到、或未被社會常識所認(rèn)可、或不能言說的默會知識。這一命題被表述為“波蘭尼悖論”,并成為人工智能理論的基礎(chǔ)。這也意味著人工智能對無意識的語言處理,根本就無法設(shè)計那種獲得和應(yīng)用所有語言的算法,也很難為機(jī)器學(xué)習(xí)設(shè)定明確的訓(xùn)練目標(biāo)?,F(xiàn)在通行利用神經(jīng)網(wǎng)絡(luò)進(jìn)行機(jī)器學(xué)習(xí),通過誤差反向傳播算法不斷調(diào)整神經(jīng)元權(quán)重和更新網(wǎng)絡(luò)參數(shù),逐漸減少誤差,尋找訓(xùn)練數(shù)據(jù)的正解。人們發(fā)現(xiàn),當(dāng)神經(jīng)網(wǎng)絡(luò)的規(guī)模被大幅度擴(kuò)張之后,人工智能接龍預(yù)測的精確度就會突然得到顯著改善。這個發(fā)現(xiàn)及其有意識的應(yīng)用使機(jī)器學(xué)習(xí)進(jìn)入了深度學(xué)習(xí)階段:無需復(fù)雜的規(guī)則和學(xué)習(xí)方法,只要讓網(wǎng)絡(luò)規(guī)模倍增就可以使許多難題迎刃而解,迅速提高泛化能力——不言而喻,這種神奇效果也證明了大語言模型的重要意義。其實質(zhì)是多層網(wǎng)絡(luò)的自我學(xué)習(xí)和進(jìn)入語境(in-context)的學(xué)習(xí),以及在此基礎(chǔ)上實現(xiàn)學(xué)習(xí)方法的學(xué)習(xí)——元學(xué)習(xí)。這樣一來,人類對機(jī)器學(xué)習(xí)的特征設(shè)計也就變得沒有意義,人工智能實際上是開始進(jìn)行自我塑造,形成一種自動化的生態(tài)系統(tǒng),甚至有可能脫離人類的控制。正是在這里,“大語言建模怪獸”紛紛嶄露頭角,并且有可能因為在對數(shù)據(jù)進(jìn)行深度學(xué)習(xí)中放棄給定的特征設(shè)計,轉(zhuǎn)而自我設(shè)置次級目標(biāo)而脫離人類控制,進(jìn)而引起治理方面的嚴(yán)重問題。這意味著大型語言模型將助產(chǎn)新型非人類或超人類智能的誕生,這種智能將逐漸遠(yuǎn)離人類并發(fā)展出與人類截然不同的價值觀。
這也意味著,除了隱藏在區(qū)塊鏈中的平臺怪物和主權(quán)個體游擊隊之外,主權(quán)利維坦還將面臨數(shù)十甚至數(shù)百個強(qiáng)大的大型模型龐然大物的挑戰(zhàn),即數(shù)字領(lǐng)域的國家主權(quán),或者說“數(shù)字主權(quán)”。
”面臨著“百模大戰(zhàn)”和失控的挑戰(zhàn)。
“數(shù)字主權(quán)”概念明確體現(xiàn)了主權(quán)國家對社會數(shù)字化轉(zhuǎn)型的反應(yīng)和自衛(wèi)立場。為了防止上述各種風(fēng)險演變成不可逆轉(zhuǎn)的災(zāi)難,專家和行業(yè)領(lǐng)袖提出了暫停大型模型開發(fā)、實現(xiàn)價值對齊、加強(qiáng)人工智能監(jiān)管等各種對策和建議。僅就價值對齊而言,例如,美國布魯金斯學(xué)會
2022年
12月
8日發(fā)表本杰明·拉森的文章《人工智能的地緣政治與數(shù)字主權(quán)的崛起》,作者認(rèn)為人工智能發(fā)展的不平衡將導(dǎo)致國家之間的不信任加劇,進(jìn)而導(dǎo)致數(shù)字主權(quán)的興起和技術(shù)脫鉤的出現(xiàn);
意識形態(tài)差異或道德原則差異可能對人工智能和信息技術(shù)的管理產(chǎn)生更廣泛的地緣政治影響;因此確保人工智能價值觀在國際層面的對齊可能是本世紀(jì)最重大的挑戰(zhàn)之一。無論如何,這是一場前所未有的巨變,將不可避免地塑造新的國家和法律存在形式,并促進(jìn)秩序范式的創(chuàng)新。2第一章
生成式人工智能的風(fēng)險與挑戰(zhàn)針對這一重大變化,中國政府的策略是通過統(tǒng)一的超算網(wǎng)絡(luò)和基座模型層來合并和整合數(shù)十個大型模型巨頭,并通過所謂的“主權(quán)區(qū)塊鏈”來防止點對點交互失去控制的風(fēng)險。
結(jié)果必然會創(chuàng)建一個更強(qiáng)大的算法利維坦。
正如米歇爾·??滤A(yù)料的那樣,這個算法利維坦實際上是一個環(huán)視裝置。
在這里,數(shù)十億個探測器形成了視線陷阱,創(chuàng)造了大衛(wèi)·里昂所描繪的那種監(jiān)視社會和文化。
這種利維坦算法無處不在且強(qiáng)大,只有通過人工智能系統(tǒng)中嵌入的程序性正當(dāng)程序以及不同人工智能系統(tǒng)之間的去中心化制衡才能防止其濫用。
從這個意義上說,也可以說,進(jìn)入大模型和生成式人工智能時代后,人工智能治理的重點將從防止算法歧視轉(zhuǎn)向防止模型濫用。
在主權(quán)利維坦、平臺怪物、LLM巨頭乃至自我主權(quán)身份意識的互動中,法律正當(dāng)程序原則將被重新定義并與技術(shù)正當(dāng)程序相結(jié)合,這種新的程序正義將發(fā)揮更重要的作用。人工智能價值對齊的挑戰(zhàn)是構(gòu)建符合人類價值觀和利益的人工智能系統(tǒng)
(Russell,2019)。
這一挑戰(zhàn)涵蓋技術(shù)和規(guī)范方面
(Gabriel,2020)。
這項技術(shù)挑戰(zhàn)旨在將人類價值觀編碼到人工智能系統(tǒng)中,確保它們按照預(yù)期行事。
規(guī)范性挑戰(zhàn)涉及確定人工智能系統(tǒng)和更廣泛的人工智能開發(fā)工作應(yīng)遵循哪些價值觀。本文重點關(guān)注規(guī)范方面,并探討了人工智能民主化的兩種形式——人工智能開發(fā)的民主化和人工智能治理的民主化——作為在人工智能發(fā)展中代表不同人類價值觀的手段。季衛(wèi)東,上海交通大學(xué)文科資深教授、上海交通大學(xué)中國法與社會研究院院長、人工智能治理與法律研究中心主任、計算法學(xué)與?
AI倫理中心主任、日本研究中心主任,美國斯坦福大學(xué)訪問學(xué)者。國家重大人才工程特聘教授,享受國務(wù)院特殊津貼。3生成式人工智能安全與全球治理報告以更積極主動的治理應(yīng)對人工智能發(fā)展中的風(fēng)險與挑戰(zhàn)段偉文近年來,人工智能在認(rèn)知、決策、知識生產(chǎn)和智能代理等方面日益顯現(xiàn)出超強(qiáng)能力,這使得人工智能成為各國科技領(lǐng)域的優(yōu)先發(fā)展事項。但也因為其發(fā)展所凸顯的危害、風(fēng)險和爭議,而促使各國和全世界全面展開了人工智能治理。人工智能治理主要針對兩個方面的問題:一是由于人工智能發(fā)展的價值和目標(biāo)不明確,以及惡意使用和濫用,使其給人類、個人、社會、環(huán)境和生態(tài)系統(tǒng)造成了現(xiàn)實的危害和潛在的風(fēng)險,其中包括對隱私和數(shù)據(jù)權(quán)侵害、偏見和歧視的加劇等。二是因人工智能發(fā)展的不平衡以及受益與風(fēng)險分配的不公,帶來了
“誰受益?誰付出?誰承擔(dān)風(fēng)險?”“誰具有領(lǐng)先優(yōu)勢?誰會被甩在后面?誰處于‘暴露’狀態(tài)”等社會爭議。從防范風(fēng)險的視角,目前全球人工智能治理的緊迫事項包括三個方面:一是如何避免有意和無意的人工智能濫用可能導(dǎo)致的重大風(fēng)險,特別是以往沒有關(guān)注到的跨領(lǐng)域的復(fù)合風(fēng)險,如隨著技術(shù)與信息可及性增加和門檻的降低,人工智能與生物技術(shù)的非常規(guī)結(jié)合導(dǎo)致的不可預(yù)見的安全風(fēng)險;二是如何緩解人工智能特別是生成式人工智能對崗位、就業(yè)、人才、教育的巨大沖擊;三是如何在國際層面形成人工智能軍備競賽的多方管控機(jī)制和公開對話渠道。其中,對于國際社會如何建立有效的風(fēng)險預(yù)警和應(yīng)對機(jī)制并確保在關(guān)鍵時刻人類有能力摁下停止鍵,這一問題目前沒有直接的答案,當(dāng)可用從以下四個方面作出努力。一是各國和世界要在信息網(wǎng)絡(luò)系統(tǒng)的安全性方面加強(qiáng)互信與合作,建立起全球風(fēng)險預(yù)警系統(tǒng);二是各國、不同區(qū)域和全球要構(gòu)建起多個平行的信息網(wǎng)絡(luò)系統(tǒng),在有必要的情況下構(gòu)建人類文明全數(shù)據(jù)備份時間機(jī)器、全球多個信息網(wǎng)絡(luò)平行運作系統(tǒng);三是發(fā)現(xiàn)和培養(yǎng)可用在人工智能時代具有超強(qiáng)認(rèn)知、決策能力和未來洞察力的人才,在各國實施超強(qiáng)人才教育培養(yǎng)計劃;四是加強(qiáng)人機(jī)行為的社會學(xué)、人類學(xué)、心理學(xué)和哲學(xué)研究,對此問題展開系統(tǒng)深入的探索。從促進(jìn)發(fā)展的視角,為了助力世界各國特別是發(fā)展中國家的高質(zhì)量發(fā)展和聯(lián)合國可持續(xù)發(fā)展目標(biāo)的落實,人工智能治理要從“被動補償”和“主動優(yōu)化”兩個方面入手:一是要設(shè)法緩解以上兩方面的問題,促使人工智能系統(tǒng)在整個生命周期中以負(fù)責(zé)任和可信任的方式發(fā)展;二是應(yīng)聯(lián)合國際社會進(jìn)一步采取一系列主動的預(yù)先應(yīng)對措施,包括利益補償和平衡發(fā)展政策的實施,風(fēng)險預(yù)見和強(qiáng)化防范、欠發(fā)達(dá)地區(qū)的人工智能素養(yǎng)提升等。4第一章
生成式人工智能的風(fēng)險與挑戰(zhàn)最后,對于粵港澳大灣區(qū)參與貢獻(xiàn)人工智能治理,我有三點建議:一是數(shù)據(jù)治理創(chuàng)新,通過制度創(chuàng)新和試驗探索,探索構(gòu)建可信任的數(shù)據(jù)互通共享機(jī)制;二是實施人工智能驅(qū)動的區(qū)域整合發(fā)展戰(zhàn)略,將人工智能治理的目標(biāo)與人才、教育和就業(yè)戰(zhàn)略結(jié)合起來,對大灣區(qū)的人才、教育和產(chǎn)業(yè)進(jìn)行布局,使之適應(yīng)人工智能未來的發(fā)展;三是打造人工智能東方大灣區(qū)特區(qū),在良好的人工智能治理和人工智能驅(qū)動區(qū)域發(fā)展的基礎(chǔ)上,吸引全球人才,通過更具動態(tài)可塑性產(chǎn)業(yè)促進(jìn)政策和不斷優(yōu)化的人工智能治理模式,構(gòu)建全球人工智能創(chuàng)新試驗區(qū)。段偉文,中國社會科學(xué)院哲學(xué)所科技哲學(xué)研究室主任、中國科協(xié)-復(fù)旦大學(xué)科技倫理與人類未來研究院教授,享受國務(wù)院特殊津貼專家。5生成式人工智能安全與全球治理報告人類價值對齊難題與大模型倫理嵌入王小紅信息倫理學(xué)家指出:必需確立一套基本的
AI倫理準(zhǔn)則,但這不容易,因為道德準(zhǔn)則會在不同文化背景和
AI使用情境下產(chǎn)生差異。(TaddeoandFloridi,2018)機(jī)器道德哲學(xué)家也強(qiáng)調(diào):雖然存在超越文化差異并為人類共享的價值觀,但不同文化以及人類的不同道德系統(tǒng)在細(xì)節(jié)上仍有分歧。(瓦拉赫,艾倫,2017:66)有實證調(diào)研指出:AI倫理原則取得實效的關(guān)鍵在于其本地化,而本地化過程中必然要遵循當(dāng)?shù)匚幕?、宗教和哲學(xué)傳統(tǒng)。(DanitGal2019:73)上述研究表明,“以人為本”這一抽象原則,在
AI治理實際情境中,往往會因文化差異導(dǎo)致實踐價值差異,甚至可能出現(xiàn)
AI治理技術(shù)的相互反制。由此,基于人類價值對其的難度和復(fù)雜性,我們提出
AI倫理建構(gòu)的哲學(xué)智慧共識策略:第一,超越文化的“概念鴿子籠”。(Dewey,1921:188)多元文化、不同價值的交流中,人們往往使用自己熟悉的文化中的“概念鴿子籠”,把另外一種文化中的事實分格塞進(jìn)去,來解釋不同的文化現(xiàn)象,這就造成了輕率地歸類,主觀地下定論。洞悉一個不同的文化的真正意圖,任何時候都是復(fù)雜的任務(wù)。不同文化承載著不同的人類群體獨特而漫長的生命歷程,“使歷史成為實際的原因是求生的意志和求幸福的欲望。但什么是幸福?人們對這個問題的答案遠(yuǎn)非一致。這是由于我們有許多不同的哲學(xué)體系,許多不同的價值標(biāo)準(zhǔn),從而有許多不同類型的歷史”。(馮友蘭,1922)人類只有反思自身,藉理性以糾偏。第二,在有利于人性進(jìn)步之準(zhǔn)則下,尊重不同的歷史所沉淀的多元價值。中西哲學(xué)比較研究揭示,文化差異性的一個重要方面就是,雖然所有文化共有一些基本價值,但是不同文化會給予這些價值不同的權(quán)重,形成不同的價值配置形式。(李晨陽,2019)不同文化在價值配置上可能永遠(yuǎn)無法一致,但是不同文化可以基于多元化的配置,達(dá)成有利于人性進(jìn)步和人類發(fā)展的共識。東西方哲學(xué)思想和思維方式歷經(jīng)上千年,不僅亙古常新,卻自古就不缺少深度共鳴。先秦孔子有言:“吾有知乎哉?無知也。有鄙夫問于我,空空如也。我叩其兩端而竭焉。”古希臘蘇格拉底說:“我只知道我一無所知”。中西方兩位哲人,幾乎在同一時期(雅思貝爾斯稱之軸心時代)道出了遙相呼應(yīng)的治學(xué)箴言?!墩撜Z》的多個表述,也與康德道德律令關(guān)鍵思想一致,即,只有當(dāng)你愿意依此準(zhǔn)則行事,才令此準(zhǔn)則為普遍規(guī)范。源于《禮記·中庸》的“慎獨”,新儒家繼承和發(fā)展的“修齊治平”工夫論,這些思想與亞里士多德倡導(dǎo)的美德倫理學(xué),均投射出東西方古老文化共同的哲學(xué)智慧。6第一章
生成式人工智能的風(fēng)險與挑戰(zhàn)第三,AI大模型的倫理嵌入,不論自上而下式還是自下而上式,皆需要分析和清晰呈現(xiàn)道德哲學(xué)的語義蘊含。當(dāng)前成功的大模型所基于的訓(xùn)練范式,“高質(zhì)量數(shù)據(jù)集構(gòu)建—大規(guī)模預(yù)訓(xùn)練—指令微調(diào)—基于人類反饋的強(qiáng)化學(xué)習(xí)”,是符號主義進(jìn)路(自上而下式)與聯(lián)結(jié)主義進(jìn)路(自下而上式)的融合,被計算機(jī)科學(xué)家稱為未來優(yōu)先發(fā)展的?“集成智能”方向。(陳小平,2020:116)其中,構(gòu)建推理基于的知識庫或者搜索基于的狀態(tài)空間,以及訓(xùn)練大模型的倫理規(guī)則神經(jīng)網(wǎng)絡(luò),使用隱含倫理原則的代表性數(shù)據(jù)庫時,皆需要做基于道德語義的情境分析和評估。我們設(shè)想,為獲取人類價值共識,可以發(fā)展類似漢典建模
(王小紅等,2023)的計算詮釋學(xué),使道德概念的豐富涵義在形式層面得到梳理和辨析,將文化意義架構(gòu)整合進(jìn)有監(jiān)督(人工標(biāo)注)和無監(jiān)督(自動標(biāo)注)的機(jī)器學(xué)習(xí)。王小紅,西安交通大學(xué)人文社會科學(xué)學(xué)院科技哲學(xué)教授,計算哲學(xué)實驗室中方負(fù)責(zé)人。兼任中國自然辯證法研究會方法論委員會常務(wù)理事,陜西省自然辯證法研究會前副秘書長。7生成式人工智能安全與全球治理報告人工智能的全球監(jiān)管:主要差距和核心挑戰(zhàn)羅斯塔姆·J·諾伊維爾特(RostamJ.Neuwirth)通常被稱為“人工智能”的新技術(shù)正在以更快的速度引入,并越來越多地滲透到人類生活的方方面面。正如
2021年
11月通過的聯(lián)合國教科文組織《人工智能倫理建議書》所反映的那樣,最初對
AI潛在利益的熱情現(xiàn)已被對其實際和潛在危害的倫理關(guān)切所取代。為了解決這些問題,全世界正見證著通過具有約束力的法律手段來監(jiān)管
AI的全球競賽。歐盟、歐洲委員會、中國、美國以及許多其他司法管轄區(qū)已經(jīng)采納或正在準(zhǔn)備針對人工智能的專用或通用的法律。然而,目前的全球
AI競賽對法律和現(xiàn)有國際法律框架提出了嚴(yán)峻的挑戰(zhàn),首先是一個強(qiáng)烈的時間要素,即不僅要找到頒布
AI法律或法規(guī)的最佳時機(jī),還要使其具備未來一段有意義的時間內(nèi)的適用性。其次,它還具有空間維度,即由
AI的無所不在或跨界性質(zhì)引起的法律問題,這與法律的傳統(tǒng)領(lǐng)土觀念形成了鮮明對比。為了考慮到各種
AI系統(tǒng)的互操作性,防止可能的技術(shù)故障或規(guī)范沖突,必須采取多層次治理方法,以實現(xiàn)各種地方、國家或地區(qū)監(jiān)管方法的全球協(xié)調(diào)和協(xié)調(diào)。第三個挑戰(zhàn)在于
AI對社會、組織和人類的影響的全面效應(yīng)。這意味著
AI是一種跨領(lǐng)域現(xiàn)象,它首先需要跨學(xué)科的討論,以支持基于建立一致的制度框架的協(xié)調(diào)監(jiān)管方法的制定,從而實現(xiàn)更有效的多機(jī)構(gòu)合作形式。第四個挑戰(zhàn)在于現(xiàn)有語言在更好地接納
AI及相關(guān)技術(shù)的新特性方面的局限性。這個問題表現(xiàn)在將
AI定性為一種矛盾修辭,即一種修辭手法,將智能與人類和機(jī)器這兩個看似矛盾或極不相似的術(shù)語聯(lián)系起來。因此產(chǎn)生的矛盾要求重新思考人類認(rèn)知的基本前提,并澄清
AI監(jiān)管的主要目標(biāo),即它是旨在關(guān)注技術(shù)、將其投放市場的企業(yè)或提供者還是使用它們的人。在這方面,目前的提議往往過于模糊,或同時過于具體和過于寬泛。因此,真正全面的
AI監(jiān)管需要新的思維方式,這些思維方式同時針對特定的法律問題和法律系統(tǒng)整體的一致性。更重要的是,所有這些挑戰(zhàn)的復(fù)雜性需要就
AI的潛在用途和對人類進(jìn)化更廣泛目的達(dá)成全球哲學(xué)共識。羅斯塔姆·J·諾伊維爾特(RostamJ.Neuwirth),澳門大學(xué)法學(xué)院教授,研究興趣包括國際經(jīng)濟(jì)法和“貿(mào)易聯(lián)系辯論”、知識產(chǎn)權(quán)和創(chuàng)意經(jīng)濟(jì)、比較法以及法律和法律理論的各個跨學(xué)科方面。8第一章
生成式人工智能的風(fēng)險與挑戰(zhàn)生成式人工智能對全球治理的挑戰(zhàn)與應(yīng)對孫南翔當(dāng)前,以生成式人工智能技術(shù)為代表的新興科技革命和產(chǎn)業(yè)革命正加速推進(jìn)。人工智能技術(shù)的運用不僅推動著國家治理體系的變革,也深刻影響著全球治理機(jī)制的發(fā)展進(jìn)程。生成式人工智能技術(shù)使得技術(shù)主體出現(xiàn)了“自知自覺自治”的能力,也使得非國家行為體擁有可比擬于國家的權(quán)力,
法律的作用應(yīng)該被重新審視、重新開創(chuàng),特別是確保技術(shù)發(fā)展遵循人的發(fā)展之脈絡(luò)。全球治理同樣如此。與傳統(tǒng)時代相比,人工智能時代將顛覆傳統(tǒng)的國際法律框架,國際體系的主體、結(jié)構(gòu)、運行規(guī)則等關(guān)鍵要素都將隨之發(fā)生巨變。人工智能技術(shù)的發(fā)展對世界秩序構(gòu)成了嚴(yán)峻的挑戰(zhàn),當(dāng)然也必然帶來新的發(fā)展機(jī)會。當(dāng)前在世界范圍內(nèi),生成式人工智能工具廣泛地運用于傳媒、研究,甚至是運輸和武裝沖突等領(lǐng)域。如何認(rèn)定人工智能工具的法律屬性的問題至關(guān)重要,然而截至目前,人類社會尚未形成共識。在可預(yù)見的未來,生成式人工智能技術(shù)產(chǎn)生的自我學(xué)習(xí)與自我認(rèn)知能力,既不能被人類所規(guī)制,也無法為人類所預(yù)知。毫無疑問,當(dāng)今世界面臨的巨大挑戰(zhàn)將是無知與未知的人工智能技術(shù)。從現(xiàn)階段人工智能的技術(shù)發(fā)展而言,生成式人工智能技術(shù)發(fā)源并受制于人,人工智能所產(chǎn)生的思想、觀念和認(rèn)知來自于人類世界。我們應(yīng)加速研究生成式人工智能技術(shù)對國內(nèi)與國際法律機(jī)制的影響以及其對人類社會生活的挑戰(zhàn)??傮w上,應(yīng)對人工智能對國際法的挑戰(zhàn)應(yīng)堅持體系融合原則、技術(shù)穿透原則和法律技術(shù)化原則。從此層面,國家應(yīng)積極探索法治原則對人工智能技術(shù)的約束作用,加強(qiáng)道德、倫理與技術(shù)的融合,并與世界各國攜手共同應(yīng)對生成式人工智能技術(shù)所引發(fā)的挑戰(zhàn)。孫南翔,
中國社會科學(xué)院國際法研究所國際經(jīng)濟(jì)法研究室副研究員,主要從事國際經(jīng)濟(jì)法、網(wǎng)絡(luò)法研究。擔(dān)任中國法學(xué)會網(wǎng)絡(luò)與信息法學(xué)研究會理事、北京市法學(xué)會互聯(lián)網(wǎng)金融法治研究會理事、對外經(jīng)貿(mào)大學(xué)數(shù)字經(jīng)濟(jì)與法律創(chuàng)新研究中心研究員、北京市法學(xué)會百名法學(xué)英才等。9生成式人工智能安全與全球治理報告全球人工智能風(fēng)險不可避免地需要全球合作鄧肯·卡斯-貝格斯(DuncanCass-Beggs)超級人工智能可能比我們想象的更近。這給人類提出了緊迫的生存問題,例如開發(fā)這種先進(jìn)的人工智能系統(tǒng)是否以及何時安全,以及這些系統(tǒng)應(yīng)該在社會中發(fā)揮什么作用。為了有效和合法,這些選擇需要由國際社會共同做出并實施。這將需要在可能很短的時間內(nèi)進(jìn)行前所未有的全球合作,并且必須在地緣政治緊張和沖突的背景下取得成功。迎接這一挑戰(zhàn)需要堅定的決心和不懈的創(chuàng)新。人工智能帶來的全球范圍的風(fēng)險不能再被忽視。這些風(fēng)險的存在取決于三個觀察結(jié)果:1)人工智能系統(tǒng)正在迅速發(fā)展,并且在廣泛的關(guān)鍵能力方面表現(xiàn)出可能遠(yuǎn)遠(yuǎn)超過人類的水平。這可能會比預(yù)期發(fā)生得更早。2)人類目前缺乏可靠地控制此類系統(tǒng)或以其他方式確保它們與人類利益保持對齊的手段。一些專家認(rèn)為,最終可能會證明,較低智力水平的人不可能持續(xù)可靠地、可持續(xù)地控制極其優(yōu)越的智力水平。3)如果人類創(chuàng)造出能力極其強(qiáng)大且無法可靠控制的人工智能系統(tǒng),其結(jié)果很可能是有害的。先進(jìn)人工智能帶來的災(zāi)難性全球規(guī)模風(fēng)險的例子包括:a)惡意行為者的濫用,例如新型病原體或網(wǎng)絡(luò)武器的創(chuàng)造和廣泛部署;b)未對齊,指創(chuàng)建一個或多個強(qiáng)大自主人工智能系統(tǒng),其目標(biāo)與人類的目標(biāo)相沖突,無法控制或阻止。需要全球協(xié)調(diào)決策和執(zhí)行的第一個也是最緊迫的問題是,是否以及何時足夠安全以允許超級智能的人工智能系統(tǒng)的開發(fā)。世界各地的人們都有共同的利益,即確保任何地方的任何人都不會開發(fā)出可能危害人類的人工智能系統(tǒng)。因此,在可靠的調(diào)整和控制機(jī)就緒之前,不應(yīng)允許具有超人類一般能力的人工智能系統(tǒng)。為了實現(xiàn)這一目標(biāo),協(xié)調(diào)的許可制度可能需要事先進(jìn)行風(fēng)險評估并獲得開發(fā)最強(qiáng)大(即“前沿”)人工智能系統(tǒng)的許可,并且這種制度可以得到強(qiáng)有力的國際監(jiān)督機(jī)制的支持。然而,隨著開發(fā)具有潛在危險的強(qiáng)大人工智能系統(tǒng)所需的算法、數(shù)據(jù)和計算能力變得更加普及,執(zhí)行這一制度將變得更具挑戰(zhàn)性。人類必須共同解決的第二個問題是,如果有可能開發(fā)出安全且對齊的人工智能,那么我們要追求什么樣的未來。保證安全可能需要很長時間,甚至被證明是不可能的,需要長期或永久的全球嚴(yán)密禁止人工智能的發(fā)展。然而,如果在某個時刻人類確定創(chuàng)建一個或多個超級智能系統(tǒng)是安全的,就會出現(xiàn)許多基本問題,例如要創(chuàng)建多少個人工智能系統(tǒng),以及應(yīng)該賦予這些系統(tǒng)什么目標(biāo)、權(quán)利或限制。與不同國家可以獨立制定的許多人工智能政策選擇不同,圍繞引入一種新的高性能智能物種的問題需要集體做出,因為這種人工智能系統(tǒng)甚至?xí)赡懿幌M麚碛羞@種系統(tǒng)的社會產(chǎn)生影響,至10第一章
生成式人工智能的風(fēng)險與挑戰(zhàn)少是間接影響。
從理論上講,人類可以就某些此類問題向人工智能本身尋求建議,但至少需要提前就這些問題的參數(shù)和框架,以及選擇詢問這些問題的人工智能類型達(dá)成一定程度的共識。長期以來,人工智能的變革潛力只存在于科幻小說中,而現(xiàn)在,它實際上已經(jīng)來到了人類的家門口,需要在未來的幾個月和幾年里做出關(guān)鍵的決策和行動。盡管這些問題很嚴(yán)重,但似乎還遠(yuǎn)不能保證人類會認(rèn)識到這些問題或及時應(yīng)對挑戰(zhàn)。需要努力幫助決策者了解風(fēng)險并制定成功度過這一時期所需的新范式和新制度。要實現(xiàn)這一目標(biāo),需要社會各界和世界各地的人貢獻(xiàn)想象力和奉獻(xiàn)精神。鄧肯·卡斯-貝格斯
(DuncanCass-Beggs),國際治理創(chuàng)新中心
(CIGI)全球人工智能風(fēng)險倡議執(zhí)行董事、經(jīng)濟(jì)合作與發(fā)展組織
(OECD)前戰(zhàn)略展望顧問。11生成式人工智能安全與全球治理報告第二章
生成式人工智能的全球治理策略基礎(chǔ)模型和生成式人工智能時代全球人工智能治理的制度設(shè)計原則尼古拉斯·莫斯(NicolasMo?s),尤蘭達(dá)·蘭奎斯特(YolandaLannquist),尼基·伊利亞迪斯(NikiIliadis),尼古拉斯·米埃赫(NicolasMiailhe)基礎(chǔ)模型和生成式
AI的新興時代為
AI治理帶來了新的風(fēng)險和挑戰(zhàn)。鑒于它們的廣泛應(yīng)用和快速采用,積極地理解和降低這些風(fēng)險至關(guān)重要。本文提出了十條
AI治理的制度設(shè)計原則,以確保安全和維護(hù)人類價值觀。1.內(nèi)在、廣泛和不可預(yù)測的風(fēng)險:風(fēng)險不受用例和應(yīng)用的限制,從設(shè)計到部署的整個生命周期都會出現(xiàn)。這些系統(tǒng)中的故障可能會以不可預(yù)測的方式出現(xiàn),從廣泛的內(nèi)容審查偏見和公共心理健康危機(jī),到自動化惡意使用、生物安全、網(wǎng)絡(luò)安全和國家安全威脅,造成大規(guī)模、災(zāi)難性甚至生存性的風(fēng)險。2.可信的設(shè)計:這種方法旨在從一開始就將安全、安全性和倫理考慮因素嵌入AI中,而不是事后再進(jìn)行改裝,從而創(chuàng)造依賴于可信模型的新市場。3.收回控制權(quán):獨立專家的第三方評估應(yīng)該補充內(nèi)部評估,以提供一個穩(wěn)固的安全網(wǎng)。監(jiān)管機(jī)構(gòu)必須有權(quán)力根據(jù)這些評估暫?;蛐薷拈_發(fā)過程。確保除私營部門主導(dǎo)的內(nèi)部評估之外的穩(wěn)健機(jī)構(gòu)框架至關(guān)重要。4.技術(shù)和渠道中立:為確保公平競爭并降低不可預(yù)見的風(fēng)險,監(jiān)管應(yīng)橫跨技術(shù)和分銷渠道。無論
AI系統(tǒng)是通過開源平臺或
API分發(fā),還是使用不同的技術(shù)范式(如大腦仿真或基于規(guī)則的系統(tǒng))開發(fā),監(jiān)管審查的基線水平應(yīng)保持不變。5.針對性法律責(zé)任和社會責(zé)任:大型科技公司和
AGI公司等強(qiáng)大利益相關(guān)者應(yīng)對其產(chǎn)品的影響負(fù)責(zé)和問責(zé),作為主要承擔(dān)責(zé)任的一方。在這些實體內(nèi)部,安全官和合規(guī)官等角色也應(yīng)承擔(dān)具體義務(wù)。6.結(jié)構(gòu)性和系統(tǒng)性實踐:安全、倫理和安全的做法應(yīng)該融入組織的文化中,而不僅僅局限于特殊的、附加的措施,如紅隊演練。法規(guī)應(yīng)強(qiáng)制執(zhí)行以基于證據(jù)的要求,這些要求應(yīng)隨著
AI能力狀態(tài)的發(fā)展而變化。7.基于證據(jù)的要求:開發(fā)人員應(yīng)有義務(wù)通過經(jīng)驗證據(jù)來證明其安全、倫理和安全實踐的有效性?;谧C據(jù)的措施應(yīng)隨著最先進(jìn)的
AI能力以及風(fēng)險緩解和預(yù)防措施的發(fā)展而變化,確保系統(tǒng)經(jīng)得起未來的考驗。12第二章
生成式人工智能的全球治理策略8.公共部門能力建設(shè):加強(qiáng)監(jiān)管有效性,這在很大程度上依賴于公共部門內(nèi)的知識和技能。這種知識應(yīng)該獨立獲得,不應(yīng)受到行業(yè)的不當(dāng)影響。知情的公共部門可以更好地抵制監(jiān)管俘獲,并在技術(shù)發(fā)展中對
AI治理做出明智的決策。9.可適應(yīng)和有韌性的治理機(jī)制:政策連續(xù)性必須具有靈活性,以適應(yīng)不斷變化的情況,同時避免行業(yè)控制導(dǎo)致范圍的稀釋或轉(zhuǎn)變。應(yīng)賦予新的機(jī)構(gòu),如歐盟AI辦公室,更新規(guī)則的權(quán)力。來自民眾的監(jiān)督可以確保繼續(xù)關(guān)注安全、倫理和安全。10.可互操作的全球治理:在各個司法管轄區(qū)之間促進(jìn)一致的
AI法規(guī),這些法規(guī)在實施最穩(wěn)健的安全、倫理和安全措施方面相互補充。實體之間應(yīng)協(xié)調(diào)“提高治理要求的標(biāo)準(zhǔn)”,并避免法規(guī)碎片化導(dǎo)致的監(jiān)管套利。這些原則為治理提供了一個多方面、不斷發(fā)展的方法,可以適應(yīng)技術(shù)進(jìn)步。遵守這些原則可以幫助確保
AI風(fēng)險得到緩解,而收益得到廣泛和公平地分配。尼古拉斯·莫斯(NicolasMo?s),未來社會(TFS)歐洲人工智能治理總監(jiān),重點關(guān)注歐洲人工智能立法框架的發(fā)展,包括歐盟人工智能法案的起草和執(zhí)行機(jī)制。尤蘭達(dá)·蘭奎斯特(YolandaLannquist),未來社會(TFS)全球人工智能治理總監(jiān),與國際組織、政府、公司、學(xué)術(shù)界和非營利組織一起領(lǐng)導(dǎo)人工智能治理和政策項目,以促進(jìn)人工智能安全、道德、安保和包容性。尼基·伊利亞迪斯(NikiIliadis),未來社會
(TFS)的人工智能和法治總監(jiān),領(lǐng)導(dǎo)關(guān)于人工智能和法治以及美國人工智能政策的國際多利益相關(guān)者論壇雅典圓桌會議。尼古拉斯·米埃赫(NicolasMiailhe),未來社會(TFS)總裁兼聯(lián)合創(chuàng)始人,人工智能全球伙伴關(guān)系(GPAI)、經(jīng)合組織人工智能專家組(ONE.AI)和聯(lián)合國教科文組織(UNESCO)人工智能倫理高級別專家組的專家。13生成式人工智能安全與全球治理報告有關(guān)全球人工智能治理的關(guān)鍵政策建議周輝在一個人工智能不斷重塑經(jīng)濟(jì)和社會結(jié)構(gòu)的時代,為這種變革性技術(shù)制定明智的治理機(jī)制已經(jīng)變得空前迫切。結(jié)合中國《人工智能法示范法》及歐盟、美國的治理探索來看,為更加有效地監(jiān)督通用人工智能或超越一定規(guī)模的基礎(chǔ)模型的研發(fā)和部署,建立有效的風(fēng)險預(yù)警和應(yīng)對機(jī)制,需要采用多維度的框架以在適應(yīng)人工智能發(fā)展規(guī)律的同時,及時有效回應(yīng)由此產(chǎn)生的新風(fēng)險新挑戰(zhàn)。一、倫理原則的規(guī)則化《人工智能法示范法》明確要求在人工智能研發(fā)、提供和使用活動中,使用允許人類監(jiān)督和干預(yù)其運行的系統(tǒng)架構(gòu),這一制度設(shè)計旨在保障人為修正或停止人工智能系統(tǒng)運作的能力,避免技術(shù)失控所帶來的危害。除此之外,為能夠更好預(yù)警風(fēng)險,示范法吸收了一系列國際廣泛認(rèn)可的人工智能倫理原則,如確保人工智能透明度、公平、可追責(zé)等。人工智能研發(fā)者和提供者不僅需要對人工智能進(jìn)行標(biāo)記以提高用戶感知度,而且還需在設(shè)計中保障人工智能算法、模型的透明度和可解釋性,并在必要的時候向公眾或監(jiān)管機(jī)關(guān)提供相應(yīng)信息以進(jìn)行說明。在公平方面,《人工智能法示范法》提出如下要求:一方面,人工智能研發(fā)應(yīng)用應(yīng)該促進(jìn)包容性,以減少數(shù)字鴻溝,并服務(wù)于各種弱勢群體;另一方面,人工智能系統(tǒng)需要盡可能減少歧視性內(nèi)容的生成和輸出,并遏制其使用者進(jìn)行類似活動。二、精準(zhǔn)治理考慮到人工智能技術(shù)在復(fù)雜性和社會影響上的固有差異性,以及不同規(guī)模、不同用途的人工智能系統(tǒng)之間的區(qū)別,單一的治理框架難以滿足精準(zhǔn)治理的需要?!度斯ぶ悄芊ㄊ痉斗ā诽岢隽艘载?fù)面清單為基礎(chǔ)的治理模型,采用事后的監(jiān)管審查作為其基石,同時為高風(fēng)險的人工智能研發(fā)、提供納入預(yù)防策略。這種混合方法也與歐盟《人工智能法案》中明確的基于風(fēng)險的框架相呼應(yīng)。針對通用人工智能或人工智能基礎(chǔ)模型,示范法亦對其研發(fā)者、提供者課以特別義務(wù),這一模式借鑒平臺治理中對“數(shù)字守門人”提出專門責(zé)任義務(wù)要求的成熟實踐經(jīng)驗,以減輕監(jiān)管壓力、提高治理效能。三、均衡發(fā)展與安全以人工智能技術(shù)助力經(jīng)濟(jì)社會發(fā)展,需要相關(guān)治理措施在發(fā)展和安全之間建立一個平衡,避免過于嚴(yán)苛的制度設(shè)計阻礙技術(shù)創(chuàng)新。為此,應(yīng)當(dāng)要求監(jiān)管機(jī)構(gòu)創(chuàng)造一個更加確定的監(jiān)管環(huán)境,保障相關(guān)企業(yè)的經(jīng)營預(yù)期。此外,示范法納入了幾個明確旨在促進(jìn)人工智能技術(shù)發(fā)展的制度,包括發(fā)展算力基礎(chǔ)設(shè)施建設(shè)等配套領(lǐng)域和打通數(shù)據(jù)要14第二章
生成式人工智能的全球治理策略素供給、設(shè)計監(jiān)管沙盒制度、豁免開源人工智能技術(shù)提供者的責(zé)任等。此外,負(fù)面清單制度也致力于營造更寬松的低風(fēng)險人工智能技術(shù)發(fā)展環(huán)境,除負(fù)面清單中所列的人工智能活動需要獲取行政許可外,其余人工智能研發(fā)、提供活動僅需完成與信息披露相關(guān)的備案程序,且該程序不應(yīng)成為實質(zhì)審批等行政阻礙?,F(xiàn)有的法律框架仍可在低風(fēng)險人工智能活動中繼續(xù)適用。四、鼓勵技術(shù)治理和多元共治《人工智能法示范法》提出了鼓勵監(jiān)管科技、合規(guī)科技發(fā)展,實施多元主體綜合治理人工智能的愿景。一方面,應(yīng)支持監(jiān)管科技、合規(guī)科技的研發(fā)和應(yīng)用,創(chuàng)新治理工具,減輕治理壓力,促進(jìn)治理的智能化、自動化、科學(xué)化和精準(zhǔn)化;另一方面,人工智能企業(yè)在治理中發(fā)揮重要作用,有充分條件將價值觀與法律規(guī)則融入人工智能系統(tǒng)中,并有充足動機(jī)參與人工智能治理以為自己獲取穩(wěn)定發(fā)展環(huán)境。應(yīng)建立充分有效的溝通、會商機(jī)制,倡導(dǎo)企業(yè)自律和行業(yè)自治,并發(fā)揮社會輿論監(jiān)督作用,完善綜合治理體系。五、設(shè)立人工智能專責(zé)治理機(jī)關(guān)在目前的人工智能全球治理中,鑒于人工智能疊加現(xiàn)有網(wǎng)絡(luò)信息技術(shù)所能產(chǎn)生的跨區(qū)域、跨領(lǐng)域及跨國界應(yīng)用,解決潛在的重復(fù)監(jiān)管、多頭監(jiān)管問題較為迫切?!度斯ぶ悄芊ㄊ痉斗ā分鲝埥⒁粋€唯一的國家人工智能主管機(jī)關(guān),承擔(dān)人工智能監(jiān)管職責(zé)的同時與其他部門進(jìn)行協(xié)調(diào)。這樣的機(jī)構(gòu)設(shè)計通過將監(jiān)管功能整合到一個專門的監(jiān)管機(jī)構(gòu)下,旨在增強(qiáng)治理的一致性、專業(yè)性和確定性。各國人工智能專門主管機(jī)關(guān)也可更高效率地建立和參與國際交流協(xié)調(diào)機(jī)制,推動國家和地區(qū)間人工智能治理規(guī)則對接、規(guī)則互認(rèn)等合作。周輝,中國社會科學(xué)院法學(xué)研究所網(wǎng)絡(luò)與信息法研究室副主任(主持工作)、副研究員,中國社會科學(xué)院大學(xué)法學(xué)院副教授、碩士生導(dǎo)師,耶魯大學(xué)法學(xué)院訪問學(xué)者。15生成式人工智能安全與全球治理報告基礎(chǔ)模型開發(fā)和部署的國際監(jiān)督羅伯特·特拉格(RobertTrager),菲恩·海德(FynnHeide)對強(qiáng)大的新興技術(shù)建立國際監(jiān)督具有挑戰(zhàn)性。然而,對于先進(jìn)的人工智能,建立這樣的監(jiān)管體系勢在必行。這項技術(shù)帶來的風(fēng)險跨越國界。即使一些國家引領(lǐng)人工智能發(fā)展,所有國家都會受到影響,因此所有國家都應(yīng)該在人工智能的開發(fā)和部署監(jiān)管中擁有發(fā)言權(quán)。文本著眼于民用人工智能的國際治理機(jī)會。軍用人工智能的治理很重要,但更具挑戰(zhàn)性。我們可以從試圖通過《聯(lián)合國特定常規(guī)武器公約》來規(guī)范致命性自主武器的經(jīng)驗中看到這一點。盡管經(jīng)過十年的努力,仍未采取具有法律約束力的措施。民用人工智能的國際監(jiān)督前景更加明朗。一種方法是使用類似于國際民用航空組織
(ICAO)、國際海事組織
(IMO)或金融行動特別工作組
(FATF)的模式。這些組織不審計公司,而是審計管轄地。一個國際人工智能組織
(IAIO)可以審計各轄區(qū),以確保它們采用國際監(jiān)督標(biāo)準(zhǔn)并擁有執(zhí)行記錄。與
IMO和
ICAO一樣,這樣的組織應(yīng)與各國密切合作,以確保它們有合規(guī)能力。任何治理體系都需要促進(jìn)合規(guī)。促進(jìn)民用人工智能治理體系合規(guī)的一種方法是將其與貿(mào)易掛鉤。各國可能同意不從嚴(yán)重違反
IAIO標(biāo)準(zhǔn)的司法管轄區(qū)進(jìn)口其供應(yīng)鏈包含人工智能的商品。他們還可能拒絕向此類司法管轄區(qū)出口關(guān)鍵投入,或向遵守協(xié)定框架的國家提供技術(shù)援助。由此產(chǎn)生的國內(nèi)層面的監(jiān)測和執(zhí)法可能會帶來重大好處。各國將不再那么擔(dān)心擴(kuò)散,局部的監(jiān)測和執(zhí)法可能有助于快速、有效地糾正違法行為。一般來說,國內(nèi)執(zhí)法行動比國際執(zhí)法行動要快。該框架并未明確基礎(chǔ)模型監(jiān)管的具體細(xì)節(jié)——無論是國內(nèi)還是國際,我們對此還沒有達(dá)成共識。但建立國際治理并不需要完全的共識,只需要對一套最小標(biāo)準(zhǔn)達(dá)成廣泛認(rèn)同即可。國際參與者可能會決定,超過一定規(guī)模的基礎(chǔ)模型將受到監(jiān)管審查,包括一系列標(biāo)準(zhǔn)化的模型評估。此類系統(tǒng)的開發(fā)和部署可以得到當(dāng)?shù)刂鞴懿块T的許可。數(shù)據(jù)中心運營還需要一個許可證,該許可證需要類似于金融服務(wù)行業(yè)的“了解您的客戶”實踐。這樣的制度可以限制人工智能的有害發(fā)展,同時也促進(jìn)廣泛的應(yīng)用。事實上,監(jiān)管制度對于廣泛的應(yīng)用可能是必要的。如果監(jiān)管,前沿
AI國家可能會擔(dān)心擴(kuò)散并更嚴(yán)格地限制對技術(shù)獲取。一個全球體制可以鼓勵前沿
AI國家參與,同時保證全球受影響社區(qū)的發(fā)言權(quán)。16第二章
生成式人工智能的全球治理策略羅伯特·特拉格
(RobertTrager),牛津馬丁人工智能治理計劃主任、人工智能治理中心的國際治理負(fù)責(zé)人以及牛津大學(xué)布拉瓦尼克政府學(xué)院的高級研究員。專注于新興技術(shù)國際治理、外交實踐、制度設(shè)計和技術(shù)監(jiān)管。菲恩·海德
(FynnHeide),人工智能治理中心研究學(xué)者。專注于國際人工智能安全合作以及中國人工智能安全和政策。17生成式人工智能安全與全球治理報告協(xié)調(diào)、合作、緊迫性:國際人工智能治理的優(yōu)先事項卡洛斯·伊格納西奧·古鐵雷斯(CarlosIgnacioGutierrez)人工智能的國際治理本質(zhì)上是一個復(fù)雜的問題,臨近
2023年末,我們還沒有明確的解決方案。隨著這項技術(shù)的能力以不可預(yù)測的速度增長,190多個國家管轄區(qū)承擔(dān)著管理其不斷升級和不可預(yù)見的風(fēng)險的任務(wù)。為了解決這些風(fēng)險,獨立行動顯然不是一種最佳方法,因為在一個地方修補問題,并不能阻止其蔓延到其他地方。相反,人工智能的有效治理是一項需要全球參與的共同努力。
考慮到這一點,社會應(yīng)優(yōu)先制定考慮以下因素多邊應(yīng)對措施:人工智能的哪些要素應(yīng)該受到治理以及如何治理?
誰應(yīng)該參與這個治理過程?
什么時候是采取行動的合適時機(jī)?何事和如何:人工智能風(fēng)險的選擇空間兼具廣度和深度??梢蕴岢鋈我鈹?shù)量的問題來吸引國際社會的關(guān)注。然而,為了成功地推動行動,候選問題必須在具有廣泛需求和能力的國家之間引發(fā)一種共同意識。啟動對話的一項提議是重點關(guān)注減輕人工智能系統(tǒng)直接或間接造成的共同大規(guī)模高風(fēng)險危害。設(shè)置這樣一個閾值的好處是它涵蓋了相對狹窄的關(guān)注集。此外,它還有助于集中認(rèn)識和同步努力,最好是通過一個多邊組織,其具體工作流程由以下目標(biāo)組成:識別人工智能系統(tǒng)產(chǎn)生的共同大規(guī)模高風(fēng)險危害的載體。盡管通用人工智能系統(tǒng)會引起許多擔(dān)憂,但該工作的范圍必須包括符合其操作指南的狹窄系統(tǒng)。
此外,它應(yīng)主動告知利益相關(guān)者潛在風(fēng)險并識別現(xiàn)有的危害媒介。協(xié)調(diào)技術(shù)上合理且符合最佳治理實踐的全球應(yīng)對措施。這可以采取多種形式,具體取決于當(dāng)前問題的規(guī)模和根源。例如,應(yīng)對措施的范圍可以從征求自愿標(biāo)準(zhǔn)作為預(yù)防措施,到實施一套強(qiáng)制性規(guī)則作為對持續(xù)關(guān)注的反應(yīng)。
強(qiáng)制遵守商定的行動,以減少傷害的可能性和影響。
由于人工智能的直接和間接影響往往不受管轄權(quán)的約束,因此建立有效的執(zhí)行機(jī)制需要最大限度地增加參與國的數(shù)量。
雖然應(yīng)授權(quán)多邊努力發(fā)揮這一作用,但它也可以招募、認(rèn)證或委托公共機(jī)構(gòu)和第三方(通常是在管轄權(quán)的基礎(chǔ)上)來承擔(dān)這一任務(wù),以擴(kuò)大其執(zhí)行能力。何人:無論其設(shè)計、開發(fā)或部署人工智能技術(shù)的能力如何,所有國家都容易受到人工智能風(fēng)險的影響,并可能有意或無意地托管或庇護(hù)高風(fēng)險人工智能供應(yīng)鏈或系統(tǒng)本身的任何部分。這就是為什么無論地理位置、國家的政治制度或意識形態(tài)如何,合作都必須成為優(yōu)先事項。從本質(zhì)上講,任何國家都不應(yīng)被排除在參與解決全球人工智能問題的多邊行動之外。減輕共同的大規(guī)模高風(fēng)險危害的能力取決于廣泛的參與。因此,應(yīng)考慮對廣泛的國家采取激勵措施,從那些對人工智能的設(shè)計、開發(fā)和部署有影響力的國家,到那些在該技術(shù)風(fēng)險方面作用相對有限的國家。18第二章
生成式人工智能的全球治理策略何時:我們面臨著每天都在部署越來越強(qiáng)大的人工智能系統(tǒng)的情況,而對于什么構(gòu)成適當(dāng)?shù)闹卫恚度氲淖⒁饬τ邢?。這凸顯了集體努力主動應(yīng)對人工智能風(fēng)險的緊迫性。即使今天著手開始多邊協(xié)調(diào)與合作,也可能需要數(shù)年時間才能建立一個體系。因此,從短期來看,如果最初一批有影響力的國家主動啟動這一多邊進(jìn)程,也是可以理解的。這可能包括在系統(tǒng)商業(yè)部署、硬件制造、技術(shù)人才培養(yǎng)和/或建立全面監(jiān)管方面領(lǐng)先世界的國家。從長遠(yuǎn)來看,聯(lián)合國是唯一具有普遍代表性并有能力主辦本評論中所述努力的組織。理想情況下,它應(yīng)該負(fù)責(zé)驗證、協(xié)調(diào)和執(zhí)行減輕共同的人工智能風(fēng)險的努力。結(jié)論:在優(yōu)化多邊治理方面,不存在“正確”答案。
我們可以期待的是一個多邊人工智能治理計劃,該計劃優(yōu)先考慮協(xié)調(diào)、合作和緊迫性,以解決共同的大規(guī)模高風(fēng)險危害。通過將全球注意力集中在緩解這些問題上,國際社會需要建立必要的共性,以實現(xiàn)人工智能治理唯一負(fù)責(zé)任的最終狀態(tài):這種技術(shù)的設(shè)計、開發(fā)和部署是安全且合乎道德的。卡洛斯·伊格納西奧·古鐵雷斯
(CarlosIgnacioGutierrez),未來生命研究所(FLI)人工智能政策研究員。專注于人工智能治理,研究技術(shù)對硬法的影響,發(fā)表了關(guān)于美國法規(guī)漏洞的綜述,并設(shè)計了有效的軟法計劃。最新成就是發(fā)布全球人工智能軟法計劃數(shù)據(jù)庫。19生成式人工智能安全與全球治理報告數(shù)據(jù)倫理與聯(lián)合國教科文組織開放科學(xué)建議國際科技數(shù)據(jù)委員會數(shù)據(jù)倫理工作組大數(shù)據(jù)和人工智能在科研中的廣泛應(yīng)用帶來了倫理和規(guī)范方面的挑戰(zhàn),特別是在公開性、隱私性、透明性、問責(zé)制、公平性和責(zé)任性方面。國際科技數(shù)據(jù)委員會(CODATA)的數(shù)據(jù)倫理工作組(DEWG)正在與全球?qū)W者合作,共同確立數(shù)據(jù)倫理原則和覆蓋整個數(shù)據(jù)生命周期的數(shù)據(jù)倫理框架的基本共識,以進(jìn)一步開展活動和研究。DEWG有
4個專題小組,分別關(guān)注科學(xué)誠信、個人數(shù)據(jù)保護(hù)、本土數(shù)據(jù)治理和全球權(quán)力與經(jīng)濟(jì)關(guān)系。這將幫助
CODATA按照聯(lián)合國教科文組織開放科學(xué)建議,促進(jìn)其在支持全球開放數(shù)據(jù)交流與應(yīng)用方面的使命。倫理與科學(xué)誠信專題小組討論了研究的透明度、質(zhì)量、可重復(fù)利用性和影響力等話題,關(guān)注協(xié)作努力和開放學(xué)術(shù)在支持科研誠信方面的作用。我們建議制定政策和實際指南,以推進(jìn)全球數(shù)據(jù)倫理規(guī)范,通過創(chuàng)建支持結(jié)構(gòu)來增強(qiáng)研究人員的數(shù)據(jù)主權(quán),并加強(qiáng)研究方法在數(shù)據(jù)倫理中的關(guān)鍵作用,開發(fā)數(shù)據(jù)倫理培訓(xùn)和教育資源。倫理與個人數(shù)據(jù)保護(hù)專題小組探討了數(shù)據(jù)的政治及政治經(jīng)濟(jì)學(xué)相關(guān)問題。我們建議構(gòu)建一個框架和政策,基于對隱私的更多批判性理解,認(rèn)識到損害個人和社區(qū)的潛在動力和權(quán)力關(guān)系,并提供機(jī)會來提高對隱私及相關(guān)話題的技術(shù)、社會、法律和政治發(fā)展的技能。倫理與本土數(shù)據(jù)治理專題小組關(guān)注諸如
CARE(集體利益、控制權(quán)限、責(zé)任和倫理)和
JUST(明智、無偏見、安全和透明)等數(shù)據(jù)原則,我們建議本土數(shù)據(jù)主權(quán)需要建立數(shù)據(jù)受托人(和類似的中介機(jī)構(gòu)),這將實現(xiàn)有選擇的數(shù)字披露。全球權(quán)力與經(jīng)濟(jì)關(guān)系專題小組探討了塑造國家層面和個人層面研究的結(jié)構(gòu)條件。許多國家背景中的學(xué)者面臨基礎(chǔ)設(shè)施不足、國家政策不支持、全球北方資助者控制研究議程以及少數(shù)出版商和大型科技公司主導(dǎo)等障礙。在個人層面,各地不符合典型學(xué)者形象(白人、身體健全、男性)的研究者面臨諸如意識形態(tài)和無意識偏見、種族主義、厭女癥、職業(yè)中斷和社會對照料的期待等多重障礙。DEWG已獲得
2023年于奧地利薩爾茨堡舉行的
CODATA全體大會批準(zhǔn),晉升為數(shù)據(jù)倫理任務(wù)組。面對人工智能快速發(fā)展和廣泛應(yīng)用帶來的挑戰(zhàn),這個任務(wù)組將在后續(xù)工作中加強(qiáng)對數(shù)據(jù)訪問倫理的研究。致謝:本文件基于
DEWG各專題小組的研究成果和報告,這些成果和報告已在
2023國際數(shù)據(jù)周上由JohannesJohn-Langba、JoyJang、MasanoriArita、LouiseBezuidenhout和
LianglinHu發(fā)布。20第二章
生成式人工智能的全球治理策略國際科技數(shù)據(jù)委員會(CODATA)數(shù)據(jù)倫理工作組(DEWG),使命是與全球?qū)W者合作,為數(shù)據(jù)倫理原則和數(shù)據(jù)倫理框架的進(jìn)一步活動和研究建立基本共識,具體目標(biāo)是就理問題探索前景并提出建議。?
CODATA活動如何有助于解決數(shù)據(jù)倫21生成式人工智能安全與全球治理報告通用人工智能或大型基礎(chǔ)模型的國際治理:漸進(jìn)原則與開放探索張鵬通用人工智能或大型基礎(chǔ)模型的部署和應(yīng)用能夠顯著提升生產(chǎn)效率,增強(qiáng)決策質(zhì)量,是能夠影響人類社會發(fā)展的革命性技術(shù),但其在實踐中也可能帶來偏見和歧視、數(shù)據(jù)隱私保護(hù)、網(wǎng)絡(luò)安全、知識產(chǎn)權(quán)、虛假信息等問題。如果不能加上安全的護(hù)欄,將對人類生活帶來負(fù)面影響甚至生存風(fēng)險。通用人工智能或大型基礎(chǔ)模型相較一般人工智能的特點是數(shù)據(jù)和參數(shù)規(guī)模龐大、運行過程難以解釋,是資源密集型和數(shù)據(jù)密集型行業(yè)。它們的大規(guī)模商業(yè)化應(yīng)用形成的是由模型提供者、部署者、使用者和用戶組成的一條供應(yīng)鏈。因此,對通用人工智能或大型基礎(chǔ)模型的治理或監(jiān)管,也不能采取單一主體的視角,或者所有參與者“連帶責(zé)任”“一體問責(zé)”的思路,而應(yīng)當(dāng)具有系統(tǒng)思維和精確的供應(yīng)鏈意識,區(qū)分供應(yīng)鏈上不同的主體及其對系統(tǒng)的控制力,根據(jù)控制力大小設(shè)置精細(xì)化、有區(qū)分的安全義務(wù)與合規(guī)要求。例如,上游提供者應(yīng)當(dāng)對底層模型引發(fā)的風(fēng)險承擔(dān)更多的安全責(zé)任,下游使用者則應(yīng)當(dāng)對其產(chǎn)品和服務(wù)中對基礎(chǔ)模型的應(yīng)用產(chǎn)生的安全風(fēng)險副承擔(dān)更多的預(yù)防、緩解和消除等義務(wù)。通用人工智能或大型基礎(chǔ)模型的國際治理,如能在最具普遍性和代表性的聯(lián)合國框架下制定統(tǒng)一的規(guī)則,是最理想的情況。也有很多觀點認(rèn)為應(yīng)當(dāng)借鑒國際社會對核能、氣候變化的治理經(jīng)驗,建立相應(yīng)得制度和機(jī)構(gòu)。但要看到,通用人工智能或大型基礎(chǔ)模型作為一項新興技術(shù),其發(fā)展仍處在方興未艾的階段,更涉及各國主權(quán)和復(fù)雜的地緣政治和科技競爭等因素,各國立場主張和利益考量未必相同,要達(dá)成一致的共識和明確的規(guī)則難度不小。應(yīng)當(dāng)秉持邊發(fā)展、邊探索、邊治理的基本原則,倫理和標(biāo)準(zhǔn)先行,國內(nèi)立法和國際立法審慎包容、循序漸進(jìn),在確保技術(shù)進(jìn)步和創(chuàng)新的同時建立有效國際治理框架,消除通用人工智能或大型基礎(chǔ)模型的潛在風(fēng)險。張鵬,上海市人工智能與社會發(fā)展研究會高級研究員、對外經(jīng)貿(mào)大學(xué)數(shù)字經(jīng)濟(jì)與法律創(chuàng)新研究中心研究員。22第三章
人工智能治理助力發(fā)展中國家與全球可持續(xù)發(fā)展第三章
人工智能治理助力發(fā)展中國家與全球可持續(xù)發(fā)展發(fā)展中國家距離利用人工智能的力量還有多遠(yuǎn)?尤金尼奧·巴爾加斯·加西亞(EugenioVargasGarcia)對于許多發(fā)展中國家來說,人工智能的前景仍然是一個遙遠(yuǎn)的夢想。全球不平等是一個棘手的問題。我們不應(yīng)低估這一挑戰(zhàn)的嚴(yán)重性。造成這種情況的原因是多方面的。以下是其中四點:????競爭性優(yōu)先事項——更緊迫的問題,如貧困、饑餓、突發(fā)衛(wèi)生事件或暴力,通常在政策決定和預(yù)算分配中優(yōu)先考慮。缺乏資源——試圖在資金很少的情況下,同時解決不同的問題可能是一項艱巨的任務(wù),尤其是在科學(xué)和技術(shù)方面。數(shù)字基礎(chǔ)設(shè)施差——網(wǎng)絡(luò)連接效率低下(有時電力供應(yīng)也不可靠)、過時的通信網(wǎng)絡(luò)、硬件和計算能力短缺等。能力差距——盡管人才無處不在,不分國籍,但當(dāng)優(yōu)質(zhì)教育、技術(shù)專長和就業(yè)機(jī)會缺失時,改變這種狀況所需的努力就會艱巨得多。由于上述原因和其他潛在因素,許多全球南方國家一直在努力彌合計算鴻溝并成為人工智能就緒國家。權(quán)力不對稱、貧富差距擴(kuò)大、數(shù)據(jù)剝削、網(wǎng)絡(luò)殖民、標(biāo)注員報酬過低、算法偏見和歧視性人工智能系統(tǒng)是最常見的困境。在許多地方,技術(shù)仍然不發(fā)達(dá)且未得到充分利用。最終用戶可以在線訪問其他地方開
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 提前解除勞動合同的賠償計算與支付方式
- 聯(lián)合經(jīng)營協(xié)議書范本
- 證人保證書范文2024年
- 買賣定金合同協(xié)議書
- 2024年外墻施工分包合同范本
- 2024中國銀行信托投資公司外匯固定資產(chǎn)貸款合同
- 互聯(lián)網(wǎng)投資合作協(xié)議書怎么寫
- 2024設(shè)備保修合同模板
- 土方設(shè)備互換協(xié)議
- 2024年二手車轉(zhuǎn)讓合同模板
- 項目主要施工管理人員情況
- 個人借條電子版模板
- 關(guān)于學(xué)習(xí)“國語普通話”發(fā)聲亮劍【三篇】
- 玻璃廠應(yīng)急預(yù)案
- 嬰幼兒游戲照料(嬰幼兒回應(yīng)性照護(hù)課件)
- 貨車進(jìn)入車間安全要求
- MAC地址-廠商對應(yīng)表
- 2022年中國出版業(yè)總體狀況分析
- BIM大賽題庫含答案
- 造紙術(shù)學(xué)習(xí)課件
- (完整版)譯林版四年級上冊Unit7單元測試
評論
0/150
提交評論