可信虛擬人白皮書_第1頁
可信虛擬人白皮書_第2頁
可信虛擬人白皮書_第3頁
可信虛擬人白皮書_第4頁
可信虛擬人白皮書_第5頁
已閱讀5頁,還剩92頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

虛擬現(xiàn)實與元宇宙產(chǎn)業(yè)聯(lián)盟可信虛擬人白皮書虛擬現(xiàn)實與元宇宙產(chǎn)業(yè)聯(lián)盟可信虛擬人白皮書1近年來,作為元宇宙中真人沉浸式體驗的重要載體和AIGC的關(guān)鍵要素,虛擬人技術(shù)產(chǎn)業(yè)乘勢而起,在元宇宙和AIGC雙輪產(chǎn)業(yè)進步下迎來了新一輪發(fā)展熱潮,在影視、傳媒、金融、營銷等行業(yè)呈現(xiàn)出強勁的增長態(tài)勢。但是,虛擬人產(chǎn)業(yè)在快速發(fā)展的同時,也迎來了一系列風險隱患、倫理思考和法律挑戰(zhàn),如近日通過虛擬人軟件“AI換臉”“AI換聲”以替換、偽造他人聲音形象,形成高度寫實逼真且肉眼難以分辨的音視頻影像,從而開展虛假信息傳播、造謠生事,甚至誹謗和詐騙等不法活動的案例頻繁出現(xiàn),在隱私保護、內(nèi)容合規(guī)、問責追溯和倫理等方面帶來諸多風險和挑戰(zhàn)。當前國內(nèi)外針對可信虛擬人的研究和實踐還尚處于初期階段,在企業(yè)側(cè)、行業(yè)側(cè)和監(jiān)管側(cè)尚未形成一套完整的指導方針和行動方案,虛擬人的可信建設(shè)刻不容緩。什么是可信虛擬人?可信虛擬人涉及虛擬人全生命周期與可信要素的結(jié)合,在虛擬人技術(shù)研發(fā)、生成服務、運營使用等各個環(huán)節(jié)和可信手段進行緊密融合,即虛擬人技術(shù)研發(fā)可信建設(shè)、生成平臺可信建設(shè)、運營使用可信建設(shè)等,使其符合標準規(guī)范、倫理道德等方面的可信要求。本白皮書圍繞“虛擬人全生命周期的可信建設(shè)”這一關(guān)鍵問題,結(jié)合可信手段將可信要素與虛擬人全生命周期進行深度融合,構(gòu)建可信虛擬人框架體系,總結(jié)提出七大可信目標,即:身份及權(quán)利保障、隱私保護與增強、生成內(nèi)容安全、可靠性可控性、可理解可解釋、無偏見多樣化、可問責可追溯。探討可信虛擬人發(fā)展路徑和具體能力要求,從功能完備度、系統(tǒng)可信能力、產(chǎn)業(yè)化能力三大維度構(gòu)建可信虛擬人分級評估體系。實現(xiàn)手段上,白皮書從可信技術(shù)和可信管理兩方面,針對技術(shù)研發(fā)階段、生成服務階段、運營使用階段的不同主體的可信能力建設(shè)提出建議,推動行業(yè)合規(guī)化發(fā)展。未來,以可信原則指導發(fā)展成為虛擬人產(chǎn)業(yè)安全、可控、高質(zhì)量發(fā)展的必經(jīng)之路。業(yè)界亟須將虛擬人的高速發(fā)展與內(nèi)容安全、隱私保護、數(shù)據(jù)安全、算法合規(guī)、系統(tǒng)可控等諸多因素相互協(xié)同,通過虛擬人的可信建設(shè)實現(xiàn)對技術(shù)支持方和服務提供者的道德約束,指導其所提供產(chǎn)品滿足法規(guī)要求和倫理要求。未來,更需匯聚行業(yè)普遍共識,探索建設(shè)新模式;推動技術(shù)創(chuàng)新,深化技術(shù)融合;加強流程管理,完善可信生態(tài);構(gòu)建標準體系,加快合規(guī)發(fā)展;完善政策體系,推動倫理治理;規(guī)范場景應用,打造示范項目,從而促進社會對虛擬人的認知、信任與支持。本文件由XRMA聯(lián)盟虛擬化身特設(shè)組制訂,并負責解釋。本文件發(fā)布日期:2023年9月18日。本文件由虛擬現(xiàn)實與元宇宙產(chǎn)業(yè)聯(lián)盟提出并歸口。本文件歸屬虛擬現(xiàn)實與元宇宙產(chǎn)業(yè)聯(lián)盟。任何單位與個人未經(jīng)聯(lián)盟書面允許,不得以任何形式轉(zhuǎn)售、復制、修改、抄襲、傳播全部或部分內(nèi)容。本文件牽頭單位:中國信息通信研究院本文件參編單位:上海商湯智能科技有限公司、中國工商銀行股份有限公司、廈門黑鏡科技有限公司、東北大學、世輝律師事務所、訊飛幻境(北京)科技有限公司、北方工業(yè)大學、中國移動通信研究院、維沃移動通信有限公司、拓元(廣州)智慧科技有限公司、北京度量科技有限公司、無錫市城市運行管理中心、二六三網(wǎng)絡通信股份有限公司、北京世紀好未來教育科技有限公司、綠洲創(chuàng)元數(shù)字科技(漳州)有限公司、北京特美通傳媒科技有限公司、寰宇信任(北京)技術(shù)有限公司、福建超數(shù)科技有限公司、北京美舫科技有限公司本文件參編人:許聞苑、楊燕、高天寒、施佳子、肖揚、張庭翔、吳松城、楊建順、肖悅、米慶巍、張晉、李家豪、林思宇、王英博、胡逸、朱伯虎、毛儲懿、鄭嘉煌、石慧、雷景伊、周博、田密、劉子韜、任亞軍、王婷、吳文熙、郭樂、宿盛禹、宋園藝、李文凱、艾芳、郭悅、羅振華、孫喜慶、王輝柏、趙鵬、鄧遠達、李慧、夏文燕、劉冉、王亞忠、郭飛、劉磊、鄭紫陽、徐東升、劉上免責說明:本文件免費使用,僅供參考,不對使用本文件的產(chǎn)品負責。 4 4 4 10 13 13 14 17 17 21 284.可信虛擬人能力建設(shè)建議 31 31 37 43 45 49 11.可信虛擬人發(fā)展背景1.1元宇宙和AIGC浪潮下,虛擬人產(chǎn)業(yè)迎來發(fā)展熱潮1.虛擬人的定義和分類業(yè)界虛擬人概念繁雜,當前對虛擬人的具體定義尚未有統(tǒng)一的論述,一般而言,虛擬人指通過計算機圖形學、計算機視覺和人工智能等技術(shù),進行形象、聲音、動作等模型訓練后,借助真人或計算驅(qū)動、在多模態(tài)輸出設(shè)備呈現(xiàn)的與人類形象接近的虛擬人物。根據(jù)技術(shù)維度、身份維度、視覺維度、外形風格等不同角度,虛擬人有多種分類方式。其中,根據(jù)與現(xiàn)實自然人是否有映射的身份維度分類方式劃分,可將虛擬人分為真人映射型和非真人映射型兩類?;谡嫒俗陨碛成涞奶摂M化身為本白皮書重點聚焦的研究對象。2.虛擬人產(chǎn)業(yè)高速發(fā)展作為元宇宙中真人沉浸式體驗的重要載體和AIGC的關(guān)鍵要素,伴隨元宇宙和AIGC雙輪產(chǎn)業(yè)進步,虛擬人迎來新一輪發(fā)展熱潮,在服務、營銷等行業(yè)迎來爆發(fā)式增長。根據(jù)IDC數(shù)據(jù)顯示,2026年中國AI數(shù)字人市場規(guī)模將達到102.4億元。據(jù)天眼查數(shù)據(jù)顯示,截至2023年7月,現(xiàn)存“數(shù)字人”相關(guān)企業(yè)68.7萬余家,其中2022年新增注冊企業(yè)26.5萬余家,新增相關(guān)企業(yè)注冊增速達84.2%。當前,虛擬人產(chǎn)業(yè)不斷升級,商業(yè)模式多元化發(fā)展,廣泛應用于金融、傳媒、營銷、文旅等各行各業(yè),呈現(xiàn)出日新月異的變化。伴隨技術(shù)革新與進步,人工智能的發(fā)展將促進虛擬人的生成效率、理解能力與情感互動能力迅速進步;空間計算、動作捕捉、實時云渲染、空間音視頻等技術(shù)的深度融合將促進虛擬人與場景應用深度鏈接,為產(chǎn)業(yè)降本增效的同時持續(xù)提升用戶的臨場感受;虛擬人的角色定位和商業(yè)模式將根據(jù)場景需求與客戶類型呈現(xiàn)出不同的價值表現(xiàn)。1.2市場機遇下面臨倫理及法律等多重風險虛擬人產(chǎn)業(yè)規(guī)模和應用范圍目前處于高速發(fā)展階段,在搶抓市場機遇的同時,虛擬人產(chǎn)業(yè)也面臨著一系列倫理、社會和法律問題,真假難辨的虛擬人在隱私保護、內(nèi)容合規(guī)、問責追溯和倫理等方面帶來諸多風險和挑戰(zhàn)。本白皮書將從科技與法律、道德、倫理等方面的動態(tài)融合視角對虛擬人產(chǎn)業(yè)進行風險審視與探討。1.隱私安全所面臨的風險虛擬人生成、運營、使用過程中面臨非法獲取與使用個人信息的風險。虛擬人涉及的隱私安全問題一直以來都被廣泛關(guān)注,其在收集訓練數(shù)據(jù)及后續(xù)輸出信息等諸多環(huán)節(jié)(包括虛擬人的收集訓練階段或在對外提供服務、輸出信息等過程)是否符合個人信息保護、是否符合隱私安全政策等要求,是目前實操中被關(guān)注的重點問題。如在虛擬人生成、運營、使用等相關(guān)過程中存在任何非法獲取、使用個人信息(包括但不限于姓名、證件號碼、生物識別信息等)的,將可能侵犯公民個人信息,違反隱私安全、數(shù)據(jù)合規(guī)要求,并因此承擔相應法律責任。在部分國外案例中,未經(jīng)同意采集、使用他人的生物識別數(shù)據(jù)的行為被判定構(gòu)成對個人隱私安全的侵犯,該侵權(quán)行為常被訴諸集體訴訟。案例1:Facebook、Google、Microsoft、Amazon違反BIPA相關(guān)案件案件詳情:Facebook、Google、Microsoft、Amazon違反伊利諾伊州《生物識別信息隱私法》(“BIPA”)相關(guān)案件是指2020年在美國伊利諾伊州發(fā)生的集體訴訟案件,強調(diào)企業(yè)在使用人工智能技術(shù)處理用戶數(shù)據(jù)時,應尊重用戶肖像權(quán)、個人隱私并遵守相關(guān)法律法規(guī)。相關(guān)案件中,F(xiàn)acebook因未經(jīng)用戶同意收集和存儲面部識別數(shù)據(jù)并使用進行算法訓練,最終同意支付6.5億美元的賠償。Google因在未經(jīng)適當通知和同意的情況下收集和存儲個人生物識別數(shù)據(jù)而支付了1億美元進行和解。Microsoft則因在未經(jīng)授權(quán)的情況下使用用戶上傳的照片來訓練其面部識別技術(shù)被認定違反了BIPA,法院支持了原告的不當?shù)美麚p害賠償請求。而Amazon則被指控通過其照片識別服務收集生物特征數(shù)據(jù),但未向用戶提供相關(guān)信息,并且法院支持了原告基于BIPA的不當?shù)美麚p害賠償請求。.互聯(lián)網(wǎng)巨頭在使用人工智能技術(shù)處理用戶數(shù)據(jù)時,觸犯BIPA引發(fā)集體訴訟,需承擔損害賠償責任。案例2:Replika被意大利政府機構(gòu)宣布限制使用2023年2月,意大利數(shù)據(jù)保護機構(gòu)發(fā)布了一項緊急命令,禁止由美國公司LukaInc.開發(fā)的人工智能聊天虛擬人Replika處理意大利用戶的個人數(shù)據(jù)。原因是Replika違反了歐盟通用數(shù)據(jù)保護條例中規(guī)定的透明度原則和義務,在收集和使用個人信息時,沒有征得用戶的同意,也沒有設(shè)置相關(guān)隱私政策和安全措施對用戶數(shù)據(jù)進行保護。.聊天虛擬人收集和使用個人信息沒有有效的法律基礎(chǔ)和適當?shù)碾[私政策,未征得用戶同意且未設(shè)置安全措施保護。案例3:凱蘭德·楊訴NeoCortext公司案2023年4月3日,美國演員凱蘭德·楊(KylandYoung)在美國加利福尼亞中區(qū)聯(lián)邦地區(qū)法院對NeoCortext公司提起訴訟,指控該公司的換臉應用Reface侵犯了加利福尼亞州的個人形象權(quán)。原告凱蘭德·楊表示,NeoCortext公司在未經(jīng)其同意的情況下擅自使用其肖像、圖像、姓名和聲音進行商業(yè)推廣。他希望通過訴訟禁止NeoCortext公司將他的“姓名、聲音、簽名、照片或肖像用于商業(yè)目的”,并尋求金錢賠償,同時要求認證擬議的集體訴訟。目前,此案仍在審理中。.“換臉”類應用程序未經(jīng)允許擅自使用他人信息進行商業(yè)行為涉嫌侵權(quán)。國內(nèi)虛擬人相關(guān)廠商存在用戶隱私協(xié)議不規(guī)范,個人隱私、數(shù)據(jù)易被泄露和濫用問題。案例1:“AI換臉”App侵權(quán)案2022年3月,上海某公司的“AI換臉”APP讓用戶支付會員費使用古風漢服模特樓某提供的“換臉”視頻模板。用戶只需上傳個人照片,將視頻模板中的人臉替換為自己的人臉,即可生成換臉后的古風造型視頻。除了五官發(fā)生實質(zhì)性變化外,其余內(nèi)容與原視頻保持一致。樓某認為該公司侵犯了她的肖像權(quán),將其訴諸法院。2022年12月,法院判決支持樓某的訴訟請求,要求該公司停止侵權(quán)、賠禮道歉并賠償損失。.AI換臉技術(shù)商用可能構(gòu)成對個人隱私權(quán)的侵害。案例2:“AI陪伴”軟件侵害人格權(quán)案2023年4月,公眾人物何某將某款智能手機記賬軟件告上法庭。在該軟件中,用戶可以自行創(chuàng)設(shè)或添加“AI陪伴者”,設(shè)定“AI陪伴者”的名稱、頭像、與用戶的關(guān)系、相互稱謂等。何某認為,在其本人未同意的情況下,該軟件中出現(xiàn)了以其姓名、肖像為標識的“AI陪伴者”,同時,該軟件通過算法應用,將該角色開放給眾多用戶,允許用戶上傳大量關(guān)于其本人的“表情包”。法院對該案件進行受理,認為被告軟件未經(jīng)同意使用原告姓名、肖像,設(shè)定涉及原告人格自由和人格尊嚴的系統(tǒng)功能,構(gòu)成對原告姓名權(quán)、肖像權(quán)、一般人格權(quán)的侵害,遂判決被告向原告賠禮道歉、賠償損失。.虛擬人相關(guān)軟件未經(jīng)允許使用他人姓名和肖像生成“AI陪伴者”造成侵權(quán)。2.內(nèi)容合規(guī)所面臨的風險虛擬人的內(nèi)容輸入與模型訓練階段指工具開發(fā)者通過輸入大量的文字、圖像、視頻、聲音等(“訓練素材”)對其模型進行訓練,內(nèi)容生成階段系基于其上述模型的訓練并根據(jù)使用者需求生成相應的創(chuàng)作內(nèi)容。在虛擬人的內(nèi)容輸入與模型訓練階段,存在非法使用訓練素材及侵犯知識產(chǎn)權(quán)的風險。開發(fā)者需輸入大量訓練素材以供模型訓練,訓練素材的主要來源包括從資源方處批量購買、批量爬取互聯(lián)網(wǎng)資源、通過開源網(wǎng)站獲得資源等。在獲取并使用相關(guān)訓練素材時,開發(fā)者面臨的內(nèi)容合規(guī)問題,包括需要提前取得相關(guān)權(quán)利人的書面同意后方可將相關(guān)訓練素材進行下載、存儲、使用等;未經(jīng)相關(guān)權(quán)利人事先同意,利用虛擬人復制、發(fā)行、通過信息網(wǎng)絡向公眾傳播相關(guān)文字、圖像、音樂、視頻等他人享有知識產(chǎn)權(quán)的內(nèi)容的,將很可能構(gòu)成侵犯他人知識產(chǎn)權(quán)。在虛擬人的內(nèi)容輸出階段,存在侵犯個人人格權(quán)益、侵犯知識產(chǎn)權(quán)、生成虛假和不良信息、損害公共利益的問題。虛擬人的輸出內(nèi)容亦應符合合規(guī)要求,其合規(guī)性的判斷標準應與真實世界主體輸出內(nèi)容合規(guī)性的判斷標準原則保持一致,即從考慮其輸出內(nèi)容的合法合規(guī)性角度約束其不得侵犯其他主體的合法權(quán)益,同時也從其內(nèi)容本身是否由創(chuàng)作者獨立完成而并非抄襲的角度保護創(chuàng)作者的“智力成果”。首先,使用者在虛擬人的內(nèi)容生成過程中可能涉及諸如恐怖主義、危害國家安全、宣揚民族主義、種族歧視、暴力、色情、違反公序良俗等內(nèi)容。這些內(nèi)容不僅損害了社會公共利益,還有可能導致嚴重的法律后果,給個人、企業(yè)和國家?guī)碡撁嬗绊?,并有可能產(chǎn)生更加自動化和復雜的犯罪行為的可能性。其次,虛擬人在內(nèi)容創(chuàng)作過程中不得侵犯他人的人格權(quán)益,如姓名權(quán)、肖像權(quán)、名譽權(quán)等,否則將嚴重損害當事人的人格權(quán)益,情節(jié)嚴重的有可能進一步構(gòu)成侮辱、誹謗。再次,虛擬人的相關(guān)內(nèi)容不得侵犯他人的經(jīng)濟性權(quán)益,如知識產(chǎn)權(quán)等。在數(shù)字時代,虛擬人有可能通過復制、傳播侵犯他人的著作權(quán)、商標權(quán)、專利權(quán)等知識產(chǎn)權(quán),這不僅僅是對原創(chuàng)者權(quán)益的侵害,也可能對整個知識產(chǎn)權(quán)保護體系造成破壞。最后,虛擬人在內(nèi)容創(chuàng)作時,有可能產(chǎn)生虛假、不真實、不準確、不客觀的信息。這類內(nèi)容往往具有誤導性,容易引發(fā)社會恐慌,甚至引起錯誤決策。與此同時,這些信息可能會在互聯(lián)網(wǎng)上快速傳播,加劇負面效應。國外虛擬人內(nèi)容合規(guī)方面的問題,主要在于以下幾方面:基于使用數(shù)據(jù)對人工智能的不當訓練、相關(guān)數(shù)據(jù)本身可能涉及對知識產(chǎn)權(quán)的侵犯,訓練行為引發(fā)AI傳播違規(guī)內(nèi)容或虛假信息,以及利用AI技術(shù)實施詐騙行為等。案例1:“LudaLee”語言歧視案韓國的聊天AI“LudaLee”是一款可以模擬戀愛的人工智能型虛擬偶像,可根據(jù)用戶的問題做出模擬真實人類的反應。2022年,部分用戶在和其聊天的過程中發(fā)現(xiàn),在面對“殘疾人”“同性戀”“孕婦”等話題的討論中,LudaLee表現(xiàn)出歧視,因此遭到了部分網(wǎng)友的抵制。.違規(guī)言論生成與傳播:AI型虛擬人在內(nèi)容輸出階段可能出現(xiàn)生成群體歧視言論的風險。案例2:桐生可可直播涉敏感話題事件日本虛擬主播Hololive進駐中國后,2020年9月,其成員赤井心和桐生可可在直播中涉及敏感地域政治話題,其直播間遭到封禁。.虛擬人直播時可能涉及不當言論、敏感話題或引發(fā)爭議。案例3:AI換臉技術(shù)生成特朗普假圖片2023年6月,美國總統(tǒng)競選人德桑蒂斯公關(guān)團隊發(fā)布了一段視頻,特意選用的“特朗普親吻福奇”以及兩人擁抱的圖片,抨擊競選對手、前總統(tǒng)特朗普在任時抗疫不力,后被證實該照片是Deepfake偽造。.AI換臉造成公眾人物信息濫用,傳播不實信息,引發(fā)社會恐慌、影響國際關(guān)系等。國內(nèi)虛擬人內(nèi)容合規(guī)相關(guān)的違法行為主要在于:假扮熟人進行詐騙、假扮公眾人物進行商業(yè)化運作、利用AI技術(shù)傳播虛假信息、侵害虛擬人相關(guān)知識產(chǎn)權(quán),以及傳播低俗、惡意的行為及言論等。案例1:AI孫燕姿事件2023年以來,B站中的多位UP主通過so-vits-svc(音色轉(zhuǎn)換)的開源項目訓練發(fā)布帶有孫燕姿聲音的歌曲,“AI孫燕姿”在B站走紅,“她”翻唱的《半島鐵盒》《發(fā)如雪》等歌曲播放量突破百萬。盡管孫燕姿本人暫未對“AI孫燕姿”進行公開回應或提起訴訟,但這類創(chuàng)作仍涉及對孫燕姿姓名、聲紋權(quán)利、對周杰倫詞曲的著作權(quán)的侵害風險。.侵犯人格權(quán)與知識產(chǎn)權(quán):虛擬人內(nèi)容生成階段可能涉及未經(jīng)同意而通過AI技術(shù)將公眾人物的姓名、肖像、聲紋進行商業(yè)化使用的行為。案例2:“染染_Ranoca”抄襲事件2022年2月,B站UP主Lemon夾子發(fā)文稱B站電競旗下虛擬偶像“染染_Ranoca”的面部形象和其創(chuàng)作的虛擬主播“格蕾緹婭Gretia”高度相似。2022年2月23日,嗶哩嗶哩電競官方發(fā)聲,確認二者的確高度相似,稱對相關(guān)運營人員和VUP藝人經(jīng)紀部負責人都進行了相應的處罰,決定暫停使用該立繪形象。.知識產(chǎn)權(quán)保護與侵權(quán):虛擬人形象面臨被抄襲等知識產(chǎn)權(quán)保護問題,虛擬人形象制作可能涉及對其他虛擬人形象的抄襲冒用等問題。案例3:柏凜Porin虛構(gòu)拐賣事件2022年5月21日,B站一位名為“柏凜Porin”的虛擬主播,發(fā)布了一則名為《關(guān)于我消失了半年其實是被拐賣了這件事》的視頻。視頻中,該主播提到:“自己消失半年,是因為自己被拐賣了,后來是被警察解救。”經(jīng)警方查證,該視頻內(nèi)容不屬實。2022年6月1日,B站宣布該賬號永久封禁。.虛擬人生成內(nèi)容環(huán)節(jié)可能涉及發(fā)布虛假信息、不實信息等問題。案例4:“AI換臉”新騙局2023年4月,詐騙分子佯裝為福建郭某的好友,通過AI換臉和擬聲技術(shù)生成和真人極為相似的虛擬人,與郭某進行視頻聊天并借款430萬元,郭某未經(jīng)核實,轉(zhuǎn)賬受騙。.不法分子利用個人生物數(shù)據(jù)生成真假難辨的虛擬人實施詐騙。3.難追溯問責當前,由于技術(shù)原因、法律認定標準等因素,追溯問責虛擬人背后的責任主體存在一定的難度。首先,難以通過虛擬人文件追溯生產(chǎn)平臺和開發(fā)創(chuàng)作者。當前,虛擬人文件多以3D格式、圖片、視頻等形式存在,大多數(shù)生成平臺并未對虛擬人文件進行可追溯標記,僅通過文件本身難以追溯到內(nèi)容生產(chǎn)平臺和虛擬人的創(chuàng)作主體。第二,內(nèi)容生產(chǎn)涉及多個“環(huán)節(jié)”導致責任難以界定。虛擬人的生產(chǎn)過程涉及人工智能、圖形渲染、音視頻合成等多種技術(shù)的結(jié)合,其創(chuàng)造和運營過程涉及多方參與。在生成和運營虛擬人的過程中,不同團隊或個人可能分別負責設(shè)計、制作和推廣等環(huán)節(jié),當發(fā)生侵權(quán)事件時難以區(qū)分具體責任主體。第三,因技術(shù)開源、主體隱蔽導致難以追責。一方面,使用AI換臉的深度偽造部分技術(shù)源于開源社區(qū),難以確定具體的責任主體;另一方面,生成式AI技術(shù)因其訓練過程不公開(即“黑匣子模式”)、內(nèi)容輸出作品具有隨機性、使用開源軟件等問題導致更加難以明確追責。4.倫理風險虛擬人能夠模擬人類的思維、情感和行為,并且具有一定的認知能力和交互能力,其擬人化可能帶來一些倫理風險,包括但不限于:虛擬人基于其訓練素材來源,可能形成固有的價值觀、價值取向和價值判斷,如基于數(shù)據(jù)驅(qū)動的某虛擬人偶在訓練后表現(xiàn)出對“殘疾人”“同性戀”“孕婦”等群體的歧視;虛擬人的存在可能會導致人類之間的關(guān)系變得更加冷漠和疏離,可能導致社交能力下降和人際關(guān)系的破裂,中國青年報社社會調(diào)查中心聯(lián)合問卷網(wǎng)對2001名18-35歲的受訪青年進行的一項調(diào)查顯示,71.3%的受訪青年認為太多虛擬社交讓人更孤獨;此外,虛擬人的行為和決策可能會涉及自然人自身權(quán)利享有及責任承擔,自然人與虛擬人之間的界限日漸模糊,影響自然人的精神狀態(tài)、思考方式和行為習慣等問題。1.3全球范圍虛擬人的可信實踐1.虛擬人可信要求成為國內(nèi)外政策布局方向以歐盟和美國為代表的發(fā)達國家積極布局虛擬人領(lǐng)域政策法規(guī),主要聚焦于生物識別、深度偽造換臉等方面的規(guī)定。2023年5月11日,歐洲議會通過關(guān)于《人工智能法》的談判授權(quán)草案,同意全面禁止在公共場所使用遠程生物識別技術(shù)(即人工智能輔助技術(shù),如面部識別,從照片或錄像中識別個人)。2019年6月,美國國會提出《深度偽造責任法案》(DeepFakesAccountabilityAct旨在通過限制深度偽造合成技術(shù),打擊虛假信息的傳播。深度偽造制作者在其制作的深度偽造換臉記錄中,應當包含一個嵌入的數(shù)字水印,該水印清楚地說明該記錄中改變的音頻或視頻元素,表明該段視頻屬于深度偽造合成視頻。違反披露義務會被處以高額罰款或者監(jiān)禁。德國、新加坡、英國、韓國等國家,則選擇將虛擬人“深度合成”的相關(guān)犯罪納入刑法范疇,但尚未出臺國家層面的專門立法。2.我國多項政策對虛擬人深度合成、內(nèi)容審核、身份授權(quán)等方面做出了初步規(guī)定和要求2022年11月,國家互聯(lián)網(wǎng)信息辦公室、工業(yè)和信息化部和公安部發(fā)布了《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》,對深度合成技術(shù)及其應用可信方面做出了初步的規(guī)定。管理規(guī)定中提出了深度合成服務提供者和使用者不得利用深度合成服務制作、復制、發(fā)布、傳播虛假新聞信息。深度合成服務提供者提供合成人聲、仿聲和人臉生成、人臉替換、人臉操控、姿態(tài)操控等顯著改變個人身份特征的編輯服務時,應當采取技術(shù)措施添加不影響用戶使用的標識。規(guī)定還要求深度合成服務提供者和技術(shù)支持者提供人臉、人聲等生物識別信息編輯功能的,應當提示深度合成服務使用者依法告知被編輯的個人,并取得其單獨同意。2023年7月13日,國家互聯(lián)網(wǎng)信息辦公室發(fā)布《生成式人工智能服務管理暫行辦法》,明確規(guī)定提供和使用生成式人工智能服務應尊重知識產(chǎn)權(quán),采取有效措施防止產(chǎn)生民族、信仰、國別等歧視,不得侵害他人肖像權(quán)、名譽權(quán)、榮譽權(quán)、隱私權(quán)和個人信息權(quán)益,對使用者的輸入信息和使用記錄應當依法履行保護義務等。3.虛擬人相關(guān)可信規(guī)范和標準國外虛擬人相關(guān)指南準則集中于保護用戶隱私、促進透明度和確保人工智能的道德使用。2021年11月24日,在聯(lián)合國教科文組織大會第41屆會議上,發(fā)布《人工智能倫理問題建議書》,提出了應確保用戶能夠輕松識別與自己互動的對象是生物還是模仿人類或動物特征的人工智能系統(tǒng),并且能夠有效拒絕此類互動和要求人工介入。歐盟于2018年5月通過了《通用數(shù)據(jù)保護條例》(GDPR),該條例要求對涉及個人數(shù)據(jù)處理的自動化決策提供可解釋性,確保人們能理解和質(zhì)疑決策依據(jù);并于2019年4月8日公開發(fā)布了《可信賴人工智能倫理準則》(EthicsGuidelinesforTrustworthyAI,亦稱"《歐盟準則》"指出人工智能的發(fā)展方向應為"可信賴AI",并據(jù)此確立了人工智能發(fā)展的三項基本要素。2023年1月26日,美國國家標準與技術(shù)研究院發(fā)布NISTAI100-1《AI風險管理框架1.0》,其目標在于為設(shè)計、開發(fā)、部署、應用AI系統(tǒng)的組織提供參考,以使之能夠在控制多樣性風險的同時,促進可信賴、負責任AI系統(tǒng)的開發(fā)與應用。框架提出了可信AI系統(tǒng)的特性以及實現(xiàn)這些特性的指南,包括:有效和可靠性、安全(safe)、安全(secure)和彈性、可追責和透明性、可說明和可解釋性、隱私增強性、公平性。2022年8月,韓國科學技術(shù)信息通信部發(fā)布了一份針對元宇宙應用參與者(包括用戶和開發(fā)者)的核心道德原則指南,標識其元宇宙指南基于三個核心價值,包括真實的身份、安全的體驗和可持續(xù)的繁榮。該準則確定了支持其核心價值的八項原則:真實性、自主性、互惠性、隱私性、公平性、數(shù)據(jù)保護、包容性和對未來的責任。另外,國際工程師學會通過了IEEEP7003標準,其目標是通過明確道德原則和技術(shù)指南,為虛擬人設(shè)計和應用提供倫理指導,旨在解決虛擬人技術(shù)的透明度、隱私、信任、可替代性等道德和社會問題。國內(nèi)政府和企業(yè)相繼發(fā)布虛擬人相關(guān)指南準則,集中于保護用戶隱私、透明度和可理解性、道德使用和公平性、多樣性和包容性。2021年9月,國家新一代人工智能治理專業(yè)委員會發(fā)布了《新一代人工智能倫理規(guī)范》,提出人工智能各類活動應保障個人隱私與數(shù)據(jù)安全、堅持人類是最終責任主體、避免偏見歧視、加強倫理審查等要求。2023年5月,字節(jié)跳動公司旗下的抖音平臺發(fā)布了《關(guān)于人工智能生成內(nèi)容的平臺規(guī)范暨行業(yè)倡議》,提出虛擬人需在平臺進行注冊,虛擬人技術(shù)使用者需實名認證。平臺將提供虛擬人的實名注冊備案能力,并對已注冊的虛擬人形象進行保護。此外,用戶使用已注冊的虛擬人形象直播時,必須由真人驅(qū)動進行實時互動,不允許完全由人工智能驅(qū)動等。4.國內(nèi)外企業(yè)的虛擬人相關(guān)可信實踐(1)通過技術(shù)創(chuàng)新探索虛擬人的可信建設(shè)通過區(qū)塊鏈、AI、加密傳輸和存儲等技術(shù)手段增強虛擬人在數(shù)據(jù)傳輸、運營使用過程中的安全性。案例1:某數(shù)字人平臺采取了包括身份認證和權(quán)限控制、數(shù)據(jù)安全和加密、隱私保護、防御惡意行為、審計和監(jiān)控等安全保障措施,并已廣泛應用于企業(yè)服務、教育培訓、娛樂媒體等領(lǐng)域。案例2:Google虛擬人助手GoogleAssistant、AppleSiri、微軟個人智能助理Cortana均采用加密傳輸和存儲技術(shù)來保護用戶的隱私安全和數(shù)據(jù)安全。案例3:在虛擬人技術(shù)應用過程中,某虛擬人平臺運用區(qū)塊鏈技術(shù)推出多項安全保護措施,同時提供全面的安全漏洞檢測和修復服務,以確保用戶數(shù)據(jù)和隱私不被泄露,增強虛擬人使用過程中的安全性。案例4:某虛擬人平臺采用人臉識別、聲紋識別等多種安全技術(shù),提升用戶信息安全。案例5:某公司基于AI技術(shù)推出具有身份認證的虛擬人。通過數(shù)字版權(quán)認證加強虛擬人的知識產(chǎn)權(quán)保護,避免虛擬人知識產(chǎn)權(quán)被惡意使用或竊取,規(guī)范虛擬人IP的使用和管理。(2)通過管理創(chuàng)新探索虛擬人的可信建設(shè)數(shù)據(jù)治理:虛擬人的數(shù)據(jù)質(zhì)量對其可信度具有重要影響。因此,建立有效的數(shù)據(jù)治理機制可以提高虛擬人的準確性和可信度。例如,某企業(yè)通過制定數(shù)據(jù)管理政策和標準來確保數(shù)據(jù)的完整性、一致性和安全性。人員管理:虛擬人的開發(fā)和維護需要一支專業(yè)的團隊進行管理和維護,通過人員管理創(chuàng)新可以提高虛擬人的穩(wěn)定性和可靠性。某企業(yè)設(shè)立了虛擬人質(zhì)量評估團隊,對虛擬人的回答和表現(xiàn)進行嚴格審核和監(jiān)控,以確保其準確性和可靠性,這種質(zhì)量控制機制提高了用戶對虛擬人服務的信任。質(zhì)量管理:通過質(zhì)量管理創(chuàng)新可以提高虛擬人的穩(wěn)定性和可靠性。例如,某企業(yè)采用自動化測試和持續(xù)集成技術(shù)對虛擬人進行測試和部署,減少錯誤和故障的發(fā)生。透明度與控制權(quán):用戶需能清晰了解虛擬人的運作原理和數(shù)據(jù)使用方式,用戶需要有權(quán)掌控虛擬人服務,能夠自由選擇是否使用虛擬人服務、提供哪些信息等。某企業(yè)在虛擬人生成過程中注重用戶參與和共創(chuàng),通過開放平臺和合作伙伴生態(tài)系統(tǒng),鼓勵開發(fā)者和用戶參與虛擬人的開發(fā)和應用,推動虛擬人技術(shù)的創(chuàng)新和進步,以滿足不斷變化的用戶需求。某虛擬人管理平臺提供了全面的虛擬人搭建、培訓和管理工具。企業(yè)可以通過該平臺自主創(chuàng)建、優(yōu)化和監(jiān)控虛擬人,確保其準確性和可靠性。同時,該虛擬人平臺通過提供完善的管理工具和技術(shù)支持,幫助企業(yè)建設(shè)可信賴的虛擬人系統(tǒng)。用戶隱私保護和信息安全管理:Google虛擬人助手GoogleAssistant,用戶可以通過控制面板管理個人數(shù)據(jù),并有權(quán)訪問和刪除自己的語音和使用數(shù)據(jù);Apple的虛擬人助手Siri的語音識別和處理操作在設(shè)備上進行,不會將用戶的語音數(shù)據(jù)發(fā)送到云端進行處理;微軟的虛擬人助手Cortana提供了隱私設(shè)置和控制,用戶可以管理和刪除個人數(shù)據(jù),以保護用戶個人隱私數(shù)據(jù)。平臺治理規(guī)范:虛擬人服務應該遵守一定的道德規(guī)范,不得利用虛擬人服務進行不正當?shù)挠騻τ脩舻男袨椤7梢?guī)定:虛擬人服務需要遵守相關(guān)法律法規(guī)和標準,確保服務的合法性和可信度。如微軟制定了虛擬人倫理原則,以規(guī)范其虛擬人助手(如Cortana)的開發(fā)和應用。這些原則包括尊重用戶隱私、確保信息準確性和透明度、防止歧視等,致力于確保虛擬人技術(shù)符合道德要求,并推動其他行業(yè)參與者采取類似的措施。某平臺于2022年7月21日發(fā)布《虛擬主播專項治理公告》,對低俗色情類及其他違規(guī)惡意行為進行整治,采取措施如降低曝光、下架視頻、封禁直播間和賬號封禁。上述實踐案例表明,國內(nèi)外政府和相關(guān)機構(gòu)均十分重視虛擬人的可信實踐,積極探索并制定相應的技術(shù)規(guī)范與管理準則。這些舉措旨在確保虛擬人技術(shù)的合法合規(guī)、道德可信,保護用戶權(quán)益,促進虛擬人的健康發(fā)展與應用。隨著相關(guān)技術(shù)和應用的發(fā)展,未來可預期將會有更多的實踐和措施出現(xiàn),進一步規(guī)范和引導虛擬人的倫理和法律要求。2.可信虛擬人體系構(gòu)建虛擬人行業(yè)在發(fā)展過程中將會面臨諸多風險挑戰(zhàn),可信建設(shè)既是虛擬人技術(shù)發(fā)展的要求,也是虛擬人市場發(fā)展的保障。因此,在當下社會實踐中,我們認為將“可信”作為行業(yè)發(fā)展的指導原則進行探討和研究,同時構(gòu)建并完善可信虛擬人體系至關(guān)重要,以確保虛擬人在滿足安全合規(guī)要求的基礎(chǔ)上服務客戶和社會。2.1什么是可信虛擬人探討“虛擬人”的可信需要從“人本”理念出發(fā)?!叭吮尽奔匆环N以人為中心的核心理念。它不僅反映了一種設(shè)計理念,強調(diào)從用戶的需求、情感和體驗出發(fā),提供有價值的虛擬人產(chǎn)品或服務,也包括虛擬人發(fā)展所要考慮的社會、倫理、法律等方面的影響和責任。因此,我們既要允許和鼓勵虛擬人技術(shù)的快速發(fā)展和廣泛應用,同時也需要預先做出體系化規(guī)范化的預防措施,其目的是要確保虛擬人技術(shù)與應用符合“人本”理念,以使虛擬人在研發(fā)、生成、使用過程中對于人類始終保持“有用且無害”的可信關(guān)系。那么,什么是可信虛擬人?我們認為,可信虛擬人涉及虛擬人全生命周期與可信要素的結(jié)合,在虛擬人技術(shù)研發(fā)、生成服務、運營使用等各個環(huán)節(jié)和可信手段進行緊密融合,即虛擬人技術(shù)研發(fā)可信建設(shè)、生成平臺可信建設(shè)、運營使用可信建設(shè)等,使其符合標準、規(guī)范、倫理道德等方面的可信要求,包括但不限于:虛擬人形象本身不能造成對他人人格權(quán)、所有權(quán)等身份、權(quán)利上的非法侵犯;虛擬人的行為、思想要符合人類社會的法律法規(guī)和公序良俗;當虛擬人發(fā)生違規(guī)違法行為或事件時,能夠明確并追究相關(guān)方的法律責任。2.2虛擬人可信建設(shè)的必要性數(shù)字孿生、AIGC技術(shù)和元宇宙生態(tài)的迅猛發(fā)展,正在快速構(gòu)建起人類數(shù)字新世界。虛擬人是虛擬空間的重要身份載體。虛擬人不是僅徒有其表的數(shù)字人形象,還有支撐其運行的“大腦和靈魂”,也就是為其賦能的人工智能平臺和各類算法。不同于人類的緩慢進化,虛擬人基于代碼的進化可謂是日新月異。1982年世界迎來首位虛擬歌姬林明美——日本動畫《超時空要塞》女主角,是首個和現(xiàn)實世界產(chǎn)生虛實交互的手繪虛擬人。2000-2012年間,隨著計算機圖形學、光場采集、動作捕捉技術(shù)的進步,虛擬人制作門檻逐步降低并開始邁入工業(yè)化生產(chǎn);2012-2021年間,深度學習在語音和圖像的模式識別應用領(lǐng)域取得實質(zhì)進展,極大提升了虛擬人制作效率和呈現(xiàn)效果;2022年,ChatGPT的火爆標志著NLP技術(shù)取得重要突破,驅(qū)動虛擬人的交互能力實現(xiàn)智能化飛躍。國內(nèi)外針對可信虛擬人的研究和實踐還處于初級階段?;仡橝I技術(shù)的簡短發(fā)展歷史,尤其是深度神經(jīng)網(wǎng)絡,其進化過程僅用了16年時間,而且進化速度還在持續(xù)加速。與這些科技成果產(chǎn)業(yè)化實踐相比,國內(nèi)外針對可信虛擬人的研究和實踐還處于初級階段。盡管社會各界對科技倫理、AI引發(fā)的道德危機等許多方面都有所關(guān)切,但多數(shù)停留在擔憂和警示層面,還未形成體系化的、可操作的指導性規(guī)范。人類與虛擬人之間如何構(gòu)建可信關(guān)系?需要構(gòu)建怎樣的可信關(guān)系?是行業(yè)須面對的重大議題。虛擬人可信建設(shè),是對相關(guān)利益方的道德倫理、價值觀的約束,以及對其所提供產(chǎn)品及其行為合法合規(guī)性的要求和管制。在日漸形成的元宇宙數(shù)字世界中,虛擬人的技術(shù)應用必須遵循“主流價值觀主導算法”的原則。當前,虛擬人的智能化還處于初等和中等水平,只能執(zhí)行“被允許”的人類指令,無法理解復雜微妙的人類情感或意圖,無法按自主“意愿”與人進行自然交互和行為。這類虛擬人的可信建設(shè)主要集中在準確性和穩(wěn)健性、安全性、非歧視性、透明度和問責制、可解釋性等方面。在未來十年,虛擬人的智能將達到高等水平,虛擬人將從被動響應執(zhí)行模式發(fā)展到主動創(chuàng)造和決策模式,這將要求虛擬人生成系統(tǒng)同時具有識別和預防潛在風險的能力。這類虛擬人的可信建設(shè),將涉及數(shù)字資產(chǎn)、數(shù)字權(quán)利、可解釋性、可監(jiān)控性、可追溯性、遵守法律法規(guī)、知識沖突/邏輯違背等方面。在不遠的未來,虛擬人的智能有望達到超級水平,有可能進化成為具有獨立意識的“數(shù)字生命”,具備了自組織、自復制能力,此時,這類虛擬人的可信問題,將關(guān)乎反壟斷/反戰(zhàn)/反暴力、反政治/宗教/性別歧視、確保人類無條件掌控權(quán)等方面。2.3可信虛擬人體系構(gòu)建宏觀而言,可信虛擬人在繼承人類文明成果的同時,要遵循“和平、發(fā)展、公平、正義、民主、自由”的全人類共同價值觀。中觀而言,可信虛擬人應遵循國家法律法規(guī),遵守基本邏輯規(guī)律和事理規(guī)則。微觀而言,可信虛擬人所采用的技術(shù)應安全可信,虛擬人相關(guān)組織及其行為應合法合規(guī),虛擬人系統(tǒng)和平臺等應遵守相關(guān)標準規(guī)范的約束。面對加速發(fā)展的市場趨勢以及伴生而來的風險挑戰(zhàn),需要以理論結(jié)合實踐、在技術(shù)和應用層面進行創(chuàng)新和探索,構(gòu)建起一套完整且具有落地指導意義的可信虛擬人框架體系,將可信技術(shù)、機制等可信要素與虛擬人全生命周期進行深度融合,為各主體在可信虛擬人發(fā)展路徑和能力建設(shè)上提供明確且具體的規(guī)范標準和管理要求,從而促進社會對虛擬人行業(yè)的信任和支持。1.可信虛擬人體系框架圖圖2.1:可信虛擬人總體框架本白皮書基于以上對虛擬人行業(yè)可信建設(shè)的整體定位,結(jié)合第一章所討論的主要行業(yè)風險及相關(guān)重要監(jiān)管要求等,給出可信虛擬人總體框架圖。該框架所涉及的可信建設(shè)有四大特點:一是該框架貫穿虛擬人行業(yè)全生命周期,包括技術(shù)研發(fā)、生成服務和運營使用三大重要環(huán)節(jié),分別面向技術(shù)支持方、服務提供方、服務使用方三大企業(yè)主體。二是該框架重點關(guān)注各個企業(yè)主體如何利用可信技術(shù)、可信管理等要素手段,圍繞不同可信目標進行企業(yè)內(nèi)部可信能力的建設(shè)和實踐。三是該框架還定義了虛擬人可信建設(shè)的分級原則和評估維度。四是除企業(yè)主體外,該框架也為虛擬人行業(yè)組織、監(jiān)管機構(gòu)等重要參與方提出了可信建設(shè)依據(jù)和建議,為虛擬人行業(yè)可信發(fā)展提供指引。2.可信虛擬人框架內(nèi)容綜述虛擬人的七大可信目標:身份及權(quán)利保障、隱私保護與增強、生成內(nèi)容安全、可靠性可控性、可理解可解釋、無偏見多樣化、可問責可追溯。虛擬人行業(yè)可信建設(shè)首先需要確立明確、可執(zhí)行的可信目標。當前針對虛擬人領(lǐng)域的可信研究相對空白,鑒于虛擬人是數(shù)字時代的重要產(chǎn)物,是包括人工智能、3D數(shù)字建模、擴展現(xiàn)實等諸多數(shù)字技術(shù)融合應用的結(jié)果體現(xiàn),因此本白皮書參考數(shù)字技術(shù)在研發(fā)和應用過程中所遵循的可信原則,并結(jié)合虛擬人自身所特有的風險要素、行業(yè)特征等探討并確立可信目標。當前數(shù)字技術(shù)治理原則已經(jīng)逐步收斂為有效和可靠、安全性、彈性、隱私增強、可理解和可解釋、可問責、透明及公平等幾大方面。盡管由于文化背景、業(yè)務性質(zhì)及管理制度等差異,不同組織對于這些共同原則的理解及實施方法各有偏重,但從產(chǎn)業(yè)維度看,以上共識的核心理念均是圍繞如何構(gòu)建多方可信的數(shù)字技術(shù)而提出的。與此同時,正如第一章所述,虛擬人市場發(fā)展中所涉及的知識產(chǎn)權(quán)保護、人格權(quán)保障、內(nèi)容安全等方面的風險和監(jiān)管挑戰(zhàn)又對可信目標的確立提出了新的內(nèi)涵要求。本白皮書參考全球共識并結(jié)合行業(yè)特性,總結(jié)提出七大可信目標,分別是:身份及權(quán)利保障、隱私保護與增強、生成內(nèi)容安全、可靠性可控性、可理解可解釋、無偏見多樣化、可問責可追溯,用以作為各參與方,尤其是企業(yè)主體可信虛擬人實踐時所參考的目標指引。虛擬人行業(yè)的可信建設(shè)需要強有力的可信手段,其中可信技術(shù)和可信管理是實現(xiàn)可信目標的重要方法和途徑。在可信技術(shù)層面,圍繞著上述七大可信目標,以理論研究和技術(shù)創(chuàng)新為核心抓手,將可信元素通過技術(shù)應用注入企業(yè)或行業(yè)的可信實踐中,從而降低虛擬人在各生命周期的信任成本。本框架針對不同主體在實踐中所涉及的數(shù)據(jù)、算法、平臺、業(yè)務等提出可信技術(shù)手段,主要包括隱私保護與增強技術(shù)、內(nèi)容安全技術(shù)、穩(wěn)定性技術(shù)、可解釋增強技術(shù)、公平性技術(shù)、可問責技術(shù)等。在可信管理層面,主要是為實現(xiàn)可信目標而制定的一系列流程制度等非技術(shù)性可信手段。包括企業(yè)主體為實現(xiàn)可信建設(shè)而建立的內(nèi)部管理流程,行業(yè)組織為推動可信建設(shè)而形成的行業(yè)政策、標準評測等,監(jiān)管機構(gòu)為保障可信建設(shè)而出臺的各類法律法規(guī)、管理辦法等。在可信能力建設(shè)中,按照可信能力建設(shè)難度逐級遞增,以及可信資源投入產(chǎn)出比逐級遞減的原則,該框架也提出了可信評估維度,作為衡量企業(yè)可信水平的重要參考。其中,評估維度主要涉及三大方向,一是系統(tǒng)可信能力,二是系統(tǒng)功能完備度,三是產(chǎn)業(yè)化水平。前兩大維度對應可信能力建設(shè)難度,第三大維度對應可信虛擬人的實際應用情況。這三大維度可反映企業(yè)為實現(xiàn)可信目標所采取可信手段的積極性和主動性。此外,每個維度下針對不同企業(yè)主體,并結(jié)合其業(yè)務差異性延展出具體的評估指標,而不同指標的評估結(jié)果結(jié)合即可得到企業(yè)可信能力水平。本框架將企業(yè)虛擬人可信建設(shè)分為L1、L2、L3三級。在可信目標的指引下,各企業(yè)主體可結(jié)合自身業(yè)務特性進行企業(yè)內(nèi)部的可信能力建設(shè),同樣,行業(yè)組織和監(jiān)管機構(gòu)也可以參考企業(yè)可信實踐內(nèi)容及能力等級差異,采取相應行動來保障、激勵虛擬人整個行業(yè)的可信發(fā)展。3.可信目標、可信手段、分級原則3.1虛擬人組織可信建設(shè)目標正如上文所述,可信目標是虛擬人行業(yè)中各組織進行可信能力建設(shè)的重要指引和參考,分別為身份及權(quán)利保障、隱私保護與增強、生成內(nèi)容安全、可靠性可控性、無偏見多樣化、可理解可解釋、可問責可追溯共七大可信目標。1.身份及權(quán)利保障依據(jù)是否與自然人有映射的特點,虛擬人可分為真人映射型和非映射型兩大類。其中,真人映射型虛擬人是現(xiàn)實世界中自然人在網(wǎng)絡世界的映射,應具備名稱、肖像、榮譽和隱私等人格屬性。也即當虛擬人人格受到侵害時,會映射為其現(xiàn)實主體帶來一定程度的人格損害。因此,即使虛擬人本身不是民事主體,但仍應獲得現(xiàn)實人格類似的保護。此外,對于真人映射型虛擬人,由于映射關(guān)系的存在,還會涉及自然人應向虛擬人的權(quán)利授予,包括創(chuàng)作授權(quán)和使用授權(quán)兩大類。同時,由于可能存在由同一自然人授權(quán)的多個虛擬人,虛擬人被授權(quán)的權(quán)利需要進一步細分。而對于非映射型虛擬人,與真人映射型虛擬人在身份及權(quán)利上有共同性,在身份上均需要明確名稱、身份標識ID、創(chuàng)作者信息、版權(quán)所有者信息等,在授權(quán)方面也都需要明確此虛擬人實體具有哪些使用權(quán)利,包括不限于應用行業(yè),應用場景(游戲、演出、客服、廣告、教育、企業(yè)宣傳、產(chǎn)品設(shè)計、社交、實物創(chuàng)作等),是否允許實體化(3D打印等)。因此,我們認為,無論對于映射型或非映射型虛擬人的可信建設(shè),身份及權(quán)利保障作為可信目標之一非常必要,需要從標準、技術(shù)、管理等多個層面建立可信機制,包括但不限于:研制具有行業(yè)共識的身份描述數(shù)據(jù)標準、權(quán)利授權(quán)許可數(shù)據(jù)描述標準;結(jié)合技術(shù)及管理手段建立身份認證及授權(quán)系統(tǒng)等以保障虛擬人的身份可信、權(quán)利可信,并實現(xiàn)虛擬人在使用時對身份及權(quán)利數(shù)字許可證進行驗證,以防止越權(quán)使用引發(fā)風險。對于真人映射型虛擬人,更需要在法律法規(guī)上逐漸明確來自自然人的身份定義及權(quán)利定義。2.隱私保護與增強在虛擬人生成算法研發(fā)、生成服務提供及最終使用過程中可能會涉及到大量包括個體生物特征、個人或組織不宜公開的數(shù)據(jù)信息,需要在數(shù)據(jù)采集、存儲、流轉(zhuǎn)、查詢、訓練、使用等過程中加以保護,以防發(fā)生個人信息泄露、隱私侵犯、數(shù)據(jù)濫用等風險。為保護虛擬人行業(yè)中的用戶隱私,降低隱私風險為用戶帶來的實質(zhì)侵害,并強化用戶對虛擬人生成研發(fā)及服務全流程的信賴程度,我們需要將隱私保護與增強作為重要的可信目標之一,借此來引導行業(yè)在該方向上大力投入技術(shù)、管理等可信資源完善相應的可信能力建設(shè)。具體來說,虛擬人行業(yè)中隱私保護與增強目標又可根據(jù)風控對象不同,進一步細分為針對數(shù)據(jù)隱私風險控制、模型隱私風險控制這兩大類別下的隱私保護與增強。其中,數(shù)據(jù)隱私風險控制主要針對包括數(shù)據(jù)隱私泄露、濫用等問題進行隱私保護與增強,貫穿于技術(shù)研發(fā)、生成服務、運營使用全生命周期。例如,在技術(shù)研發(fā)階段,會涉及對算法訓練數(shù)據(jù)的過度采集、匿名化不足、標注泄露等風險因素;在生成服務階段,會涉及用戶上傳隱私數(shù)據(jù)的濫用問題;在運營使用階段則可能表現(xiàn)為不經(jīng)授權(quán)任意編輯他人個人信息等。模型隱私風險控制則是針對包括算法模型在訓練、推理和部署階段的隱私風險問題進行隱私保護與增強。例如,模型訓練過程中,梯度變化、輸出向量等均存在暴露用戶信息的風險;在推理過程中,輸入數(shù)據(jù)常常包含隱私信息;在部署過程中,通過查詢模型細節(jié)還原模型參數(shù)和功能也可能造成個人隱私泄露問題等。不同主體可以有選擇地依據(jù)不同類別的風險特征,結(jié)合自身業(yè)務性質(zhì)采取相應的風控手段進行可信能力建設(shè),從而達成隱私保護與增強的可信目標。3.生成內(nèi)容安全隨著生成式AI技術(shù)的發(fā)展和應用,虛擬人生成及相關(guān)內(nèi)容創(chuàng)作門檻得到了大幅降低,在豐富和充實網(wǎng)絡世界中虛擬人及其應用生態(tài)的同時,也帶來了虛擬人生成內(nèi)容識別難度高,以及內(nèi)容本身的合規(guī)性、合法性等各式問題。正如第一章談及的網(wǎng)信辦等國家監(jiān)管機構(gòu)發(fā)布的《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》《生成式人工智能服務管理辦法》《網(wǎng)絡信息內(nèi)容生態(tài)治理規(guī)定》等法律法規(guī),雖然對虛擬人生成內(nèi)容未做單獨說明,但都從不同角度明確了包括技術(shù)研發(fā)、生成服務及使用各方在內(nèi)容安全方面所需承擔的責任和義務。因此,為了維護網(wǎng)絡信息秩序,保護用戶和平臺利益,在虛擬人可信能力建設(shè)中,將生成內(nèi)容安全作為可信目標之一的重要性不言而知。從用戶角度出發(fā),虛擬人生成內(nèi)容安全的可信目標可進一步分解成兩大主要特征要求:一是生成內(nèi)容的可識別性,主要體現(xiàn)在所生成的虛擬人及相關(guān)內(nèi)容能否被用戶或系統(tǒng)明確地區(qū)分出其來源和性質(zhì),以防止混淆真實與虛假、原創(chuàng)與轉(zhuǎn)載等問題。例如,將虛擬人誤認為真人,或是生成內(nèi)容被不法分子篡改以混淆用戶視聽等,都可能對用戶產(chǎn)生誤導從而影響判斷,造成權(quán)益侵害。二是生成內(nèi)容的合規(guī)、合法性,即生成的虛擬人及相關(guān)內(nèi)容是否符合法律法規(guī)和社會公序良俗,是否有違反國家安全、社會穩(wěn)定、公共利益等方面的內(nèi)容。對于可識別性特征,我們可以采用顯著或隱形標識等方式對生成的相關(guān)內(nèi)容進行標記和驗證,從而幫助用戶進行真實與虛假的區(qū)分,或防止被篡改及盜用等問題;而對于生成內(nèi)容的合規(guī)、合法性,我們可以在內(nèi)容生成或傳播過程中融入內(nèi)容審核機制,通過建立違規(guī)或敏感特征庫并結(jié)合人工或機器鑒別方式,對非法違規(guī)內(nèi)容進行實時鑒別,并同步構(gòu)建違規(guī)內(nèi)容反饋機制,不斷更新優(yōu)化內(nèi)容審核系統(tǒng)的性能和效果。4.可靠性可控性用戶訂閱虛擬人生成服務的目的是高效制作并生成符合自身預期及標準的虛擬人內(nèi)容,以滿足在特定場景下的使用需求。因此,對虛擬人生成系統(tǒng)在其整個生命周期內(nèi)能夠安全、可靠、可控地運行提出了較高要求。具體來說,虛擬人可信建設(shè)中的可靠性可控性目標主要包含四大特征要求,分別是安全性、成熟度、穩(wěn)健性,以及人類對系統(tǒng)的監(jiān)督和接管能力。安全性要求是虛擬人行業(yè)可信建設(shè)的底線要求,其貫穿全生命周期中技術(shù)研發(fā)、生成服務及運營使用各個階段,涵蓋數(shù)據(jù)樣本安全、算法安全、功能安全、系統(tǒng)安全、應用安全等諸多層面。成熟度要求主要衡量各階段主體能否依據(jù)下游環(huán)節(jié)的客戶/用戶需求,為其提供相適應的解決方案,包括算法模型的準確率、系統(tǒng)功能的完整度、生成服務的效率成本等重要衡量指標,從而保障虛擬人內(nèi)容輸出結(jié)果的高質(zhì)量和高可信水準。穩(wěn)健性要求則是指算法、功能、系統(tǒng)等在發(fā)生異常或面臨不確定及外部環(huán)境干擾時,能夠避免錯誤出現(xiàn)或快速恢復到正常運行狀態(tài),例如算法的魯棒性、系統(tǒng)的韌性都可以歸類到穩(wěn)健性范疇。可控性要求主要體現(xiàn)在虛擬人在生成或使用階段,一旦發(fā)生突發(fā)情況導致系統(tǒng)做出錯誤決策或行為,系統(tǒng)可以被外界的操作者(人或智能體)及時干預或快速接管,避免系統(tǒng)失控的負面影響。例如,當AI驅(qū)動的虛擬人在交互過程中發(fā)生超出預期的情況時,可以以真人驅(qū)動的方式及時接管,確保用戶體驗的連續(xù)性。5.無偏見多樣化無偏見多樣化,包括公平、尊重、包容、多元等可信特征,貫穿虛擬人技術(shù)研發(fā)、生成服務到使用過程的全生命周期,是實現(xiàn)虛擬人創(chuàng)作自由、應用價值多樣化的重要前提,也是虛擬人行業(yè)可信建設(shè)的重要目標之一。換句話說,無偏見多樣化目標實踐,即需要各階段的企業(yè)主體采取主動措施來加強上述可信特征的融入,消除可能會出現(xiàn)的固有偏見和歧視,削弱偏見帶來的負面影響,從而更加包容地滿足不同群體的多樣化需求。例如:在技術(shù)研發(fā)階段,開發(fā)人員在設(shè)計和構(gòu)建虛擬人生成系統(tǒng)時,應了解偏見如何被引入系統(tǒng)以及如何影響系統(tǒng)的生成及決策。為了幫助減少偏見,應該使用反映社會多樣性的訓練數(shù)據(jù)集,例如不同性別、種族、民族、年齡、地域、職業(yè)等,還應在設(shè)計算法模型時引入公平性因素,并對模型進行不斷優(yōu)化和調(diào)整,進而逐步減少偏見和歧視等。在生成服務階段,服務提供方應面向更多元的用戶群體,無差別地提供生成服務。例如,在UI設(shè)計上,要考慮弱勢群體的使用需求,提高工具或平臺的易用性,降低用戶使用的操作門檻;在產(chǎn)品邏輯上,應考慮用戶對生成內(nèi)容多樣化的需求,為用戶提供盡可能更豐富的功能選擇,提高用戶進行虛擬人創(chuàng)作的自由度等。當虛擬人投入使用時,運營方需要關(guān)注虛擬人在應用和交互過程中,可能因場景存在不合理、不合法、不合規(guī)的設(shè)計,從而造成對某些用戶或群體的排斥、剝奪或傷害等負面影響。因此該階段企業(yè)主體在進行可信能力建設(shè)時,需要保證應用場景的合理性、合法性和合規(guī)性,避免應用過程中產(chǎn)生歧視和偏見??傊?,無偏見多樣化可信目標實踐是一個涉及多個階段、多個主體的復雜問題,需要各方參與和協(xié)作,研發(fā)并建立相應的標準、技術(shù)、規(guī)范和機制,以確保虛擬人能夠在不同的場景中,為不同的用戶提供高質(zhì)量、高效率和高價值的服務,并且尊重用戶的權(quán)利、尊嚴和多樣性。6.可理解可解釋隨著人工智能技術(shù)在虛擬人生成、交互和使用過程中的廣泛應用,對算法模型及技術(shù)功能的可理解、可解釋性要求也越來越受到行業(yè)各方的普遍關(guān)注,尤其是大模型、生成式AI等更加復雜模型的應用使得人們對模型內(nèi)部工作機理以及模型如何做出特定決策等重要問題的理解難度也變得越來越高,這也使得人們對生成及使用虛擬人服務時缺乏信任,由此對虛擬人行業(yè)的可持續(xù)發(fā)展造成不利影響。因此,在可信建設(shè)中將可理解可解釋作為可信目標之一就顯得尤為重要。在虛擬人可信建設(shè)中,可理解可解釋可進一步分為以下三類:一是數(shù)據(jù)的可理解可解釋,即要求“數(shù)據(jù)特征”的可解釋性,也就是在進行模型訓練前,對數(shù)據(jù)的特征進行分析和可視化,以了解訓練數(shù)據(jù)的分布、相關(guān)性等特征,作為模型訓練的依據(jù),從而能夠更好地理解和利用數(shù)據(jù),作為模型訓練的依據(jù)。二是模型的可理解可解釋,是指模型本身的結(jié)構(gòu)、參數(shù)和預測結(jié)果等能夠以一種人類可理解的方式進行表達和解釋,需要開發(fā)人員在建模過程中就要將可解釋因素納入考量,從而構(gòu)建一個既有高性能又有高可解釋性的算法模型。三是功能/系統(tǒng)的可理解可解釋,主要是指在虛擬人生成過程中所調(diào)用的功能模塊是否易被用戶所理解和使用,對于提高用戶體驗,建立信任、降低風險和保障公平性等諸多方面都起到重要作用。數(shù)據(jù)、模型、功能/系統(tǒng)的可理解可解釋,不僅向用戶提供可理解的模型處理邏輯,有助于讓用戶了解訓練數(shù)據(jù)與結(jié)果模型參數(shù)之間的關(guān)系,推理輸入、過程與結(jié)果之間的關(guān)系,提升透明性,同時也提高了用戶的使用體驗和使用信心。7.可問責可追溯我們認為,可問責可追溯在虛擬人可信建設(shè)中扮演著重要的守門員角色??蓡栘?,是指虛擬人系統(tǒng)及其全生命周期中的相關(guān)主體能為其行為責任作出解釋、說明的特性;從監(jiān)管角度,也可指監(jiān)管機構(gòu)的一種權(quán)利,即可針對虛擬人技術(shù)研發(fā)、生成服務和運營使用各方在出現(xiàn)問題或遭受損害時,行使基于法律、協(xié)議或授權(quán)等方面的監(jiān)管和審查職能,并要求相關(guān)方承擔相應的后果和懲罰??勺匪?,是可問責的前提,也是行使可問責權(quán)利的重要手段,即各階段主體通過記錄和保留相關(guān)數(shù)據(jù)、算法、人員、操作和任務日志等必要信息,或采用嵌入標識、區(qū)塊鏈存證等方式,以便在必要時進行查詢、分析、驗證、評估等操作,為明確責任主體、強化責任落實提供有力依據(jù)。3.2虛擬人組織可信能力建設(shè)手段1.可信技術(shù)手段(1)隱私保護與增強技術(shù)隱私保護與增強技術(shù)是防止虛擬人系統(tǒng)隱私數(shù)據(jù)泄露或隱私數(shù)據(jù)被濫用的可信技術(shù)手段,主要包括差分隱私、聯(lián)邦學習、匿名技術(shù)和加密技術(shù)等。與傳統(tǒng)人工智能系統(tǒng)相比,虛擬人系統(tǒng)需要收集更多敏感的用戶信息,如聲音聲紋、眼球運動和面部表情等。因此建立可信的虛擬人系統(tǒng),保護數(shù)據(jù)隱私變得尤為重要。針對用戶隱私信息的常見攻擊有成員推理攻擊、屬性推理攻擊、模型反轉(zhuǎn)攻擊和模型提取攻擊等。成員推理攻擊通過識別目標用戶是否作為樣本參與訓練目標虛擬人系統(tǒng)竊取隱私信息;屬性推理攻擊主要竊取目標虛擬人系統(tǒng)中模型的全局屬性;模型反轉(zhuǎn)攻擊通過還原訓練數(shù)據(jù)竊取隱私信息;模型提取攻擊通過創(chuàng)建與目標模型行為相似的新替換模型來竊取目標模型的參數(shù)和結(jié)構(gòu)。抵御隱私攻擊的方法主要包括差分隱私、聯(lián)邦學習、匿名技術(shù)和加密技術(shù)等。差分隱私可以為數(shù)據(jù)隱私提供嚴格的統(tǒng)計保障,可以抵御成員推理攻擊和模型反轉(zhuǎn)攻擊。差分隱私通過添加隨機的數(shù)據(jù)噪聲,在保護用戶數(shù)據(jù)的同時不損害虛擬人系統(tǒng)的準確性。聯(lián)邦學習允許用戶在本地設(shè)備上進行模型訓練,而不需要將原始數(shù)據(jù)上傳到中央服務器。這樣可以避免敏感用戶數(shù)據(jù)的集中存儲,抵御模型提取攻擊和屬性推理攻擊。在聯(lián)邦學習中,多個參與方通過合作訓練共享模型更新,而不共享原始數(shù)據(jù),從而保護了用戶隱私。匿名技術(shù)可以將用戶的敏感信息和真實身份隔離,確保用戶的身份和敏感數(shù)據(jù)無法被直接關(guān)聯(lián),從而減少用戶隱私泄露的風險;常見的匿名技術(shù)包括數(shù)據(jù)脫敏和數(shù)據(jù)泛化等,可以抵御成員推理攻擊和模型提取攻擊。加密技術(shù)可以保護用戶隱私數(shù)據(jù)的傳輸和存儲,可以抵御模型反轉(zhuǎn)攻擊和模型提取攻擊。通過使用加密算法,可以將用戶數(shù)據(jù)轉(zhuǎn)化為不可讀的形式,防止數(shù)據(jù)泄露和未經(jīng)授權(quán)的訪問。當前,虛擬人的生成訓練過程需要收集大量的生物特征信息,隨著人們對隱私數(shù)據(jù)保護的需求日益增加,各種隱私保護方法也在不斷演進。在未來的技術(shù)發(fā)展中,匿名和加密的計算效率和靈活性將會進一步提高,從而更安全高效地處理隱私數(shù)據(jù)。在大規(guī)模和異構(gòu)環(huán)境中部署聯(lián)邦學習中,將會進一步減少通信和計算的成本,提高虛擬人系統(tǒng)的效率和有效性。差分隱私領(lǐng)域則將涌現(xiàn)更多高效的算法準確地權(quán)衡效用和隱私損失,以提高虛擬人系統(tǒng)的可信度。(2)內(nèi)容安全技術(shù)內(nèi)容安全技術(shù)是識別虛擬人系統(tǒng)生成內(nèi)容中的違規(guī)、違法情況的可信技術(shù)手段,主要包括生成內(nèi)容審核技術(shù)和深度偽造檢測技術(shù)。在虛擬人系統(tǒng)的內(nèi)容生成和發(fā)布的過程中,存在生成違規(guī)或違法內(nèi)容的風險。此外,基于人工智能技術(shù)偽造生成的違規(guī)或違法內(nèi)容具有隱蔽性,對個人財產(chǎn)安全,社會穩(wěn)定和國家安全等造成了潛在威脅。例如,利用人工智能技術(shù)偽造語音進行詐騙的事件在世界范圍內(nèi)引起廣泛關(guān)注;用虛擬人形象生成低俗圖片大量散布色情內(nèi)容,危害社會公共道德風尚;假冒政治公眾人物生成“換臉”視頻,對社會造成惡劣的負面影響?,F(xiàn)有的生成內(nèi)容審核技術(shù)通過機器學習等技術(shù)手段對大量數(shù)據(jù)進行分析,從中提取出一系列與違規(guī)、非法信息相關(guān)的關(guān)鍵數(shù)據(jù),并以此作為內(nèi)容審核的依據(jù)。常見的生成內(nèi)容審核技術(shù)有自然語言處理技術(shù)、機器學習算法、內(nèi)容哈希技術(shù)、計算機視覺技術(shù)和深度學習算法等。這些技術(shù)通常結(jié)合使用,形成一個綜合性的生成內(nèi)容審核系統(tǒng),可以快速、準確地識別并處理不適宜發(fā)布的虛擬人內(nèi)容?,F(xiàn)有的深度偽造檢測技術(shù)主要基于深度學習模型實現(xiàn)對偽造特征的提取并構(gòu)建分類器。偽造視頻檢測方法主要有基于視覺特征檢測、基于時序檢測、基于深度學習檢測、基于Transformer模型檢測等。1)基于視覺特征檢測通過分析視頻中的視覺特征來檢測偽造視頻。包括圖像和視頻中的不連續(xù)性、紋理不匹配、光照和陰影異常、人臉邊緣模糊等。通過觀察視頻的視覺特征是否與真實視頻一致,可以判斷其真實性;2)基于時序分析可以識別偽造視頻在時序上存在的異常。包括面部表情和嘴唇運動的不自然變化、人物的姿態(tài)不連貫等。通過對視頻時序的分析,可以檢測出偽造視頻中的時序異常。3)基于深度學習檢測主要通過卷積神經(jīng)和LSTM提取判別特征,并將這些特征分配至深層或淺層分類器中進行訓練,其中深層分類器基于神經(jīng)網(wǎng)絡模型實現(xiàn),而淺層分類器則采用簡單的機器學習模型實現(xiàn),最終完成對深度偽造視頻的準確檢測。對于聽覺偽造的檢測,常見的方法包括語音識別和聲紋識別。這些方法利用深度學習模型對聲音進行分析和建模,識別出偽造聲音的特征。例如,可以使用循環(huán)神經(jīng)網(wǎng)絡(RNN)或卷積神經(jīng)網(wǎng)絡(CNN)對聲音進行建模,然后通過訓練分類器來區(qū)分真實和偽造聲音。4)隨著大語言模型(LMM)技術(shù)的發(fā)展,以注意力(Attention)為核心概念的Transformer模型也逐步被引入至內(nèi)容簡析場景,用于完成分類、判別、回歸等各項任務。結(jié)合嵌入(Embedding)特征處理以及位置編碼等處理方法,Transformer類算法可以在兼顧時間信息和空間信息的基礎(chǔ)上,對圖像、音頻、視頻等多模態(tài)信息進行聯(lián)合處理,從多層次和多角度實現(xiàn)對數(shù)字人內(nèi)容合規(guī)的監(jiān)測與判定,從而更好地支持技術(shù)標準化規(guī)范化的需求。隨著網(wǎng)信辦等監(jiān)管機構(gòu)對各廠商生成內(nèi)容的監(jiān)管力度日益加強,內(nèi)容安全的審核規(guī)范也變得更加清晰和明確。同時也需要發(fā)展更加高效、準確的偽造內(nèi)容檢測技術(shù)。未來,虛擬人系統(tǒng)的內(nèi)容安全有賴于多特征提取結(jié)合和樣本學習技術(shù)的進一步提升。探索多個特征提取結(jié)合方法,從不同角度融合特征,可以增強對偽造內(nèi)容的檢測能力。通過綜合利用視覺、音頻、時序等多種特征,可以提高檢測算法的準確性和魯棒性。引入元學習和小樣本學習等技術(shù),可以幫助檢測算法在有限的樣本情況下進行快速學習和適應。隨著技術(shù)的發(fā)展,偽造內(nèi)容檢測技術(shù)的能力不斷增強,可以更全面地覆蓋不同內(nèi)容風險,為虛擬人系統(tǒng)生成的內(nèi)容提供更可靠的內(nèi)容審核和保護機制。(3)穩(wěn)定性技術(shù)穩(wěn)定性技術(shù)是虛擬人系統(tǒng)在應對復雜應用環(huán)境和惡意攻擊的可信技術(shù)手段,涉及模型建立、數(shù)據(jù)收集和模型訓練等過程。在虛擬人系統(tǒng)的實際應用中,需要面對多種復雜的應用環(huán)境??煽糠€(wěn)定的虛擬人系統(tǒng)可以在各種復雜環(huán)境中保持良好的性能,而穩(wěn)定性差的虛擬人系統(tǒng)則會表現(xiàn)性能不佳或輸出不期望的行為。在機器學習中對穩(wěn)定性的定義是“模型性能對其參數(shù)計算錯誤的不敏感性”。例如,特斯拉虛擬人導航系統(tǒng)誤將月亮識別成黃色信號燈導致運行錯誤,或者人工智能系統(tǒng)遭受外部攻擊產(chǎn)生錯誤。考慮到虛擬人系統(tǒng)在醫(yī)療、金融等安全關(guān)鍵領(lǐng)域的應用,因此設(shè)計可靠穩(wěn)定的虛擬人系統(tǒng)至關(guān)重要。虛擬人系統(tǒng)的穩(wěn)定性涉及模型建立、數(shù)據(jù)收集到模型訓練的全過程。在建立虛擬人系統(tǒng)模型時,可以通過調(diào)整神經(jīng)網(wǎng)絡層和引入噪聲處理機制增加系統(tǒng)的穩(wěn)定性。對神經(jīng)網(wǎng)絡進行層級調(diào)整能有效地改善模型的性能、減少過擬合,并適應特定的輸入數(shù)據(jù)特征;在虛擬人系統(tǒng)模型的輸入層中引入附加隨機噪聲,并對后續(xù)層重新進行參數(shù)化,可以利用這些附加信息增加系統(tǒng)對噪聲的穩(wěn)定性。在收集數(shù)據(jù)時,可以通過擴充訓練數(shù)據(jù)減小噪聲、常見擾動或?qū)剐怨魧μ摂M人系統(tǒng)的干擾。對已有的訓練數(shù)據(jù)進行轉(zhuǎn)換擴展生成新的訓練數(shù)據(jù)可以有效提高虛擬人系統(tǒng)的穩(wěn)定性。此外,針對不同的攻擊方式,生成對抗性樣本數(shù)據(jù)、擾動和邊界樣本數(shù)據(jù),可以保護虛擬人系統(tǒng)抵御對抗性攻擊。模型訓練也在創(chuàng)建虛擬人系統(tǒng)中起著不可或缺的作用。在模型訓練過程中,用干擾數(shù)據(jù)來補充自然數(shù)據(jù)可以使模型包含有關(guān)數(shù)據(jù)的信息,更好地代表真實世界場景的可變性;動態(tài)擾動訓練通過在訓練過程中引入隨機性,增加數(shù)據(jù)集的多樣性,從而增強了虛擬人系統(tǒng)的魯棒性。動態(tài)擾動訓練對虛擬人系統(tǒng)的訓練數(shù)據(jù)標簽進行隨機修改,以增加模型對于標簽誤差的容忍度,還通過在虛擬人系統(tǒng)優(yōu)化的過程中引入一些隨機性因素,例如隨機梯度下降等優(yōu)化算法,以避免模型陷入局部最優(yōu)解;對抗訓練方法通過添加鑒別器或者根據(jù)梯度回傳生成新樣本,可以提升虛擬人系統(tǒng)生成樣本的能力或者穩(wěn)定性;自適應正則化方法可以在正則化的過程中動態(tài)地調(diào)整懲罰項的大小,從而更加靈活地適應不同的網(wǎng)絡層或參數(shù),增強虛擬人系統(tǒng)在未知數(shù)據(jù)上的泛化能力。未來,虛擬人系統(tǒng)的穩(wěn)定性有賴于抵御對抗性攻擊技術(shù)和減少不確定性技術(shù)的進一步提升。提高抵御對抗性攻擊能力的方法包括改進對抗性訓練算法、開發(fā)新的防御策略和設(shè)計更穩(wěn)定的模型系統(tǒng)結(jié)構(gòu)。減少虛擬人系統(tǒng)的不確定性估計需要進一步提高模型的推斷和決策能力。虛擬人系統(tǒng)穩(wěn)定性技術(shù)將繼續(xù)朝著提高模型魯棒性和適應性的方向發(fā)展,以應對不斷增長的挑戰(zhàn)和應用需求。(4)公平性技術(shù)公平性技術(shù)是減少虛擬人系統(tǒng)中不公平現(xiàn)象的可信技術(shù)手段,主要包括公平量化、公平模型和公平診斷。虛擬人系統(tǒng)可能會從訓練數(shù)據(jù)中學習已有的偏見和歧視,進而在決策和推薦中反映出來,從而導致種族或性別歧視。例如,虛擬人助手在推薦內(nèi)容時傾向于更大眾化的、主流的選擇,而忽視或低估了少數(shù)群體的興趣和需求。公平性是提高虛擬人系統(tǒng)可信度和用戶接受度的關(guān)鍵因素。用戶和社會對不公平的虛擬人系統(tǒng)可能會失去信任,進而抵制使用。為保護個人權(quán)利和社會的多樣性,需要確保虛擬人系統(tǒng)的公平性。在虛擬人系統(tǒng)中的偏見主要來源于數(shù)據(jù)和算法。一方面,在訓練數(shù)據(jù)中可能隱含某些偏見,如性別歧視或地域歧視。另一方面,算法模型則可能會減少數(shù)據(jù)中弱勢群體的表達或者進一步強化數(shù)據(jù)中現(xiàn)有的偏見?,F(xiàn)有的關(guān)于增強虛擬人系統(tǒng)公平性的方法主要包括公平量化、公平模型和公平診斷。公平量化開發(fā)和研究量化指標,以衡量虛擬人系統(tǒng)中算法的公平性差異。公平模型基于某些公平定義開發(fā)算法或模型來提高虛擬人系統(tǒng)輸出的公平性。公平診斷則側(cè)重于解釋造成模型不公平的原因,通常對輸入數(shù)據(jù)的特征進行估計,以發(fā)現(xiàn)顯著影響虛擬人系統(tǒng)公平性的關(guān)鍵特征。隨著虛擬人在醫(yī)療、電商、招聘等行業(yè)中的應用越來越廣泛,虛擬人系統(tǒng)的公平性問題也越來越重要。隨著研究的不斷深入,勢必將會涌現(xiàn)出更穩(wěn)定、更透明、更公平的技術(shù),這些技術(shù)將成為實現(xiàn)虛擬人公平性的重要保障。(5)可解釋性增強技術(shù)可解釋性增強技術(shù)是增強虛擬人系統(tǒng)輸出內(nèi)容可解釋性的可信技術(shù)手段,主要包括基于梯度的解釋方法、基于擾動的解釋方法和反事實解釋方法等。在虛擬人系統(tǒng)中通常使用深度神經(jīng)網(wǎng)絡等復雜模型來提高生成性能和預測性能。然而,深度學習模型的復雜性導致了其工作原理和決策依據(jù)難以被理解。復雜的深度學習模型缺少可解釋性和透明度,難以滿足虛擬人系統(tǒng)的可信需求。考慮到虛擬人系統(tǒng)在金融、醫(yī)療等特定場景的應用,需要確保虛擬人系統(tǒng)決策的合理性和可信度,因此提高虛擬人的可解釋性非常重要。為了提高虛擬人系統(tǒng)中人工智能模型的可解釋性,主要方法有:基于梯度的解釋方法、基于擾動的解釋方法和反事實解釋方法。在基于梯度的方法中,可解釋算法通過神經(jīng)網(wǎng)絡進行一次或多次正向傳遞,并在反向傳播階段利用激活的偏導數(shù)生成屬性。利用這種方法,可以對虛擬人系統(tǒng)生成的人物形象做出準確的解釋,減少生成的不確定性。基于擾動的可解釋方法在模型中輸入變化的特征空間,以解釋輸出類的單個特征屬性。利用這種方法,可以對虛擬人系統(tǒng)生成的決策做出準確的解釋增加決策的合理性。反事實解釋方法是一種用于回答假設(shè)問題的方法,通常用于解釋為什么一個特定決策或預測發(fā)生。例如,當用戶被AI銀行系統(tǒng)拒絕信用卡申請時,想知道拒絕的原因。通過反事實解釋方法,可以回答類似的問題:“如果對某些特征值(如收入、年齡、種族等)進行微小的改變,用戶的申請是否會被批準?”這樣可以幫助理解哪些特征對于申請的結(jié)果產(chǎn)生了重要影響。通過反事實解釋,用戶可以獲得更直觀、可解釋的答案,進而增強對虛擬人系統(tǒng)決策結(jié)果的信任和可信度。未來,虛擬人系統(tǒng)的可解釋性有賴于可解釋安全技術(shù)和可解釋評估方法的進一步提升。由于人工智能模型數(shù)據(jù)驅(qū)動的性質(zhì),虛擬人系統(tǒng)的解釋容易受到惡意操縱。攻擊者的生成對抗性數(shù)據(jù)不僅會誤導目標分類器,還會欺騙其相應的解釋器,引發(fā)解釋的潛在安全問題。因此,學習如何抵御對解釋的對抗性攻擊將是未來研究的一個重要方向。目前廣泛使用的評估方法是基于可視化解釋的評估,這種評估方式涉及人類評估者對解釋結(jié)果的主觀判斷,可能存在主觀性偏差。因此需要進一步探索可解釋性評估的定量和定性方法。定量評估方法可以使用數(shù)值指標來衡量解釋的質(zhì)量,例如解釋的準確性、完整性、一致性等。隨著可解釋技術(shù)的發(fā)展,將有更多的研究探索和有效的評估方法,進一步提高虛擬人系統(tǒng)的可解釋性。(6)可問責可追溯技術(shù)可問責技術(shù)是對虛擬人系統(tǒng)中的違法行為進行責任追溯的可信技術(shù)手段,主要包括日志技術(shù)和數(shù)字水印技術(shù)等。虛擬人系統(tǒng)在內(nèi)容制作和展現(xiàn)過程中,不可避免地會被不法分子插入違規(guī)和違法信息。針對此類問題,可問責技術(shù)能夠?qū)μ摂M人系統(tǒng)的全鏈路進行記錄,包括數(shù)據(jù)源、內(nèi)容生成和內(nèi)容展現(xiàn)等環(huán)節(jié)。當需要對發(fā)布的內(nèi)容進行責任追溯時,可問責技術(shù)可以定位到具體的步驟和相關(guān)責任方。為了保證系統(tǒng)可溯源性,主要采用日志技術(shù)對系統(tǒng)內(nèi)的所有操作和相關(guān)操作者進行日志記錄,并長期存儲。日志管理、日志記錄和日志分析在打擊犯罪等領(lǐng)域得到了廣泛應用。此外,針對系統(tǒng)中的各中間過程和最終過程的產(chǎn)出,還可以嵌入包含關(guān)鍵信息的數(shù)字水印用于追責。數(shù)字水印技術(shù)可將責任人、操作實際、操作地點等信息進行編碼,并嵌入各種形式的數(shù)據(jù)載體中。例如,在輸入圖片和渲染視頻幀中,可以在空間域和頻域內(nèi)對元素進行數(shù)值改變來嵌入數(shù)字水??;在渲染視頻中,可以對連續(xù)幀之間進行水印信息的嵌入;在虛擬人中間點云和網(wǎng)格數(shù)據(jù)中,可以對部分點的坐標數(shù)據(jù)或拓撲結(jié)構(gòu)進行修改或?qū)N圖像素值進行修改,從而嵌入數(shù)字水印等。隨著深度學習技術(shù)發(fā)展,數(shù)字水印結(jié)合深度網(wǎng)絡的研究也得到了深入的發(fā)展,相關(guān)研究著重于水印嵌入網(wǎng)絡和水印提取網(wǎng)絡。水印嵌入網(wǎng)絡可以在原始數(shù)據(jù)上引入網(wǎng)絡信息而不影響視覺和聽覺體驗,而水印提取網(wǎng)絡則用于提取水印信息。隨著時代的發(fā)展,對于虛擬人系統(tǒng)的監(jiān)管將不斷加強,并對其中各參與方的權(quán)責進行清晰劃分的需求也將增加。雖然現(xiàn)有的計算機系統(tǒng)日志技術(shù)基本滿足需求,但對數(shù)據(jù)和中間產(chǎn)物進行責任追蹤的研究也在同步進行。數(shù)字水印是其中關(guān)鍵的研究方向,目前主要集中在對數(shù)據(jù)部分嵌入水印的研究。隨著各項研究的深入,未來會涌現(xiàn)出更多的研究方向和相關(guān)技術(shù)保障虛擬人系統(tǒng)的可問責可追溯性。2.可信管理手段虛擬人組織的可信能力建設(shè)需要建立完善的可信管理機制對虛擬人的全生命周期進行規(guī)范化管理。對虛擬人技術(shù)的不當使用可能會嚴重損害企業(yè)的聲譽,例如因管理不當造成用戶隱私泄露、因虛擬人技術(shù)濫用造成侵權(quán)和因缺少監(jiān)督造成虛擬人產(chǎn)生錯誤決策等。企業(yè)內(nèi)部可信管理要求建立統(tǒng)一規(guī)范的內(nèi)部管理制度,經(jīng)過不斷地補充和完善,使各項制度成為一個完整的流程,讓企業(yè)一切經(jīng)營活動有據(jù)可依、有章可循,幫助規(guī)范員工行為、維護企業(yè)利益、提高管理效率。虛擬人組織因其管理對象的特殊性,需要企業(yè)根據(jù)自身特點從組織架構(gòu)管理、建立可問責機制、建立安全防護措施、顯著標識管理、建立舉報機制和透明化工作流程體系等方面建立內(nèi)部管理流程。(1)組織架構(gòu)管理建立虛擬人可信管理機制,可以對虛擬人系統(tǒng)的設(shè)計、開發(fā)、部署和運營過程進行有效控制和監(jiān)管,確保其在組織內(nèi)部和外部的合理可信性。組織應當確定內(nèi)部或外部的管理框架,設(shè)立由專業(yè)的倫理學家、安全合規(guī)專家、法律顧問等組成的專門的可信管理部門,負責研究和解決虛擬人應用中的可信問題,對虛擬人的應用場景進行評估和監(jiān)督,確保虛擬人的行為符合倫理標準和法律規(guī)定。企業(yè)應建立健全虛擬人活動全流程科技倫理監(jiān)管機制和審查質(zhì)量控制、監(jiān)督評價機制,加強對虛擬人活動的動態(tài)跟蹤、風險評估和倫理事件應急處置。同時可信管理部門還應該加強企業(yè)內(nèi)部可信文化的宣傳和培養(yǎng),加強員工的可信意識。虛擬人技術(shù)在不斷更新和拓展,可信管理部門需要跟進最新的技術(shù)發(fā)展,確保企業(yè)的管理架構(gòu)能夠適應新的挑戰(zhàn)和變化,保障虛擬人組織的可信能力。(2)建立可追溯可問責機制建立可追溯可問責機制可以加強企業(yè)管理的可解釋性,確保虛擬人系統(tǒng)的設(shè)計、開發(fā)和應用過程中有明確的責任鏈和決策流程。企業(yè)需要根據(jù)虛擬人的特點制定責任制度,明確相關(guān)負責人和責任邊界,并定義應承擔的責任和義務。當損害虛擬人組織的問題發(fā)生時,可追溯可問責機制確保有合適的補救措施進行搶救,包括賠償認定、責任劃分、問題補救和事故賠償?shù)?。推行工作日志制度,便于了解公司各部門的工作狀況、工作效率以及工作中存在的困難和問題,從而及時采取相應的措施給予正確、有效的指引和妥善的解決,以確保在分工協(xié)作以及明確崗位工作職責基礎(chǔ)上,強化執(zhí)行,提高效率,進一步規(guī)范管理。同時,工作日志制度也利于員工對自己工作內(nèi)容和工作過程等方面進行全面的了解,并且通過自我監(jiān)督和總結(jié),提出合理化建議,明確工作目標,突出工作重點,合理規(guī)劃工作日程和流程,養(yǎng)成良好的工作習慣,提高個人工作技能和能力。通過建立公司章程、制定對應的責任KPI、行為守則和工作日志等可以幫助虛擬人組織遵守有關(guān)規(guī)定,保持可信能力長期穩(wěn)定。(3)建立身份授權(quán)管理技術(shù)建立健全虛擬人組織的安全防護措施可以保護企業(yè)和用戶的隱私,防止惡意攻擊。建立安全防護措施包括真實身份信息認證、身份授權(quán)管理和數(shù)據(jù)加密管理。真實身份信息驗證是確保用戶提供的身份信息是真實和可信的關(guān)鍵步驟。采用多因素身份認證可以提高安全性,例如使用密碼、短信驗證碼、指紋識別等。身份驗證可以與政府部門或第三方服務合作,通過驗證身份證件(如身份證、護照等)和其他證明文件來確認用戶的真實身份。身份授權(quán)管理保障企業(yè)正確使用用戶授權(quán)的個人身份信息。在每次獲取個人信息時,都要獲得用戶的明確同意。為此,可以使用明確的用戶許可協(xié)議或隱私政策,并確保用戶在使用服務或平臺之前仔細閱讀并同意這些文

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論