版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
人工智能倫理治理標(biāo)準(zhǔn)化指南(2023版)二〇二三年三月目 錄概述 3人工智能倫理概念 3人工智能倫理治理發(fā)展現(xiàn)狀 6國際治理路線存差異,難以推動(dòng)形成全球共識(shí) 6我國發(fā)展與治理并重,積極促成國際治理合力 人工智能倫理準(zhǔn)則 122.1概述 12人工智能倫理準(zhǔn)則內(nèi)涵 14以人為本(ForHuman) 14可持續(xù)(Sustainability) 15合作(Collaboration) 17隱私(Privacy) 18公平(Fairness) 20共享(Share) 22外部安全(Security) 24內(nèi)部安全(Safety) 26透明(Transparency) 27可問責(zé)(Accountability) 29人工智能倫理風(fēng)險(xiǎn)分析 31人工智能倫理風(fēng)險(xiǎn)來源 31人工智能倫理風(fēng)險(xiǎn)分析方法 35人工智能技術(shù)應(yīng)用和典型場景倫理風(fēng)險(xiǎn)分析 37自動(dòng)駕駛 38智能媒體 39智能醫(yī)療 40智能電商 41智能教育 42科學(xué)智能(AIforScience) 43人工智能倫理治理的技術(shù)解決方案 45人工智能倫理技術(shù)框架 45人工智能倫理技術(shù)實(shí)現(xiàn)路徑與治理實(shí)踐 47人工智能倫理技術(shù)實(shí)現(xiàn)路徑 47人工智能倫理管理實(shí)現(xiàn)路徑 51人工智能倫理技術(shù)治理實(shí)踐 54人工智能倫理標(biāo)準(zhǔn)化 59人工智能倫理標(biāo)準(zhǔn)化現(xiàn)狀 59國際人工智能倫理標(biāo)準(zhǔn)化 60國內(nèi)人工智能倫理標(biāo)準(zhǔn)化 62人工智能倫理標(biāo)準(zhǔn)體系 64A基礎(chǔ)共性標(biāo)準(zhǔn) 65B治理技術(shù)標(biāo)準(zhǔn) 65C管理標(biāo)準(zhǔn) 66D行業(yè)應(yīng)用標(biāo)準(zhǔn) 66重點(diǎn)標(biāo)準(zhǔn)研制 67人工智能管理體系 67人工智能風(fēng)險(xiǎn)評(píng)估模型 68人工智能隱私保護(hù)機(jī)器學(xué)習(xí)技術(shù)要求 68人工智能倫理治理的展望與建議 69細(xì)化完善人工智能的倫理準(zhǔn)則,力爭凝聚全球各界發(fā)展新共識(shí)………………69加速打造多方協(xié)同的治理模式,促進(jìn)政產(chǎn)學(xué)研用治理深度融合………………71逐步強(qiáng)化支撐技術(shù)的實(shí)踐水平,跨越準(zhǔn)則到可實(shí)施技術(shù)的鴻溝………………72發(fā)揮急用先行標(biāo)準(zhǔn)的引領(lǐng)作用,引導(dǎo)產(chǎn)業(yè)健康發(fā)展高質(zhì)量發(fā)展………………74附件1標(biāo)準(zhǔn)體系明細(xì)表 76附件2人工智能倫理相關(guān)國際標(biāo)準(zhǔn)清單 77附件3人工智能評(píng)估評(píng)測工具清單 79--PAGE1---PAGE2-11概述人類社會(huì)于20世紀(jì)中后期進(jìn)入信息時(shí)代后,信息技術(shù)倫理逐漸引起了廣泛關(guān)注和研究。信息技術(shù)的高速變革發(fā)展,21世紀(jì)后人類社會(huì)迅速邁向智能時(shí)代,隨著人工智能的發(fā)展,越來越多的人工智能賦能應(yīng)用、智能機(jī)器人等人工智能產(chǎn)品走入人類生活11概述現(xiàn)有人工智能技術(shù)路徑依賴大量人類社會(huì)數(shù)據(jù),特別是反映了人類社會(huì)演化歷程中積累了系統(tǒng)性道德偏見的人類語言數(shù)據(jù)的訓(xùn)練,這樣的人工智能系統(tǒng)進(jìn)行的決策將不可避免地做出隱含著道德偏見的選擇。然而,邁向智能時(shí)代的過程如此迅速,使得我們?cè)趥鹘y(tǒng)的信息技術(shù)倫理秩序尚未建立完成的情況下,又迫切需要應(yīng)對(duì)更加富有挑戰(zhàn)性的人工智能倫理問題,積極構(gòu)建智能社會(huì)的秩序。技術(shù)與倫理正如兩條相互纏繞的通道指引著人工智能的健康發(fā)展,一面展示著人類科技認(rèn)知的水平,另一面展示著人類道德文明的程度。因此,如何結(jié)合技術(shù)手段和治理體系,合理地對(duì)人工智能倫理問題進(jìn)行限制,也是人工智能領(lǐng)域最值得探討的議題之一。人工智能倫理與數(shù)據(jù)倫理、機(jī)器人倫理、信息技術(shù)倫理等應(yīng)用倫理學(xué)分支具有密切的關(guān)系,有其發(fā)展的繼承性和很多的相似之處。對(duì)于尚處弱人工智能的當(dāng)前階段,也很難判定人工智能倫理已經(jīng)從機(jī)器人倫理等前沿1概述1概述人工智能倫理治理標(biāo)準(zhǔn)化指南人工智能倫理治理標(biāo)準(zhǔn)化指南研究領(lǐng)域中實(shí)現(xiàn)完全分化。站在第四次工業(yè)革命的宏觀角度來看,人工智能作為具有創(chuàng)造性和革命性的新領(lǐng)域,對(duì)全社會(huì)、全行業(yè)和全技術(shù)都在進(jìn)行新的賦能,正在產(chǎn)生顛覆性、不可逆的后果,因此人工智能倫理也超越了應(yīng)用倫理。因此,包括計(jì)算元倫理(ComputationalMeta-ethics)創(chuàng)新學(xué)科,為人工智能倫理學(xué)理論體系的豐富做出不同理論進(jìn)路的貢獻(xiàn)。隨著人工智能的倫理問題逐漸引起人們的關(guān)注,越來越多的學(xué)者投入針對(duì)人工智能倫理的研究。基于IEEEXplore的資源(截至2020年),國際社會(huì)對(duì)人工智能倫理諸多問題的關(guān)切主要集中在如下主題:人工智能的技術(shù)奇點(diǎn)問題、人工智能本身的倫理問題和人工智能對(duì)人類社會(huì)各領(lǐng)域造成的沖擊與挑戰(zhàn)從而帶來的倫理問題。因此,可以總結(jié)出人工智能倫理內(nèi)涵包含三方面:一是人類在開發(fā)和使用人工智能相關(guān)技術(shù)、產(chǎn)品及系統(tǒng)時(shí)的道德準(zhǔn)則及行為規(guī)范;二是人工智能體本身所具有的符合倫理準(zhǔn)則的道德編程或價(jià)值嵌入方法;三是人工智能體通過自我學(xué)習(xí)推理而形成的倫理規(guī)范。由于目前仍處弱人工智能時(shí)代,對(duì)于最后一點(diǎn)的討論還為時(shí)尚早,從而,基于人工智能技術(shù)的倫理反思和基于倫理的人工智能技術(shù)批判共同構(gòu)成了人工智能倫理的基本進(jìn)路,也是人工智能倫理體系下的兩大主要知識(shí)脈絡(luò)。倫理與道德的關(guān)系“倫理”是人類實(shí)現(xiàn)個(gè)體利益與社會(huì)整體利益協(xié)調(diào)過程中,形成的具有廣泛共識(shí)的引導(dǎo)社會(huì)人際和諧和可持續(xù)發(fā)展的一系列公序良俗,諸如向善、公平、正義等,其內(nèi)涵會(huì)根據(jù)研究主體的特性而改變;“道德”則表現(xiàn)為善惡對(duì)立的心理意識(shí)、原則規(guī)范和行為活動(dòng)的總和。倫理與科技的關(guān)系科學(xué)技術(shù)是人對(duì)客觀物質(zhì)世界的運(yùn)動(dòng)及其相互關(guān)系和規(guī)律的認(rèn)識(shí)并運(yùn)用于生產(chǎn)實(shí)踐的產(chǎn)物,從一開始就內(nèi)嵌著人類倫理道德的成分。21世紀(jì)以--PAGE3---PAGE4-來,科學(xué)技術(shù)呈現(xiàn)高度復(fù)雜、數(shù)字化、智能化、虛擬性和多系統(tǒng)綜合的特征,技術(shù)后果的影響具有間接性和深遠(yuǎn)性?,F(xiàn)代技術(shù)不僅將自然作為干預(yù)和改造甚至控制的對(duì)象,也把人變成了改造、增強(qiáng)和控制的對(duì)象,甚至出現(xiàn)了人機(jī)共生等現(xiàn)象。更進(jìn)一步,人工智能作為一種前沿的科學(xué)技術(shù),不僅實(shí)現(xiàn)了對(duì)人類體力勞動(dòng)的替代,也在越來越多地代替人類的智力勞動(dòng)。因此,人工智能倫理將對(duì)人類社會(huì)現(xiàn)有的倫理體系產(chǎn)生顛覆性影響。倫理、科技倫理、人工智能倫理的關(guān)系如圖1所示,科技倫理是更一般化的人工智能倫理,因此對(duì)人工智能的倫理思考需要回歸到科技倫理的分析框架下,確定人工智能倫理反思的出發(fā)點(diǎn)和著眼點(diǎn)。當(dāng)前人工智能技術(shù)在全球快速研發(fā)與應(yīng)用,由于人工智能技術(shù)本身特有的不確定性問題,相比傳統(tǒng)信息技術(shù)更加具有倫理反思的必要。另外,科技倫理的反思要在技術(shù)、人、社會(huì)、自然等綜合的關(guān)聯(lián)環(huán)境中,針對(duì)科技進(jìn)步的條件、使用技術(shù)達(dá)到的目的,實(shí)現(xiàn)目的采用的手段和后果,進(jìn)行評(píng)價(jià)與治理。圖1人、自然、社會(huì)與科技倫理世界各國和地區(qū)在大力推動(dòng)人工智能技術(shù)突破和產(chǎn)業(yè)發(fā)展的同時(shí),高度重視人工智能的全面健康發(fā)展,并將倫理治理納入其人工智能戰(zhàn)略,相應(yīng)地推出政策或發(fā)布規(guī)劃、指南與規(guī)范等文件用于建立人工智能倫理保障體系,開展人工智能倫理相關(guān)技術(shù)的管理。在激勵(lì)人工智能產(chǎn)業(yè)發(fā)展的同時(shí)約束人工智能風(fēng)險(xiǎn),體現(xiàn)了發(fā)展與治理并重的基本原則。國際治理路線存差異,難以推動(dòng)形成全球共識(shí)國際組織2019年5月,經(jīng)濟(jì)合作與發(fā)展組織(OECD)正式發(fā)布《人工智能原則》,該原則給出了人工智能可信賴的五項(xiàng)原則,包括可持續(xù)發(fā)展、以人為本、透明可解釋、魯棒性與信息安全、可問責(zé)等,并基于上述五項(xiàng)原則提出了政策建議和國際合作方針。2021年11月25日,聯(lián)合國教科文組織正式發(fā)布《人工智能倫理問題建議書》,該建議書作為全球首個(gè)針對(duì)人工智能倫理制定的規(guī)范框架,明確規(guī)定了4項(xiàng)價(jià)值觀、10項(xiàng)倫理原則以及11項(xiàng)政策建議,其中人工智能倫理原則主要涉及相稱性和不損害、安全和安保、公平和非歧視、可持續(xù)性、隱私權(quán)和數(shù)據(jù)保護(hù)、人類的監(jiān)督和決定、透明度和可解釋性、責(zé)任和問責(zé)、認(rèn)識(shí)和素養(yǎng)、多利益攸關(guān)方與適應(yīng)性治理和協(xié)作。歐盟歐盟認(rèn)識(shí)到,加快發(fā)展人工智能技術(shù)與其積極推進(jìn)的數(shù)字經(jīng)濟(jì)建設(shè)密不可分,而要確保數(shù)字經(jīng)濟(jì)建設(shè)長期健康穩(wěn)定發(fā)展,不僅要在技術(shù)層面爭取領(lǐng)先地位,也需要在規(guī)范層面盡早占據(jù)領(lǐng)先地位。2019年4月,歐盟AI高級(jí)專家組(AIHLEG)正式發(fā)布《可信人工智能倫理指南》,在該指南中提出了實(shí)現(xiàn)可信人工智能的參考框架,在該框架中可信人工智能的基礎(chǔ)由合法合規(guī)、倫理、魯棒性三項(xiàng)相輔相成,必不可少的要素構(gòu)成。指南根據(jù)該三項(xiàng)要素提出了尊重人的自主權(quán)、無害化、公平性、可解釋性等四項(xiàng)基本原則。此外,指南指出要實(shí)現(xiàn)可信賴的人工智能,必須將上述四個(gè)倫理原則轉(zhuǎn)化為可實(shí)現(xiàn)的具體要求,用于參與人工智能系統(tǒng)生命周期的各個(gè)利益相關(guān)方,如開發(fā)人員、部署人員和最終用戶,以及更廣泛的社會(huì)層面。2020年10月,歐盟委員會(huì)通過《人工智能、機(jī)器人和相關(guān)技術(shù)的倫理框架》決議,該框架的針對(duì)潛在高風(fēng)險(xiǎn)人工智能相關(guān)技術(shù),該框架從第六條到第十六條等多個(gè)方面規(guī)范了倫理相關(guān)義務(wù),其中主要包括以人為本,安全、透明、可問責(zé),無偏見、無歧視,社會(huì)職責(zé)、性別平等,可持續(xù)發(fā)展,尊重個(gè)人隱私和補(bǔ)救權(quán)益七項(xiàng)原則。2021年4月,歐盟委員會(huì)發(fā)布了立法提案——《歐洲議會(huì)和理事會(huì)關(guān)于制定人工智能統(tǒng)一規(guī)則(人工智能法)和修訂某些歐盟立法的條例》,其主要內(nèi)容包括對(duì)人工智能應(yīng)用風(fēng)險(xiǎn)進(jìn)行劃分,將風(fēng)險(xiǎn)等級(jí)劃分為不可接受風(fēng)險(xiǎn)、高風(fēng)險(xiǎn)、風(fēng)險(xiǎn)有限以及風(fēng)險(xiǎn)最低四個(gè)級(jí)別,以對(duì)人工智能系統(tǒng)進(jìn)行分級(jí)管理,并明確監(jiān)管部門和處罰要求,意圖通過法律手段提高可信人工智能系統(tǒng)的發(fā)展。美國美國基于國家安全的戰(zhàn)略高度,強(qiáng)調(diào)人工智能倫理對(duì)軍事、情報(bào)和國家競爭力的作用。以行政令為指導(dǎo)思想,從技術(shù)、標(biāo)準(zhǔn)、管理、應(yīng)用等層面推動(dòng)人工智能倫理的規(guī)范和使用。2019年6月,美國國家科學(xué)技術(shù)委員會(huì)發(fā)布《國家人工智能研究與發(fā)展戰(zhàn)略計(jì)劃》以落實(shí)上述行政令,提出人工智能系統(tǒng)必須是值得信賴的,應(yīng)當(dāng)通過設(shè)計(jì)提高公平、透明度和問責(zé)制等舉措,設(shè)計(jì)符合倫理道德的人工智能體系。2019年10月,美國國防創(chuàng)新委員會(huì)(DIB)發(fā)布《人工智能準(zhǔn)則:美國國防部(DoD)人工智能倫理使用推薦性規(guī)范》,該推薦性規(guī)范主要基于現(xiàn)有美國憲法和戰(zhàn)爭法以及國際條款中的倫理參考框架,共提出負(fù)責(zé)任、公平、可追溯、可靠性以及可治理五項(xiàng)倫理原則。英國2016年11月,英國科技辦公室發(fā)布《人工智能:未來決策制定的機(jī)遇與影響》,報(bào)告中關(guān)注人工智能對(duì)個(gè)人隱私、就業(yè)以及政府決策可能帶來的影響,并就處理人工智能帶來的道德和法律風(fēng)險(xiǎn)提出了建議。2018年4月,英國議會(huì)下屬的人工智能特別委員會(huì)發(fā)布《英國人工智能發(fā)展的計(jì)劃、能力與志向》,提出了“人工智能不應(yīng)用于削弱個(gè)人、家庭乃至社區(qū)的數(shù)據(jù)權(quán)利或隱私”的基本道德準(zhǔn)則。德國2017年6月,德國聯(lián)邦交通與數(shù)字基礎(chǔ)設(shè)施部推出全球首套《自動(dòng)駕駛倫理準(zhǔn)則》,提出了自動(dòng)駕駛汽車的20項(xiàng)道德倫理準(zhǔn)則。特別針對(duì)無可避免的兩難事故決策,規(guī)定不得存在任何基于年齡、性別、種族、身體屬性或任何其他區(qū)別因素的歧視判斷。日本2017年5月,日本人工智能學(xué)會(huì)發(fā)布了《日本人工智能學(xué)會(huì)倫理準(zhǔn)則》,要求日本人工智能學(xué)會(huì)會(huì)員應(yīng)當(dāng)遵循并實(shí)踐尊重隱私的原則。值得注意的是,該學(xué)會(huì)與純粹的學(xué)術(shù)團(tuán)體不同,除高校、科研機(jī)構(gòu)和產(chǎn)業(yè)巨頭外,還有科學(xué)技術(shù)振興機(jī)構(gòu)等政府部門參與。新加坡2020年1月,新加坡個(gè)人數(shù)據(jù)保護(hù)委員會(huì)發(fā)布《人工智能治理框架》,該框架提出了人工智能治理結(jié)構(gòu)和方法,并針對(duì)人工智能倫理問題,總結(jié)梳理了具備一定共識(shí)的倫理原則,并將上述倫理原則融入人工智能治理框架中。表1人工智能倫理相關(guān)國際政策法規(guī)文件發(fā)布機(jī)構(gòu)文件題目發(fā)布時(shí)間關(guān)鍵內(nèi)容國際組織經(jīng)濟(jì)合作與發(fā)展組織(OECD)《人工智能原則》2019年5月人工智能可信賴聯(lián)合國教科文組織《人工智能倫理問題建議書》2021年11月人工智能倫理美國美國計(jì)算機(jī)協(xié)會(huì)公共政策委員會(huì)《算法透明性和可問責(zé)性的聲明》2017年1月可解釋性美國參議院《2018年惡意偽造禁令法案》2018年12月深度偽造技術(shù)美國白宮《美國人工智能倡議》2019年2月對(duì)抗樣本技術(shù)、深度偽造技術(shù)美國國家科學(xué)技術(shù)委員會(huì)《國家人工智能研究與發(fā)展戰(zhàn)略計(jì)劃》2019年6月公平性、透明美國國會(huì)《2019年深度偽造報(bào)告法案》2019年6月深度偽造技術(shù)美國國防創(chuàng)新委員會(huì)(DIB)2019年10月負(fù)責(zé)、公平性、可追蹤、可靠、可控美國政府問責(zé)局《人工智能:聯(lián)邦機(jī)構(gòu)和其他實(shí)體的問責(zé)框架》2021年6月可問責(zé)美國國會(huì)《算法責(zé)任法案》2022年2月公平性、透明、可問責(zé)歐盟歐盟委員會(huì)《通用數(shù)據(jù)保護(hù)條例》2018年5月可解釋性、公平性歐盟委員會(huì)《算法責(zé)任與透明治理框架》2019年4月透明、可問責(zé)歐盟AI高級(jí)專家組(AIHLEG)《可信人工智能倫理指南》2019年4月人工智能可信賴歐洲議會(huì)研究中心《人工智能倫理:問題和倡議》2020年5月人工智能倫理歐盟AI高級(jí)專家組(AIHLEG)《可信AI評(píng)估列表》2020年7月人工智能可信賴歐盟委員會(huì)《人工智能、機(jī)器人和相關(guān)技術(shù)的倫理框架》2020年10月人工智能倫理歐盟委員會(huì)《人工智能法》2021年4月風(fēng)險(xiǎn)分級(jí)發(fā)布機(jī)構(gòu)文件題目發(fā)布時(shí)間關(guān)鍵內(nèi)容德國德國聯(lián)邦交通與數(shù)字基礎(chǔ)設(shè)施部《自動(dòng)駕駛倫理準(zhǔn)則》2017年8月自動(dòng)駕駛倫理英國英國科技辦公室《人工智能:未來決策制定的機(jī)遇與影響》2016年11月隱私保護(hù)英國議會(huì)下屬人工智能特別委員會(huì)《英國人工智能發(fā)展的計(jì)劃、能力與志向》2018年4月隱私保護(hù)日本日本人工智能學(xué)會(huì)《日本人工智能學(xué)會(huì)倫理準(zhǔn)則》2017年5月人工智能倫理日本內(nèi)閣府《以人類為中心的AI社會(huì)原則》2018年12月人工智能倫理新加坡新加坡個(gè)人數(shù)據(jù)保護(hù)委員會(huì)《人工智能治理框架》2020年1月人工智能倫理新加坡個(gè)人數(shù)據(jù)保護(hù)委員會(huì)《人工智能治理測試框架和工具包》2022年5月人工智能倫理我國發(fā)展與治理并重,積極促成國際治理合力我國將人工智能倫理規(guī)范作為促進(jìn)人工智能發(fā)展的重要保證措施,不僅重視人工智能的社會(huì)倫理影響,而且通過制定倫理框架和倫理規(guī)范,以確保人工智能安全、可靠、可控。2017年7月,國務(wù)院印發(fā)的《新一代人工智能發(fā)展規(guī)劃》提出“分三步走”的戰(zhàn)略目標(biāo),掀起了人工智能新熱潮,并明確提出要“加強(qiáng)人工智能相關(guān)法律、倫理和社會(huì)問題研究,建立保障人工智能健康發(fā)展的法律法規(guī)和倫理道德框架”。2019年6月,中國國家新一代人工智能治理專業(yè)委員會(huì)發(fā)布《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》,提出了人工智能治理的框架和行動(dòng)指南。治理原則突出了發(fā)展負(fù)責(zé)任的人工智能這一主題,強(qiáng)調(diào)了和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔(dān)責(zé)任、開放協(xié)作、敏捷治理等八條原則。2021年9月25日,國家新一代人工智能治理專業(yè)委員會(huì)發(fā)布《新一代人工智能倫理規(guī)范》,該規(guī)范提出了增進(jìn)人類福祉、促進(jìn)公平公正、保護(hù)隱私安全、確??煽乜尚?、強(qiáng)化責(zé)任擔(dān)當(dāng)、提升倫理素養(yǎng)等6項(xiàng)基本倫理規(guī)范。同時(shí),提出人工智能管理、研發(fā)、供應(yīng)、使用等特定活動(dòng)的18項(xiàng)具體倫理要求。2022年3月20日,國務(wù)院辦公廳印發(fā)《關(guān)于加強(qiáng)科技倫理治理的意見》,為進(jìn)一步完善科技倫理體系,提升科技倫理治理能力,有效防控科技倫理風(fēng)險(xiǎn),該意見提出應(yīng)加強(qiáng)科技倫理的治理要求、明確科技倫理原則、健全科技倫理治理體制、加強(qiáng)科技倫理治理制度保障、強(qiáng)化科技倫理審查和監(jiān)管以及深入開展科技倫理教育和宣傳。表2人工智能倫理相關(guān)國內(nèi)政策法規(guī)文件發(fā)布機(jī)構(gòu)文件題目發(fā)布時(shí)間關(guān)鍵內(nèi)容國務(wù)院《新一代人工智能發(fā)展規(guī)劃》2017年7月人工智能倫理中華人民共和國工業(yè)和信息化部《促進(jìn)新一代人工智能產(chǎn)業(yè)發(fā)2017年12月AI隱私風(fēng)險(xiǎn)國家新一代人工智能治理專業(yè)委員會(huì)《新一代人工智能治理原2019年6月人工智能倫理全國人民代表大會(huì)常務(wù)委員會(huì)《中華人民共和國個(gè)人信息保護(hù)法》2021年8月可解釋性國家新一代人工智能治理專業(yè)委員會(huì)《新一代人工智能倫理規(guī)范》2021年9月人工智能倫理國家互聯(lián)網(wǎng)信息辦公室《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》2021年12月公平性、透明中共中央辦公廳、國務(wù)院辦公廳《關(guān)于加強(qiáng)科技倫理治理的意見》2022年3月科技倫理國家互聯(lián)網(wǎng)信息辦公室《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》2022年11月深度合成技術(shù)、透明中華人民共和國外交部《中國關(guān)于加強(qiáng)人工智能倫理治理的立場文件》2022年11月人工智能倫理--PAGE13---PAGE10-人工智能倫理治理標(biāo)準(zhǔn)化指南2人工智能倫理準(zhǔn)則人工智能倫理治理標(biāo)準(zhǔn)化指南2人工智能倫理準(zhǔn)則公眾對(duì)科技發(fā)展持樂觀態(tài)度且保持高位穩(wěn)定狀態(tài),在充分肯定科技給人類帶來好處的同時(shí),越來越關(guān)注技術(shù)所帶來的嚴(yán)重后果和社會(huì)風(fēng)險(xiǎn)?!凹訌?qiáng)科技倫理治理,實(shí)現(xiàn)高水平科技自立自強(qiáng)”的價(jià)值觀是我國人工智能倫理準(zhǔn)則的戰(zhàn)略支撐之一。黨的十九屆五中全會(huì)提出了堅(jiān)持創(chuàng)新在我國現(xiàn)代化建設(shè)全局中的核心地位,把科技自立自強(qiáng)作為國家發(fā)展的戰(zhàn)略支撐。2022年3月20日,中共中央辦公廳、國務(wù)院辦公廳印發(fā)了《關(guān)于加強(qiáng)科技倫理治理的意見》,提出“科技倫理是開展科學(xué)研究、技術(shù)開發(fā)等科技活動(dòng)需要遵循的價(jià)值理念和行為規(guī)范,是促進(jìn)科技事業(yè)健康發(fā)展的重要保障?!?,并明確了五大類科技倫理原則。(一)增進(jìn)人類福祉??萍蓟顒?dòng)應(yīng)堅(jiān)持以人民為中心的發(fā)展思想,有利于促進(jìn)經(jīng)濟(jì)發(fā)展、社會(huì)進(jìn)步、民生改善和生態(tài)環(huán)境保護(hù),不斷增強(qiáng)人民獲得感、幸福感、安全感,促進(jìn)人類社會(huì)和平發(fā)展和可持續(xù)發(fā)展。(二)尊重生命權(quán)利??萍蓟顒?dòng)應(yīng)最大限度避免對(duì)人的生命安全、身體健康、精神和心理健康造成傷害或潛在威脅,尊重人格尊嚴(yán)和個(gè)人隱私,保障科技活動(dòng)參與者的知情權(quán)和選擇權(quán)。使用實(shí)驗(yàn)動(dòng)物應(yīng)符合“減少、替代、優(yōu)化”等要求。(三)堅(jiān)持公平公正??萍蓟顒?dòng)應(yīng)尊重宗教信仰、文化傳統(tǒng)等方面的差異,公平、公正、包容地對(duì)待不同社會(huì)群體,防止歧視和偏見。(四)合理控制風(fēng)險(xiǎn)。科技活動(dòng)應(yīng)客觀評(píng)估和審慎對(duì)待不確定性和技術(shù)應(yīng)用的風(fēng)險(xiǎn),力求規(guī)避、防范可能引發(fā)的風(fēng)險(xiǎn),防止科技成果誤用、濫用,避免危及社會(huì)安全、公共安全、生物安全和生態(tài)安全。(五)保持公開透明。科技活動(dòng)應(yīng)鼓勵(lì)利益相關(guān)方和社會(huì)公眾合理參與,建立涉及重大、敏感倫理問題的科技活動(dòng)披露機(jī)制。公布科技活動(dòng)相2人工智能倫理準(zhǔn)則2人工智能倫理準(zhǔn)則人工智能倫理治理標(biāo)準(zhǔn)化指南人工智能倫理治理標(biāo)準(zhǔn)化指南關(guān)信息時(shí)應(yīng)提高透明度,做到客觀真實(shí)。本部分以《關(guān)于加強(qiáng)科技倫理治理的意見》中的五大類科技倫理原則為基礎(chǔ),總結(jié)歸納目前國內(nèi)外人工智能倫理準(zhǔn)則的關(guān)鍵詞,梳理細(xì)化十類可實(shí)施性較強(qiáng)人工智能倫理準(zhǔn)則,并基于標(biāo)準(zhǔn)化視角拆解、具象化各準(zhǔn)則的要求,為后續(xù)具體標(biāo)準(zhǔn)的研制提供可操作的方向,具體細(xì)分準(zhǔn)則及關(guān)鍵域見表3。表3科技倫理原則對(duì)應(yīng)人工智能倫理準(zhǔn)則人工智能倫理準(zhǔn)則關(guān)鍵域(一)增進(jìn)人類福祉福祉、尊嚴(yán)、自主自由等(2)可持續(xù)性(Sustainability)遠(yuǎn)期人工智能、環(huán)境友好、向善性等(二)尊重生命權(quán)利跨文化交流、協(xié)作等(4)隱私(Privacy)知情與被通知、個(gè)人數(shù)據(jù)權(quán)利、隱私保護(hù)設(shè)計(jì)等(三)堅(jiān)持公平公正(5)公平(Fairness)公正、平等、包容性、合理分配、無偏見與不歧視等(6)共享(Share)數(shù)據(jù)傳遞、平等溝通等(四)合理控制風(fēng)險(xiǎn)網(wǎng)絡(luò)安全、保密、風(fēng)險(xiǎn)控制、物理安全、主動(dòng)防御等(8)內(nèi)部安全(Safety)可控性、魯棒性、可靠性、冗余、穩(wěn)定性等(五)保持公開透明可解釋、可預(yù)測、定期披露和開源、可追溯等(10)可問責(zé)(Accountability)責(zé)任、審查和監(jiān)管等--PAGE13---PAGE12-以人為本(forhuman)在科技活動(dòng)中,“以人為本”可理解為科技活動(dòng)應(yīng)堅(jiān)持以人民為中心的發(fā)展思想。進(jìn)一步聚焦到人工智能領(lǐng)域,“以人為本”的涵義包括:第一,符合人類的價(jià)值觀和倫理道德,尊重人權(quán)和人類根本利益訴求,遵守國家或地區(qū)倫理道德。應(yīng)以保障社會(huì)安全、尊重人類權(quán)益為前提,避免誤用,禁止濫用、惡用;第二,遵循人類共同價(jià)值觀,促進(jìn)人機(jī)和諧,服務(wù)人類文明進(jìn)步,促進(jìn)人類社會(huì)穩(wěn)健發(fā)展。堅(jiān)持公共利益優(yōu)先,推動(dòng)經(jīng)濟(jì)、社會(huì)發(fā)展,不斷增強(qiáng)人民獲得感幸福感,共建人類命運(yùn)共同體。在不同應(yīng)用場景中,“以人為本”涉及不同內(nèi)容,可以歸納為福祉、尊嚴(yán)、自主自由三個(gè)次級(jí)關(guān)鍵詞。(1)福祉(wellbeing)“福祉”可能的應(yīng)用場景包括:醫(yī)療健康。人工智能技術(shù)的設(shè)計(jì)者應(yīng)確保滿足對(duì)明確定義的使用案例或指示的安全性、準(zhǔn)確性和有效性的監(jiān)管要求;以健康需求為核心,提供實(shí)踐中的質(zhì)量控制措施并對(duì)使用人工智能改進(jìn)質(zhì)量提供有效測度。社會(huì)環(huán)境。根據(jù)公平性和預(yù)防損害原則,在整個(gè)人工智能系統(tǒng)的生命周期中,更廣泛的社會(huì)、蕓蕓眾生和環(huán)境也應(yīng)被視為利益相關(guān)者,應(yīng)鼓勵(lì)人工智能系統(tǒng)的可持續(xù)性和生態(tài)責(zé)任。在理想情況下,人工智能系統(tǒng)應(yīng)用于使所有人類(包括)后代受益。教育。教育人工智能的設(shè)計(jì)、開發(fā)和應(yīng)用應(yīng)當(dāng)為教育活動(dòng)的所有利益相關(guān)者帶來福利,以實(shí)現(xiàn)所有教育教學(xué)活動(dòng)相關(guān)人員的教育利益最大化為目標(biāo)。(2)尊嚴(yán)(dignity)“尊嚴(yán)”可能的應(yīng)用場景有:教育。人工智能的發(fā)展應(yīng)維護(hù)兒童的尊嚴(yán),重視并尊重兒童自身的思想、意愿、情感、興趣愛好、自尊心等,避免對(duì)兒童的人格尊嚴(yán)造成傷害。居家養(yǎng)老。人工智能應(yīng)在發(fā)揮輔助居家養(yǎng)老功能時(shí),保障居家老人的自主意愿,維護(hù)其人格與尊嚴(yán),避免加劇老年人自卑感、無力感與孤獨(dú)感。智能機(jī)器人。人類尊嚴(yán)以社會(huì)關(guān)系為特征,要求用戶明確是否以及何時(shí)與機(jī)器或另一個(gè)人交往,因此在智能機(jī)器人的使用過程中,必須保留將某些任務(wù)交給人類或機(jī)器的選擇權(quán)利。(3)自主自由(autonomyandfreedom)“自主自由”可能的應(yīng)用場景包括:醫(yī)療健康。人類自身應(yīng)確保繼續(xù)掌控醫(yī)療決策過程和對(duì)醫(yī)療系統(tǒng)的控制,自行選擇人工智能介入治療的方式和程度。教育。教育人工智能在給學(xué)習(xí)者提供認(rèn)知支架和智能化教學(xué)支持服務(wù)的同時(shí),應(yīng)當(dāng)保留學(xué)習(xí)者根據(jù)自身需要和個(gè)性特征做出選擇的權(quán)利,而不是代替學(xué)生做出選擇,即給予學(xué)生充分的自主選擇權(quán),而不是將其作為某種目標(biāo)對(duì)象來對(duì)待。司法。自由自主原則即“在用戶控制下”的原則,要求除特殊規(guī)定外,必須確保用戶是知情的行動(dòng)者,并能夠自主做出選擇。“可持續(xù)性”的基本涵義為一種可以長久維持的過程或狀態(tài)??沙掷m(xù)性指人們?cè)跐M足人類需求與未來發(fā)展時(shí),在資源開發(fā)、技術(shù)發(fā)展和制度變革中保持環(huán)境平衡與和諧的過程,也指生態(tài)和社會(huì)關(guān)系中能夠保持的一定的過程或某種可接受的狀態(tài)。在不同人工智能倫理準(zhǔn)則中,“可持續(xù)性”的內(nèi)涵包括:第一,人工智能的設(shè)計(jì)和發(fā)展應(yīng)該是為了促進(jìn)社會(huì)和人類文明的進(jìn)步,促進(jìn)自然和社會(huì)的可持續(xù)性,使全人類和環(huán)境受益,提高社會(huì)和生態(tài)的福祉;第二,人工智能系統(tǒng)的目標(biāo)應(yīng)該被清楚地確定和證明。理想情況下,人工智能系統(tǒng)應(yīng)該被用來造福全人類,包括后代;第三,幫助人工智能在全社會(huì)領(lǐng)域發(fā)展,讓人工智能可以全方位立體性地滲透人們的生活,讓每個(gè)人都可以享受人工智能帶來的發(fā)展成果。在不同應(yīng)用場景中,“可持續(xù)性”涉及不同內(nèi)容,包括遠(yuǎn)期人工智能、環(huán)境友好、向善性等。遠(yuǎn)期人工智能(longtermAI)未來十年是人工智能產(chǎn)業(yè)發(fā)展的重要時(shí)期,遠(yuǎn)期人工智能技術(shù)的發(fā)展路徑將會(huì)沿著算法、算力兩條主線向前發(fā)展,并逐步帶領(lǐng)人類進(jìn)入到人機(jī)協(xié)同時(shí)代。發(fā)展人工智能的最終目標(biāo)不是要替代人類智能,而是要與人類智能形成互補(bǔ),使得人類從繁重的重復(fù)性工作中解放出來,從而專注于推動(dòng)人類自身文明進(jìn)步。人工智能的發(fā)展關(guān)系到整個(gè)社會(huì)、全人類和環(huán)境的未來,因此在人工智能的研究、開發(fā)、使用、治理和長期規(guī)劃中,應(yīng)呼吁其健康發(fā)展,以支持建設(shè)一個(gè)擁有共同未來的人類社會(huì),并實(shí)現(xiàn)有益于人類和自然的人工智能。環(huán)境友好(environmentfriendly)人工智能可以從多個(gè)方面對(duì)環(huán)境產(chǎn)生積極影響,到2030年,人工智能在環(huán)境方面的應(yīng)用能夠產(chǎn)生約5.2萬億美元的價(jià)值。人工智能可以幫助減少人工成本,進(jìn)行精準(zhǔn)調(diào)控,有效降低生產(chǎn)風(fēng)險(xiǎn),降低對(duì)環(huán)境的有害影響,實(shí)現(xiàn)可持續(xù)性的發(fā)展目標(biāo)。例如,人工智能技術(shù)可以將生活生產(chǎn)有關(guān)的設(shè)施集成,構(gòu)建高效的設(shè)施設(shè)備、人員、資源的管理系統(tǒng),實(shí)現(xiàn)遠(yuǎn)程控制設(shè)備、設(shè)備間互聯(lián)互通、設(shè)備自我學(xué)習(xí)等功能,通過收集、分析用戶行為數(shù)據(jù),為用戶提供個(gè)性化服務(wù)的同時(shí),綜合管理水電等資源,實(shí)現(xiàn)環(huán)保節(jié)能的環(huán)境。向善性(preventionofharm)在全生命周期中,人工智能系統(tǒng)的相應(yīng)預(yù)測結(jié)果或行為應(yīng)不超出實(shí)現(xiàn)合法目的或目標(biāo)所需的范圍,不得對(duì)人類、個(gè)別社區(qū)和整個(gè)社會(huì)造成損害。人工智能系統(tǒng)在數(shù)據(jù)、算法、應(yīng)用管理三個(gè)層面均應(yīng)考慮向善性的因素。數(shù)據(jù)層面的向善性聚焦對(duì)于數(shù)據(jù)處理活動(dòng)的管理和治理,降低由于數(shù)據(jù)安全以及質(zhì)量問題導(dǎo)致算法決策失誤、偏見和惡意,以及考慮解決數(shù)據(jù)泄露而導(dǎo)致的個(gè)人隱私問題。算法層面的向善性要求從設(shè)計(jì)開發(fā)階段就應(yīng)該考慮算法決策的是否會(huì)存在對(duì)人、社會(huì)層面的潛在危害,并在系統(tǒng)立項(xiàng)階段就需要針對(duì)算法安全進(jìn)行評(píng)估。應(yīng)用層面的向善性更多側(cè)重在算法用戶是否科學(xué)、合理、適度的使用人工智能系統(tǒng),從而降低由于錯(cuò)用、誤用、濫用等使用問題導(dǎo)致的偏見歧視、人身傷害等問題的發(fā)生。合作(collaboration)“合作”的基本涵義為互相配合做某事或共同完成某項(xiàng)任務(wù)。在人工智能倫理領(lǐng)域,建立跨文化互信是全球和諧發(fā)展的基石,實(shí)現(xiàn)人工智能對(duì)全球有益需在人工智能倫理標(biāo)準(zhǔn)與治理的諸多相關(guān)領(lǐng)域達(dá)成國際合作。因此,人工智能應(yīng)“重視開放協(xié)作,鼓勵(lì)跨學(xué)科、跨領(lǐng)域、跨地區(qū)、跨國界的交流合作……在充分尊重各國人工智能治理原則和實(shí)踐的前提下,推動(dòng)形成具有廣泛共識(shí)的國際人工智能治理框架和標(biāo)準(zhǔn)規(guī)范?!保?)跨文化交流(cross-culturalcommunication)來自不同文化背景或國家的團(tuán)體協(xié)力合作,確保人工智能技術(shù)的發(fā)展、應(yīng)用、治理能夠造福社會(huì)??缥幕涣鲗?duì)于實(shí)現(xiàn)相關(guān)的倫理及治理舉措至關(guān)重要??缥幕芯亢献髋c交流有助于化解合作障礙、增進(jìn)不同觀點(diǎn)和共同目標(biāo)的理解與信任。具體事例包括但不限于:工智能系統(tǒng);平等汲取多樣的國際視角;邀請(qǐng)各國利益相關(guān)者參與制定實(shí)踐準(zhǔn)則、標(biāo)準(zhǔn)及法規(guī)等。人工智能倫理與治理關(guān)乎全球人工智能發(fā)展與創(chuàng)新的方向與未來,跨文化交流重點(diǎn)在于厘清需要國際準(zhǔn)則或協(xié)定進(jìn)行規(guī)范的問題,或者確定需要突出文化差異的情況。為建立更牢固的跨文化信任,要正確認(rèn)知、消除誤解,增進(jìn)不同文化與國家之間的互相理解,更好地推動(dòng)相關(guān)原則、政策、標(biāo)準(zhǔn)、法律的制定、技術(shù)與社會(huì)落地。(2)協(xié)作(cooperation)人工智能的數(shù)字鴻溝問題指新技術(shù)和能力的掌握者在生產(chǎn)力、生活水平、文化教育等多個(gè)方面與其它群體顯著拉開差距,嚴(yán)重情況下造成社會(huì)或國家間的兩極分化。因此,人工智能技術(shù)先進(jìn)國家應(yīng)以當(dāng)?shù)卣Z言開發(fā)人工智能倫理教育的在線課程和數(shù)字資源,并考慮到環(huán)境多樣性,特別要確保采用殘障人士可以使用的格式,促進(jìn)人工智能技術(shù)技能教育與人工智能教育的人文、倫理和社會(huì)方面的交叉協(xié)作。應(yīng)鼓勵(lì)在人工智能領(lǐng)域開展國際合作與協(xié)作,以彌合地緣技術(shù)差距,填平“數(shù)字鴻溝”。應(yīng)在充分尊重國際法的前提下,與其民眾之間、公共和私營部門之間以及技術(shù)上最先進(jìn)和最落后的國家之間,開展技術(shù)交流和磋商。隱私(privacy)“隱私”的基本涵義指的是自然人的私人生活安寧和不愿為他人知曉的私密空間、私密活動(dòng)、私密信息。保護(hù)隱私具有維護(hù)人格尊嚴(yán)、維護(hù)個(gè)人安寧、提高個(gè)人安全感和保護(hù)個(gè)人自由等作用。人工智能倫理準(zhǔn)則中涉及隱私的條款包括:知情權(quán)和選擇權(quán)。在個(gè)人信息的收集、存儲(chǔ)、處理、使用等各環(huán)節(jié)應(yīng)設(shè)置邊界,建立規(guī)范。完善個(gè)人數(shù)據(jù)授權(quán)撤銷機(jī)制,反對(duì)任何竊取、篡改、泄露和其他非法收集利用個(gè)人信息的行為。正當(dāng)、必要和誠信原則處理個(gè)人信息,保障個(gè)人隱私與數(shù)據(jù)安全,不得損害個(gè)人合法數(shù)據(jù)權(quán)益,不得以竊取、篡改、泄露等方式非法收集利用個(gè)人信息,不得侵害個(gè)人隱私權(quán)。在人工智能倫理中,“隱私”這一重要的關(guān)鍵詞,還涵括以下內(nèi)容:知情和被通知(informedandnoti?ed)在全球個(gè)人信息保護(hù)制度中,“知情同意”原則一直是基礎(chǔ)性制度,也是人機(jī)交互的核心問題?!巴ㄖ屯狻笔枪叫畔T例(FIPs)的關(guān)鍵組成部分,是20世紀(jì)末為應(yīng)對(duì)信息日益數(shù)字化而制定的一套原則。越來越多的國家或地區(qū)通過立法建立數(shù)據(jù)保護(hù)和隱私制度,核心是為合法收集和處理有關(guān)個(gè)人的數(shù)據(jù)提供法律依據(jù),強(qiáng)調(diào)個(gè)人對(duì)信息的控制和數(shù)據(jù)處理的程序保障,而不是對(duì)做法的實(shí)質(zhì)性禁止。在線隱私和信息共享影響著人類生活的方方面面,“同意”概念和征求同意的機(jī)制反映出現(xiàn)有機(jī)制忽視倫理和規(guī)范價(jià)值問題?,F(xiàn)有的“知情同意”或“通知同意”機(jī)制面臨著保護(hù)人權(quán)的挑戰(zhàn)。理想的解決方案既應(yīng)最大程度地訪問數(shù)據(jù),又應(yīng)保護(hù)每個(gè)人控制隱私和數(shù)據(jù)使用透明性的權(quán)利,保留所有人撤銷同意訪問的權(quán)力。個(gè)人數(shù)據(jù)權(quán)利(personaldatarights)個(gè)人數(shù)據(jù)權(quán)利包括獲得數(shù)據(jù)和掌控?cái)?shù)據(jù)的權(quán)利。獲得數(shù)據(jù)的權(quán)利是指人們可以通過合法方式、途徑或渠道,無障礙獲取各種信息的能力,包括主動(dòng)獲取信息與被動(dòng)接收信息的利益;這一權(quán)利的實(shí)現(xiàn),前提在于獲取信息的方式、途徑或渠道必須符合法律規(guī)定,任何偏離法律的信息獲取,或是通過非法手段獲得的信息,都不屬于人們正常享有的獲得信息的權(quán)利。同時(shí),個(gè)人享有對(duì)于其個(gè)人數(shù)據(jù)的權(quán)利,并有權(quán)獲得適當(dāng)程度的保護(hù),使得個(gè)人可以掌控其個(gè)人數(shù)據(jù)。個(gè)人對(duì)其個(gè)人數(shù)據(jù)的權(quán)利包括知情權(quán)、同意權(quán)(決定權(quán))、查閱權(quán)、刪除權(quán)、可攜帶權(quán)、更正權(quán)、補(bǔ)充權(quán)等。隱私保護(hù)設(shè)計(jì)(privacyprotectiondesign)人工智能算法基于個(gè)人數(shù)據(jù)描繪用戶畫像,基于特定畫像類型進(jìn)行相關(guān)內(nèi)容、產(chǎn)品或服務(wù)的匹配。人工智能獲取個(gè)人數(shù)據(jù)并進(jìn)行處理,從而做出與數(shù)據(jù)主體高度匹配的決策。因此,需要限制人工智能處理個(gè)人數(shù)據(jù)的能力,防止人工智能決策損害人的合法權(quán)益,通過對(duì)決策所需個(gè)人數(shù)據(jù)收集和處理的規(guī)制,或者是對(duì)算法公開化、透明化、可解釋性等方式的規(guī)制,限制人工智能對(duì)個(gè)人數(shù)據(jù)不合理、不合法和不必要的處理。確定隱私設(shè)計(jì)原則被認(rèn)為是最好的選擇,主要包括七大原則:積極預(yù)防,而非被動(dòng)救濟(jì);隱私默認(rèn)保護(hù);將隱私嵌入設(shè)計(jì)之中,使其成為系統(tǒng)的核心組成部分同時(shí)又不損害系統(tǒng)的功能;功能完整——正合而非零和,主張實(shí)現(xiàn)用戶、企業(yè)等多方共贏;全生命周期保護(hù),主張為用戶隱私提供從搖籃到墳?zāi)谷^程保護(hù);可見性和透明性;尊重用戶隱私,確保以用戶為中心。公平(fairness)“公平”概念有著極為豐富的內(nèi)涵,是社會(huì)建構(gòu)、蓬勃發(fā)展的基礎(chǔ)要素。從基本含義看,公平指處理事情合情合理,不偏袒哪一方。在社會(huì)生活中,認(rèn)識(shí)和評(píng)價(jià)是否公平往往具有明顯的主觀色彩,人們?nèi)菀讖奶囟龊湍康某霭l(fā),選擇不同的標(biāo)準(zhǔn)和尺度進(jìn)行評(píng)判。人工智能活動(dòng)至少應(yīng)確保在平等主體的交往中各方充分交流、相互知情,在共識(shí)機(jī)制下,分享人工智能帶來的益處,合理分配風(fēng)險(xiǎn);在社會(huì)組織中,為所有人提供同等、沒有偏頗的機(jī)會(huì),以及合理分配社會(huì)資源和利益;在集體、民族國家的交往中,確保各方共享人工智能技術(shù)紅利,并尊重不同的文化與習(xí)俗。典型的公平問題包括大數(shù)據(jù)殺熟、算法黑箱、加劇認(rèn)知繭房等對(duì)用戶利益進(jìn)行侵害的行為。公平作為人工智能倫理準(zhǔn)則的一個(gè)重要關(guān)鍵詞,具體涵義同以下關(guān)鍵詞密切關(guān)聯(lián):公正(justice)“公正”指通過公平合理的利益(權(quán)利、權(quán)力、財(cái)富、機(jī)會(huì)等)分配使每一個(gè)成員得其所應(yīng)得。公正是一種價(jià)值要求,要求分配的公平性與合理性。在人工智能領(lǐng)域,公正也往往涉及社會(huì)層面的資源分配,以及對(duì)社會(huì)不良現(xiàn)象的正義的懲罰,對(duì)受害者適當(dāng)?shù)谋Wo(hù)。公正的可能應(yīng)用場景包括:社會(huì)執(zhí)法、司法裁判、政務(wù)服務(wù)、社會(huì)有限資源的合理分配。平等(equality)在社會(huì)的組織過程中,存在諸多利益分配關(guān)系的對(duì)等。人工智能活動(dòng)下的平等更多強(qiáng)調(diào)在社會(huì)資源、利益分配方面的機(jī)會(huì)均等,或不同主體間應(yīng)當(dāng)存在的對(duì)等關(guān)系。如保證社會(huì)各類主體獲得教育、物資、工作、技術(shù)等與其發(fā)展息息相關(guān)的機(jī)會(huì)均等,保證不同背景的群體都可以按其習(xí)慣或舒適的方式使用公共的人工智能服務(wù)。包容性(inclusion)“包容性”多針對(duì)技術(shù)應(yīng)用階段,指技術(shù)開發(fā)或服務(wù)提供者在給終端用戶提供包含人工智能能力的服務(wù)時(shí),需要確保人工智能技術(shù)的惠益人人可得可及,同時(shí)也要考慮不同年齡、不同文化體系、不同語言群體、殘障人士、女童和婦女以及處境不利、邊緣化和弱勢群體或處境脆弱群體的具體需求。合理分配(reasonabledistribution)人工智能應(yīng)用于社會(huì)時(shí),會(huì)與不同形式的社會(huì)公平問題產(chǎn)生聯(lián)系。人工智能應(yīng)確保平等且正義地分配社會(huì)利益和損失,促進(jìn)社會(huì)有限資源的合理分配,避免“數(shù)字鴻溝”,包括教育、醫(yī)療、應(yīng)急、生活物資等;確保社會(huì)個(gè)體或群體不受到偏見、歧視、污名化,確保技術(shù)成果和帶來的福利人人可享受。人工智能系統(tǒng)的使用不應(yīng)讓人們受到欺騙或不合理的損害,而應(yīng)保障其自主決策權(quán)利。此外,公平也意味著人工智能從業(yè)者應(yīng)遵守手段和目的的比例原則,審慎思考如何平衡利益和目的,即當(dāng)有多種方法可以實(shí)現(xiàn)特定目的時(shí),應(yīng)考慮選擇對(duì)基本人權(quán)和倫理規(guī)范產(chǎn)生負(fù)面影響最小的方案。無偏見與不歧視(unbiasandnon-discrimination)人工智能系統(tǒng)本身或?qū)ζ涞膽?yīng)用可能因存在偏差或受到社會(huì)偏見影響,而引發(fā)或激化社會(huì)偏見,進(jìn)而導(dǎo)致歧視行為。導(dǎo)致人工智能系統(tǒng)存在偏差的因素包括模型數(shù)據(jù)訓(xùn)練、模型結(jié)構(gòu)設(shè)計(jì)、系統(tǒng)開發(fā)等。而導(dǎo)致系統(tǒng)應(yīng)用存在偏差或偏見的因素較為復(fù)雜,多與使用者對(duì)系統(tǒng)的理解,以及其固有的社會(huì)偏見認(rèn)知相關(guān)。共享(share)“共享”即分享,基本涵義是將一件物品或者信息的使用權(quán)或知情權(quán)與其他人共同擁有,有時(shí)也包括產(chǎn)權(quán)。在人工智能倫理領(lǐng)域,共享作為常見關(guān)鍵詞之一,涵義包括:小區(qū)域差距;應(yīng)促進(jìn)包容發(fā)展,加強(qiáng)人工智能教育及科普,提升弱勢群體適應(yīng)性,努力消除數(shù)字鴻溝;應(yīng)促進(jìn)共享發(fā)展,避免數(shù)據(jù)與平臺(tái)壟斷,鼓勵(lì)開放有序競爭。以自由、開放和共享為內(nèi)核的共享倫理,其為一種超越物倫理的信息倫理,即以自由、開放和共享為內(nèi)核的共享倫理。在人工智能的具體應(yīng)用場景中,共享除基本含義外還應(yīng)當(dāng)包括平等。(1)數(shù)據(jù)傳遞(datatransmission)隨著對(duì)數(shù)據(jù)安全的重視和隱私保護(hù)法案的出臺(tái),曾經(jīng)粗放式的數(shù)據(jù)共享受到挑戰(zhàn),各個(gè)數(shù)據(jù)擁有者重新回到數(shù)據(jù)孤島的狀態(tài)。同時(shí),互聯(lián)網(wǎng)公司更難以收集和利用用戶的隱私數(shù)據(jù),數(shù)據(jù)孤島成為常態(tài)。實(shí)現(xiàn)數(shù)據(jù)的更充分利用,需要在滿足隱私保護(hù)和數(shù)據(jù)安全的前提下,在不同組織、公司與用戶之間進(jìn)行數(shù)據(jù)共享。共享智能是希望在多方參與且各數(shù)據(jù)提供方與平臺(tái)方互不信任的場景下,能夠聚合多方信息進(jìn)行分析和機(jī)器學(xué)習(xí),并確保各參與方的隱私不被泄露,信息不被濫用。鼓勵(lì)算力平臺(tái)、共性技術(shù)平臺(tái)、行業(yè)訓(xùn)練數(shù)據(jù)集、仿真訓(xùn)練平臺(tái)等人工智能基礎(chǔ)設(shè)施資源開放共享,為人工智能企業(yè)開展場景創(chuàng)新提供算力、算法資源。鼓勵(lì)地方通過共享開放、服務(wù)購買、創(chuàng)新券等方式,降低人工智能企業(yè)基礎(chǔ)設(shè)施使用成本,提升人工智能場景創(chuàng)新的算力支撐。以物聯(lián)網(wǎng)為基礎(chǔ),通過物聯(lián)化、互聯(lián)化、智能化的方式,綜合無線傳感技術(shù)、自動(dòng)控制技術(shù)、網(wǎng)絡(luò)技術(shù)和數(shù)據(jù)庫技術(shù)實(shí)現(xiàn)現(xiàn)代化、智能化、共享化管理。以大數(shù)據(jù)智能為基礎(chǔ),需要解決數(shù)據(jù)碎片化的問題,實(shí)現(xiàn)從數(shù)據(jù)到知識(shí),從知識(shí)到智能的跨躍,打穿數(shù)據(jù)孤島,建立鏈接個(gè)人和機(jī)構(gòu)的跨領(lǐng)域知識(shí)中心,形成開放式、互聯(lián)互通的信息共享機(jī)制。為實(shí)現(xiàn)數(shù)據(jù)的有效共享,建議構(gòu)建開放共享的領(lǐng)域大數(shù)據(jù)云平臺(tái)。對(duì)各級(jí)機(jī)構(gòu)、各種信息數(shù)據(jù)源的信息進(jìn)行統(tǒng)一管理,實(shí)現(xiàn)對(duì)個(gè)體數(shù)據(jù)的高度整合。另一方面,在現(xiàn)有信息化平臺(tái)的基礎(chǔ)上進(jìn)行標(biāo)準(zhǔn)化改良,統(tǒng)一數(shù)據(jù)格式和描述規(guī)范,實(shí)現(xiàn)不同機(jī)構(gòu)、不同來源信息存儲(chǔ)與表達(dá)的規(guī)范化。利用標(biāo)準(zhǔn)化信息接口串聯(lián)各機(jī)構(gòu)數(shù)據(jù),優(yōu)化信息管理結(jié)構(gòu),實(shí)現(xiàn)信息系統(tǒng)的實(shí)時(shí)、同步更新,實(shí)現(xiàn)各級(jí)、各機(jī)構(gòu)間的信息共享網(wǎng)絡(luò)。(2)平等溝通(equallydiscussion)“平等”原則一般出現(xiàn)在人工智能招聘、選拔等對(duì)人的篩選活動(dòng)中。人工智能招聘工具不僅可以幫助企業(yè)更加快速地對(duì)大量應(yīng)聘者進(jìn)行初步篩選,節(jié)省人力資源工作者的時(shí)間。然而,人工智能招聘工具在獲得廣泛信任之前面臨的最大障礙之一是缺乏公共數(shù)據(jù)。一方面,機(jī)器學(xué)習(xí)的數(shù)據(jù)是非公開的,人們無法確認(rèn)提高招聘中算法公平性的努力是否真的有效。另一方面,一旦使用人工智能工具歧視某些群體被證明,公司可能會(huì)面臨嚴(yán)重的法律后果。另外,由于目前人工智能算法可解釋性較低,當(dāng)歧義出現(xiàn)時(shí),無法合理向落選者給出原因。人們?cè)诮?jīng)濟(jì)、政治、文化等方面處于同等的地位,享有相同的權(quán)利,考慮平等就業(yè)的重要性,因此,在招聘過程中,以及在可能影響勞動(dòng)權(quán)利、消費(fèi)者權(quán)利的場景下使用人工智能應(yīng)用將始終被認(rèn)定為“高風(fēng)險(xiǎn)”。需要給予人工智能算法受用者一個(gè)人與人之間平等溝通的機(jī)會(huì),確保人的意志被充分傳達(dá)。外部安全(security)“主動(dòng)安全”的基本涵義是信息系統(tǒng)不受來自系統(tǒng)外部的自然災(zāi)害和人為的破壞,防止非法使用者對(duì)系統(tǒng)資源,特別是信息的非法使用的特性。在人工智能倫理中,安保在不同人工智能倫理準(zhǔn)則中的具體涵義有:1.在人工智能系統(tǒng)的整個(gè)生命周期內(nèi),應(yīng)避免并解決、預(yù)防和消除意外傷害以及易受攻擊的脆弱性,確保人類、環(huán)境和生態(tài)系統(tǒng)的安全。人工智能系統(tǒng)的主動(dòng)安全準(zhǔn)則主要側(cè)重在人工智能系統(tǒng)的性能表現(xiàn)和抵抗外部惡意攻擊的能力,該能力與人工智能可控性與可問責(zé)性相關(guān),增強(qiáng)人工智能系統(tǒng)的可控性和可問責(zé)性可以有效提升系統(tǒng)的安全性。增強(qiáng)安全透明。在算法設(shè)計(jì)、實(shí)現(xiàn)、應(yīng)用等環(huán)節(jié),提升透明性、可解釋性、可理解性、可靠性、可控性,增強(qiáng)人工智能系統(tǒng)的韌性、自適應(yīng)性和抗干擾能力,逐步實(shí)現(xiàn)可驗(yàn)證、可審核、可監(jiān)督、可追溯、可預(yù)測、可信賴?!爸鲃?dòng)安全”在不同應(yīng)用場景中還包括:網(wǎng)絡(luò)安全(cybersecurity)網(wǎng)絡(luò)安全可能出現(xiàn)在對(duì)抗機(jī)器學(xué)習(xí)(adversarialmachinelearning)這一應(yīng)用場景中,例如:數(shù)據(jù)投毒,即破壞訓(xùn)練數(shù)據(jù)完整性、保密性、可用性;或者是對(duì)抗樣本攻擊,即通過物理世界或數(shù)字世界對(duì)模型進(jìn)行攻擊,降低模型性能。對(duì)應(yīng)的網(wǎng)絡(luò)安全防范措施為對(duì)抗訓(xùn)練,可以有效削弱數(shù)據(jù)集中下毒攻擊和對(duì)抗樣本攻擊的負(fù)面影響。保密(con?dential)在人工智能數(shù)據(jù)全生命周期中,數(shù)據(jù)采集、數(shù)據(jù)預(yù)處理(數(shù)據(jù)脫敏、數(shù)據(jù)標(biāo)注)、模型訓(xùn)練、模型部署、模型推理等環(huán)節(jié)存在數(shù)據(jù)安全問題,可能導(dǎo)致個(gè)人信息泄露。因此,保密性在人工智能數(shù)據(jù)全生命周期中都值得關(guān)注。風(fēng)險(xiǎn)控制(riskcontrol)風(fēng)險(xiǎn)控制存在于人工智能模型研發(fā)全流程。在設(shè)計(jì)階段需要考慮設(shè)計(jì)需求、風(fēng)險(xiǎn)管理、算法安全與數(shù)據(jù)安全,進(jìn)行算法安全評(píng)估、個(gè)人信息安全影響評(píng)估以及風(fēng)險(xiǎn)評(píng)估。在人工智能模型研發(fā)全流程中,對(duì)算法、數(shù)據(jù)等內(nèi)容需要從保密性、完整性、可用性、穩(wěn)健性、隱私性等原則進(jìn)行風(fēng)險(xiǎn)識(shí)別、風(fēng)險(xiǎn)分析,并進(jìn)行風(fēng)險(xiǎn)評(píng)估,最后給出風(fēng)險(xiǎn)控制措施。物理安全(physicalsecurity)物理安全包括人工智能系統(tǒng)相關(guān)硬件安全,以及涉及硬件層與相關(guān)應(yīng)用使能層的安全模塊,如通信加解密、存儲(chǔ)加密、攻擊檢測、鑒權(quán)管理、密鑰管理、硬件根密鑰、可信執(zhí)行環(huán)境、安全審計(jì)等。物理安全主要針對(duì)人工智能系統(tǒng)、計(jì)算設(shè)備等硬件。主動(dòng)防御(activedefense)主動(dòng)防御過程包括確認(rèn)(validation)、驗(yàn)證(verification)和測試(test)三方面。確認(rèn)主要針對(duì)機(jī)器的運(yùn)行行為進(jìn)行確認(rèn),以確保其符合用戶的需求。驗(yàn)證針對(duì)機(jī)器的軟硬件實(shí)現(xiàn)進(jìn)行驗(yàn)證,以確保其符合預(yù)先定義的規(guī)范,同時(shí)這一規(guī)范又是人所定義的。測試針對(duì)機(jī)器的運(yùn)行過程及結(jié)果進(jìn)行測試,以保證其符合測試者預(yù)先定義的目標(biāo)。內(nèi)部安全(safety)安全的基本涵義是平安無損害,不受危險(xiǎn)或損害的。根據(jù)ISO/IECTR154431:2012:總攬和框架》對(duì)安全進(jìn)行定義,“安全”是指對(duì)某一系統(tǒng),據(jù)以獲得保密性、完整性、可用性、可核查性、真實(shí)性以及可靠性的性質(zhì)。在不同人工智能倫理準(zhǔn)則中,“安全”一詞被頻繁提及,具體可以分為以下幾點(diǎn):可控性(controllability)安全準(zhǔn)則下的可控性,又可稱為人類控制或技術(shù)的人為控制。最基本的要求是確保人工智能永遠(yuǎn)處于人類控制之下,在此基礎(chǔ)上,要求個(gè)人(專家,員工,業(yè)務(wù)人員)的判斷,融入人工智能系統(tǒng)流程中去,即人在環(huán)路(human-in-the-loop)。魯棒性(robustness)魯棒性指的是在機(jī)器遇到故障或干擾的情況下,保持其功能在一定程度上的穩(wěn)定性。在特定干擾或故障下可接受的魯棒性的指標(biāo)需要人為設(shè)定。魯棒性應(yīng)以準(zhǔn)確性為前提,即機(jī)器可接受的準(zhǔn)確性指標(biāo)需要人為設(shè)定??煽啃裕╮eliability)可靠性主要指機(jī)器需要與其預(yù)設(shè)目標(biāo)一致地運(yùn)行,當(dāng)遇到嚴(yán)重問題時(shí),機(jī)器自身或者機(jī)器與人的交互需要確保具有退路(fallback)方案??煽啃赃€包括韌性(resilience),即人工智能系統(tǒng)應(yīng)具備一定的抵抗惡意攻擊脆弱性的能力,包括數(shù)據(jù)投毒和模型參數(shù)竊取等攻擊方式。冗余(redundancy)在人工智能系統(tǒng)全業(yè)務(wù)場景的應(yīng)用中,冗余包括設(shè)備冗余、系統(tǒng)冗余、體系冗余。所謂冗余,即從安全角度考慮額外的數(shù)量,如通過多重備份來增加系統(tǒng)的可靠性,或者在傳輸信息時(shí),借助于信息的重復(fù)和信息的累加使對(duì)方能夠得到明確的信息,以避免遭受信道(channel)和噪聲的干擾。只有在人到機(jī)的全體系都做到冗余,才能盡量降低安全風(fēng)險(xiǎn)。穩(wěn)定性(stability)人工智能系統(tǒng)的穩(wěn)定性,主要包括四個(gè)方面:第一,狀態(tài)一致性,即輸入輸出的關(guān)聯(lián)性;第二,人的穩(wěn)定性,如體系、團(tuán)隊(duì)的穩(wěn)定;第三,機(jī)器自身的穩(wěn)定性,如軟硬件、系統(tǒng)、代碼的穩(wěn)定;第四,人與機(jī)器交互的穩(wěn)定性,如接口穩(wěn)定、人機(jī)交互的穩(wěn)定。透明(transparency)在人工智能倫理領(lǐng)域,人工智能的透明性是指在不傷害人工智能算法所有者利益的情況下,公開其人工智能系統(tǒng)中使用的源代碼和數(shù)據(jù),避免“技術(shù)黑箱”。透明度要求在因知識(shí)產(chǎn)權(quán)等問題而不能完全公開算法代碼的情況下,應(yīng)當(dāng)適當(dāng)公開算法的操作規(guī)則、創(chuàng)建、驗(yàn)證過程,或者適當(dāng)公開算法過程、后續(xù)實(shí)現(xiàn)、驗(yàn)證目標(biāo)的適當(dāng)記錄。透明度的目的是為相關(guān)對(duì)象提供適當(dāng)?shù)男畔ⅲ员闼麄兝斫夂驮鲞M(jìn)信任。具體到人工智能系統(tǒng),透明度可以幫助人們了解人工智能系統(tǒng)各個(gè)階段是如何按照該系統(tǒng)的具體環(huán)境和敏感度設(shè)定的。透明度還包括深入了解可以影響特定預(yù)測或決定的因素,以及了解是否具備適當(dāng)?shù)谋WC。透明原則在以下三種應(yīng)用場景中尤其值得關(guān)注:(1)無法解釋的算法;(2)訓(xùn)練的數(shù)據(jù)集透明度不足;訓(xùn)練數(shù)據(jù)選擇方法的透明度不足。在不同應(yīng)用場景中,透明原則具有不同內(nèi)容:可解釋(explainable)端到端的深度學(xué)習(xí),一個(gè)廣為詬病的問題是其不透明性或不可解釋性。隨著神經(jīng)網(wǎng)絡(luò)模型越來越復(fù)雜,在準(zhǔn)確性越來越高的同時(shí),我們不得不在模型的準(zhǔn)確性和可解釋性之間做出妥協(xié),兩者常難以兼顧。結(jié)果是,有時(shí)候研究人員做出一個(gè)行之有效的模型,卻并不能完全理解其中的緣由。因此,即便得到的結(jié)論是正確的,也將因?yàn)椴恢澜Y(jié)論的推導(dǎo)過程而失去其作用。可預(yù)測(predictable)“可預(yù)測性”,一方面要求確保人工智能系統(tǒng)是準(zhǔn)確、可靠且可被重復(fù)試驗(yàn)的,提升人工智能系統(tǒng)決策的準(zhǔn)確率,完善評(píng)估機(jī)制,及時(shí)減少系統(tǒng)錯(cuò)誤預(yù)測帶來的意外風(fēng)險(xiǎn)。另一方面要求嚴(yán)格保護(hù)人工智能系統(tǒng),防止漏洞、黑客惡意攻擊;開發(fā)和測試中最大限度地減少意外的、不可預(yù)測的后果和錯(cuò)誤,在系統(tǒng)出現(xiàn)問題時(shí)可執(zhí)行后備計(jì)劃。定期披露和開源(revealandopen-sourceregularly)披露和開源機(jī)制是人工智能治理的重要組成部分。它通過在被規(guī)制者與規(guī)制受益群體之間建立激勵(lì)機(jī)制,以推動(dòng)人工智能算法開發(fā)者和運(yùn)用者增強(qiáng)自我規(guī)制的能力,從而在市場上獲得更大的份額。政府監(jiān)管部門可以要求人工智能算法企業(yè)和平臺(tái)定期發(fā)布社會(huì)責(zé)任報(bào)告,強(qiáng)制披露風(fēng)險(xiǎn)活動(dòng),公開數(shù)據(jù)處理的目的、數(shù)據(jù)處理者的身份、數(shù)據(jù)接收者等相關(guān)信息。在當(dāng)下發(fā)展中,算法越來越復(fù)雜,決策的影響卻越來越重大,應(yīng)積極鼓勵(lì)人工智能開源活動(dòng)??勺匪荩╰raceable)可追溯即確保人工智能決策的數(shù)據(jù)集、過程和結(jié)果的可追溯性,保證人工智能的決策結(jié)果可被人類理解和追蹤??勺匪菪允侵稳斯ぶ悄茏陨硗该鞫取⒖韶?zé)性、可審計(jì)性的關(guān)鍵質(zhì)量特性,因此在設(shè)計(jì)開發(fā)與驗(yàn)證過程中,應(yīng)考慮數(shù)據(jù)集、算法設(shè)計(jì)、算法需求規(guī)范、源代碼、風(fēng)險(xiǎn)管理、算法測試六大要素及其內(nèi)在關(guān)聯(lián),在運(yùn)行時(shí)考慮使用環(huán)境、數(shù)據(jù)輸入、決策過程、輸出結(jié)論、使用反饋的可追溯,以過程運(yùn)行日志文檔、可視化界面和可追溯性矩陣的形式呈現(xiàn)??蓡栘?zé)(accountability)在人工智能領(lǐng)域,“責(zé)任”指的是人工智能系統(tǒng)應(yīng)該履行對(duì)利益相關(guān)者的責(zé)任和社會(huì)責(zé)任,并且可追責(zé)。責(zé)任原則的具體建議包括采取誠信行為和厘清責(zé)任的歸屬兩方面。誠信行為指作為人工智能研發(fā)者在進(jìn)行人工智能技術(shù)研發(fā)設(shè)計(jì)時(shí)應(yīng)致力于創(chuàng)建高度可靠的人工智能系統(tǒng),減少安全風(fēng)險(xiǎn),不留“后門”;人工智能使用者在使用人工智能技術(shù)時(shí)應(yīng)具有高度的社會(huì)責(zé)任感和自律意識(shí),不利用技術(shù)侵犯他人的合法權(quán)益;人工智能技術(shù)相關(guān)各方應(yīng)嚴(yán)格遵守法律法規(guī)、倫理道德和標(biāo)準(zhǔn)規(guī)范。人工智能技術(shù)不能成為限制責(zé)任的理由,必須明確人工智能情景下的責(zé)任,并根據(jù)因果關(guān)系進(jìn)行規(guī)制。若有人使用人工智能技術(shù)侵害他人合法權(quán)利則需要承擔(dān)相應(yīng)責(zé)任,監(jiān)管部門應(yīng)將人工智能納入各環(huán)節(jié)監(jiān)管,將登記、審批、檢查等方面落實(shí)到位。根據(jù)不同應(yīng)用場景,可問責(zé)性的具體涵義有所側(cè)重:(1)責(zé)任(responsibility)責(zé)任存在于金融、教育、醫(yī)療、健康、體育、文化等眾多場景中,指個(gè)體分內(nèi)應(yīng)做的事,來自職業(yè)要求、道德規(guī)范和法律法規(guī)等,當(dāng)行業(yè)人工智能沒有做好“分內(nèi)”工作時(shí),則應(yīng)承擔(dān)的不利后果或強(qiáng)制性措施。人工智能系統(tǒng)應(yīng)該履行對(duì)利益相關(guān)者的責(zé)任和社會(huì)責(zé)任,并且可追責(zé),不斷評(píng)估和調(diào)參,以促進(jìn)人工智能系統(tǒng)持續(xù)不斷改進(jìn)。責(zé)任還包括人工智能從業(yè)人員和使用人員的認(rèn)識(shí)和素養(yǎng)要求,例如了解人工智能系統(tǒng)的影響和風(fēng)險(xiǎn)等。(2)審查和監(jiān)管(investigationandsupervision)在人工智能使用及問責(zé)過程中,重視監(jiān)督機(jī)構(gòu)的審查和監(jiān)管作用。應(yīng)當(dāng)建立企業(yè)內(nèi)部或者外部的監(jiān)督機(jī)構(gòu),明確人工智能系統(tǒng)相關(guān)方法定責(zé)任和義務(wù),評(píng)估人工智能對(duì)人類權(quán)利的影響,以及對(duì)于技術(shù)負(fù)面影響的評(píng)估。同時(shí)保證人工智能在相同條件或者前提下,行為應(yīng)該有一致性,并對(duì)相應(yīng)的人工智能標(biāo)準(zhǔn)和最佳實(shí)踐進(jìn)行不斷監(jiān)督審視,確保個(gè)人可以對(duì)人工智能的決策進(jìn)行申訴、糾錯(cuò)機(jī)制,強(qiáng)調(diào)對(duì)人工智能的自動(dòng)決策提供補(bǔ)救措施。--PAGE29---PAGE30-2人工智能倫理準(zhǔn)則3人工智能倫理風(fēng)險(xiǎn)分析2人工智能倫理準(zhǔn)則3人工智能倫理風(fēng)險(xiǎn)分析基于人工智能的敏捷治理原則,為促進(jìn)研發(fā)機(jī)構(gòu)和企業(yè)提供市場公眾和政府監(jiān)管等利益相關(guān)方理解、易用、敢用并用好的人工智能技術(shù),本章節(jié)將對(duì)人工智能全生命周期中主要階段的倫理風(fēng)險(xiǎn)進(jìn)行分解分析,提供一個(gè)人工智能倫理風(fēng)險(xiǎn)分析和分類方法,并選取典型場景對(duì)其中的代表性倫理風(fēng)險(xiǎn)進(jìn)行分析。(1)數(shù)據(jù)隨著數(shù)據(jù)采集、機(jī)器學(xué)習(xí)、人工智能等技術(shù)的使用,數(shù)據(jù)集大小呈指數(shù)級(jí)擴(kuò)大,數(shù)據(jù)富含越來越大的價(jià)值,從而也導(dǎo)致個(gè)人信息泄露的情況頻繁發(fā)生。個(gè)人隱私保護(hù)、個(gè)人敏感信息識(shí)別的重要性日益凸現(xiàn)。人工智能技術(shù)需要海量數(shù)據(jù)用于訓(xùn)練算法,帶來了數(shù)據(jù)盜用、信息泄漏等人工智能倫理風(fēng)險(xiǎn)。在人工智能系統(tǒng)開發(fā)過程中,對(duì)數(shù)據(jù)集的代表性差、規(guī)模不清晰、均衡性不足等設(shè)計(jì)問題,易導(dǎo)致數(shù)據(jù)集的公平性受到影響,從而影響算法公平性;數(shù)據(jù)標(biāo)注過程的數(shù)據(jù)泄露等數(shù)據(jù)預(yù)處理安全問題也會(huì)導(dǎo)致個(gè)人信息保護(hù)的問題;缺乏對(duì)數(shù)據(jù)層面的可追溯技術(shù)也會(huì)增加人工智能系統(tǒng)在責(zé)任3人工智能倫理風(fēng)險(xiǎn)分析3人工智能倫理風(fēng)險(xiǎn)分析人工智能倫理治理標(biāo)準(zhǔn)化指南人工智能倫理治理標(biāo)準(zhǔn)化指南認(rèn)定以及問責(zé)風(fēng)險(xiǎn)。表4數(shù)據(jù)層面人工智能倫理風(fēng)險(xiǎn)分析開發(fā)環(huán)節(jié)倫理風(fēng)險(xiǎn)分析倫理風(fēng)險(xiǎn)屬性設(shè)計(jì)開發(fā)數(shù)據(jù)主體采集授權(quán)相關(guān)風(fēng)險(xiǎn)隱私保護(hù)數(shù)據(jù)集的規(guī)模、均衡性等設(shè)計(jì)不足公平性數(shù)據(jù)預(yù)處理、模型訓(xùn)練等環(huán)節(jié)數(shù)據(jù)處理流程安全問題隱私保護(hù)、安全數(shù)據(jù)預(yù)處理的質(zhì)量問題,如數(shù)據(jù)標(biāo)注準(zhǔn)確率不足公平性驗(yàn)證測試模型評(píng)估等環(huán)節(jié)數(shù)據(jù)處理流程安全問題隱私保護(hù)、安全測試數(shù)據(jù)集規(guī)模、均衡性等質(zhì)量問題公平性測試數(shù)據(jù)集與訓(xùn)練數(shù)據(jù)集重復(fù)度高透明及可解釋性部署運(yùn)行模型部署環(huán)節(jié)數(shù)據(jù)處理流程安全問題隱私保護(hù)、安全模型部署時(shí)的數(shù)據(jù)集完整性等質(zhì)量問題安全模型部署時(shí)的數(shù)據(jù)集均衡性不足等質(zhì)量問題公平性模型推理環(huán)節(jié)運(yùn)行數(shù)據(jù)處理流程安全問題隱私保護(hù)、安全模型推理環(huán)節(jié)運(yùn)行數(shù)據(jù)泄露、缺乏對(duì)運(yùn)行數(shù)據(jù)的有效可追溯技術(shù)可問責(zé)性維護(hù)升級(jí)再訓(xùn)練階段數(shù)據(jù)處理流程安全問題隱私保護(hù)、安全退役下線數(shù)據(jù)退役階段數(shù)據(jù)泄露、留存數(shù)據(jù)未刪除隱私保護(hù)(2)算法在人工智能算法層面,主要存在以下3種形式的問題:存在因模型參數(shù)泄露或被惡意修改、容錯(cuò)率與韌性不足造成的算法安全風(fēng)險(xiǎn);因采用復(fù)雜神經(jīng)網(wǎng)絡(luò)的算法導(dǎo)致決策不透明與無法被充分解釋,同時(shí)數(shù)據(jù)的輸入和輸出關(guān)系理解不清晰,可能造成的可解釋性安全風(fēng)險(xiǎn);以及因算法推理結(jié)果的不可預(yù)見性與人類自身的認(rèn)知能力受限,導(dǎo)致無法預(yù)測智能系統(tǒng)做出的決策原因與產(chǎn)生的效果,造成的算法決策偏見。此外,算法在運(yùn)行推理環(huán)節(jié)可能會(huì)被錯(cuò)誤使用或?yàn)E用,如智能推薦算法一旦被不法分子利用,將使虛假信息、涉黃涉恐、違規(guī)言論等不良信息傳播更加具有針對(duì)性和隱蔽性,在擴(kuò)大負(fù)面影響的同時(shí)減少被舉報(bào)的可能。--PAGE31---PAGE32-表5算法層面人工智能倫理風(fēng)險(xiǎn)分析開發(fā)環(huán)節(jié)風(fēng)險(xiǎn)分析倫理風(fēng)險(xiǎn)屬性設(shè)計(jì)開發(fā)算法存在對(duì)特定人群以及性別歧視設(shè)計(jì)公平性算法存在對(duì)個(gè)人和社會(huì)的惡意設(shè)計(jì)、潛在危害向善性、可持續(xù)發(fā)展算法缺乏安全、可控性設(shè)計(jì)安全、監(jiān)督和決策模型訓(xùn)練環(huán)節(jié)的算法產(chǎn)生偏見、不公平問題公平性模型訓(xùn)練環(huán)節(jié)的算法不可解釋問題透明及可解釋性驗(yàn)證測試模型評(píng)估環(huán)節(jié)的算法偏見問題公平性模型評(píng)估環(huán)節(jié)算法安全問題安全模型評(píng)估環(huán)節(jié)中缺乏有效的版本管理、不可追溯等問題可問責(zé)性模型評(píng)估環(huán)節(jié)的算法不可解釋問題透明及可解釋性部署運(yùn)行模型部署環(huán)節(jié)的環(huán)境不可控監(jiān)督和決策模型部署環(huán)節(jié)的算法安全、韌性問題安全模型部署環(huán)節(jié)的算法不可解釋問題透明及可解釋性模型推理環(huán)節(jié)的算法安全、韌性問題安全模型推理環(huán)節(jié)的算法不可控問題監(jiān)督和決策模型推理環(huán)節(jié)的算法濫用、誤用問題監(jiān)督和決策模型推理環(huán)節(jié)中缺乏有效版本管理、不可追溯等問題可問責(zé)性模型推理環(huán)節(jié)的算法不可解釋、不可預(yù)測問題透明及可解釋性維護(hù)升級(jí)模型更新時(shí)模型參數(shù)與配置不正確安全模型更新時(shí)缺乏有效版本管理可問責(zé)性退役下線模型退役時(shí)模型未徹底刪除或模型參數(shù)泄露隱私保護(hù)、安全(3)系統(tǒng)(決策方式)當(dāng)前階段,人工智能系統(tǒng)既承繼了以往信息技術(shù)的倫理問題,又受到數(shù)據(jù)和算法風(fēng)險(xiǎn)的影響。由于人工智能在社會(huì)生產(chǎn)生活的各個(gè)環(huán)節(jié)日益廣泛應(yīng)用,人工智能系統(tǒng)固有的不透明性、低可解釋性等特征,再加上系統(tǒng)漏洞、設(shè)計(jì)缺陷等風(fēng)險(xiǎn),可能引發(fā)個(gè)人信息等數(shù)據(jù)泄露、工業(yè)生產(chǎn)線停止等社會(huì)問題,威脅個(gè)人權(quán)益、社會(huì)秩序、國家安全等。因此,人工智能系統(tǒng)可能在諸多方面帶來一系列倫理風(fēng)險(xiǎn),主要包括以下方面:人工智能系統(tǒng)的缺陷和價(jià)值設(shè)定問題可能帶來公民生命權(quán)、健康權(quán)的威脅,人工智能系統(tǒng)的濫用也可能威脅人身安全以及個(gè)人信息隱私權(quán)。比如,人工智能武器的濫用可能在世界范圍內(nèi)加劇不平等,威脅人類生命與世界和平;人工智能在工作場景中的濫用可能影響勞動(dòng)者權(quán)益,并且人工智能對(duì)勞動(dòng)者的替代可能引發(fā)大規(guī)模結(jié)構(gòu)性失業(yè)的危機(jī),帶來勞動(dòng)權(quán)或就業(yè)機(jī)會(huì)方面的風(fēng)險(xiǎn)。(4)人為因素人為因素主要體現(xiàn)在人為造成的算法歧視,主要分為兩種:一種是由算法設(shè)計(jì)者造成的算法歧視,另一種是由用戶造成的算法歧視。算法設(shè)計(jì)者造成的算法歧視,是指算法設(shè)計(jì)者為了獲得某些利益,或者為了表達(dá)自己的一些主觀觀點(diǎn)而設(shè)計(jì)存在歧視性的算法。這是因?yàn)樗惴ǖ脑O(shè)計(jì)目的、數(shù)據(jù)運(yùn)用、結(jié)果表征等都是開發(fā)者、設(shè)計(jì)者的主觀價(jià)值與偏好選擇,算法設(shè)計(jì)者是否能夠?qū)⒓扔蟹煞ㄒ?guī)或者道德規(guī)范編寫進(jìn)程序指令中本身就值得懷疑。而設(shè)計(jì)開發(fā)者可能會(huì)把自己持有的偏見與喜好嵌入或固化到智能算法之中。這會(huì)使人工智能算法通過學(xué)習(xí)把這種歧視或傾向進(jìn)一步放大或者強(qiáng)化,從而產(chǎn)生算法設(shè)計(jì)者想要的并帶有歧視性的結(jié)果,最終導(dǎo)致基于算法的決策帶有偏見。由用戶造成的算法歧視,主要產(chǎn)生于需要從與用戶互動(dòng)的過程中進(jìn)行學(xué)習(xí)的算法,由于用戶自身與算法的交互方式,而使算法的執(zhí)行結(jié)果產(chǎn)生了偏見。這是因?yàn)樵谶\(yùn)行過程中,當(dāng)設(shè)計(jì)算法向周圍環(huán)境學(xué)習(xí)時(shí),它不能決定要保留或者丟棄哪些數(shù)據(jù)、判斷數(shù)據(jù)對(duì)錯(cuò),而只能使用用戶提供的數(shù)據(jù)。無論這些數(shù)據(jù)是好是壞,它都只能依據(jù)此基礎(chǔ)做出判斷。人工智能倫理風(fēng)險(xiǎn)來自人工智能技術(shù)經(jīng)過工程轉(zhuǎn)化并進(jìn)入具體場景形成人工智能技術(shù)應(yīng)用后對(duì)人工智能倫理準(zhǔn)則的沖擊,人工智能倫理風(fēng)險(xiǎn)責(zé)任主體根據(jù)國家《新一代人工智能倫理規(guī)范》具體分為技術(shù)主體(對(duì)應(yīng)研發(fā)活動(dòng))、應(yīng)用主體(對(duì)應(yīng)供應(yīng)活動(dòng)和使用活動(dòng)),以及管理主體。結(jié)合本指南第三章節(jié)對(duì)人工智能倫理準(zhǔn)則的分析,人工智能倫理風(fēng)險(xiǎn)分類識(shí)別與分析矩陣如圖2所示。人工智能倫理風(fēng)險(xiǎn)具體分為應(yīng)用型、技術(shù)型和(技術(shù)應(yīng)用)混合型三類人工智能倫理風(fēng)險(xiǎn),分別面向不同的風(fēng)險(xiǎn)責(zé)任主體。人工智能倫理風(fēng)險(xiǎn)主要治理原則對(duì)應(yīng)第三章節(jié)所列的十大人工智能倫理準(zhǔn)則,對(duì)號(hào)代表各倫理風(fēng)險(xiǎn)類別所需要主要考慮的治理準(zhǔn)則,其中:人工智能倫理風(fēng)險(xiǎn)分類識(shí)別與分析矩陣人工智能倫理風(fēng)險(xiǎn)分類識(shí)別與分析矩陣人工智能倫理風(fēng)險(xiǎn)類別人工智能倫理人工智能倫理風(fēng)險(xiǎn)主要治理原則風(fēng)險(xiǎn)責(zé)任主體以人可持隱私公平共享合作可問透明主動(dòng)被動(dòng)為本續(xù)性責(zé)性安全安全—原生型(技術(shù)型衍生型(應(yīng)用型共生型(混合型)管理主體圖2人工智能倫理風(fēng)險(xiǎn)分析矩陣(1)應(yīng)用型人工智能倫理風(fēng)險(xiǎn)定義為:在人工智能技術(shù)應(yīng)用過程中,由于人工智技術(shù)的工具放大效應(yīng),使得應(yīng)用場景中的原有倫理共識(shí)中已經(jīng)接受的倫理問題產(chǎn)生放大或者變形。這類問題并不是人工智能技術(shù)本身的問題,而是技術(shù)應(yīng)用帶來的衍生效應(yīng)。例如:智能教育過程中人工智能學(xué)習(xí)工具的使用,將人類社會(huì)原有的“數(shù)字鴻溝”推向“智能鴻溝”,進(jìn)一步擴(kuò)大了教育公平問題甚至加劇了社會(huì)的不平等。對(duì)于衍生型倫理風(fēng)險(xiǎn),主要從以人為本、可持續(xù)性、隱私、共享、合作和公平這六個(gè)倫理準(zhǔn)則的維度進(jìn)行具體分析。應(yīng)用型倫理風(fēng)險(xiǎn)的責(zé)任主體主要是應(yīng)用主體和管理主體,分別指從事人工智能產(chǎn)品與服務(wù)相關(guān)的生產(chǎn)、運(yùn)營、銷售、采購、消費(fèi)、操作等供應(yīng)活動(dòng)和使用活動(dòng)的自然人、法人和其他相關(guān)機(jī)構(gòu)等,和從事指人工智能相關(guān)的戰(zhàn)略規(guī)劃、政策法規(guī)和技術(shù)標(biāo)準(zhǔn)制定實(shí)施,資源配置以及監(jiān)督審查等管理活動(dòng)的自然人、法人和其他相關(guān)機(jī)構(gòu)等。對(duì)此,應(yīng)用主體應(yīng)在供應(yīng)方面尊重市場規(guī)則、保障用戶權(quán)益,在使用發(fā)面避免濫用誤用、積極提高使用能力;管理主體應(yīng)推動(dòng)敏捷治理、積極實(shí)踐示范、正確行權(quán)用權(quán)、促進(jìn)包容開放。(2)技術(shù)型人工智能倫理風(fēng)險(xiǎn)定義為:由于人工智能技術(shù)自身路線與發(fā)展特點(diǎn)的倫理治理問題,由此帶來的倫理風(fēng)險(xiǎn)通常與人工智能的技術(shù)特征直接相關(guān),是人工智能技術(shù)應(yīng)用給人類社會(huì)治理拓展的新的倫理邊界。例如:深度學(xué)習(xí)技術(shù)應(yīng)用于智能駕駛領(lǐng)域的環(huán)境感知和行為決策,現(xiàn)階段其感知和決策結(jié)果的不可解釋性導(dǎo)致駕駛者和乘客難以安心使用,也影響著其他交通參與者的安全,比如輔助駕駛系統(tǒng)突如其來的莫名剎車。對(duì)人工智能技術(shù)應(yīng)用的信任程度及其原理解釋問題成為新的人機(jī)物的關(guān)系問題,是典型的原生型倫理風(fēng)險(xiǎn)。對(duì)于原生型倫理風(fēng)險(xiǎn),主要從可問責(zé)性和透明兩個(gè)倫理準(zhǔn)則的維度進(jìn)行具體分析。技術(shù)型倫理風(fēng)險(xiǎn)的責(zé)任主體主要是技術(shù)主體,指的是從事人工智能相關(guān)的科學(xué)研究、技術(shù)開發(fā)、產(chǎn)品研制等研發(fā)活動(dòng)的自然人、法人和其他相關(guān)機(jī)構(gòu)等。對(duì)此,技術(shù)主體應(yīng)加強(qiáng)技術(shù)研發(fā)和治理,逐步實(shí)現(xiàn)對(duì)人工智能技術(shù)的可驗(yàn)證、可審核、可監(jiān)督、可追溯、可預(yù)測、可信賴。(3)(技術(shù)應(yīng)用)混合型人工智能倫理風(fēng)險(xiǎn)定義為:由于人工智能技術(shù)在場景中的應(yīng)用,使得安全這一固有的倫理共識(shí)被技術(shù)本身的特征與技術(shù)的場景應(yīng)用共同影響,改變了人類對(duì)安全這一倫理價(jià)值的認(rèn)知。即人工智能技術(shù)應(yīng)用一方面增加了對(duì)安全程度的需求,另一方面也為安全新增了需要考慮的方面,最終形成技術(shù)型與應(yīng)用型倫理風(fēng)險(xiǎn)交互、混合的情況。例如:知識(shí)圖譜技術(shù)相關(guān)應(yīng)用在提高了數(shù)據(jù)安全程度要求的同時(shí),也新增了防范知識(shí)投毒方面的安全維度要求。對(duì)于混合型倫理風(fēng)險(xiǎn),主要從主動(dòng)安全和被動(dòng)安全兩個(gè)倫理準(zhǔn)則的維度進(jìn)行具體分析,其責(zé)任主體包括技術(shù)主體、應(yīng)用主體和管理主體。對(duì)此,技術(shù)主體應(yīng)積極增強(qiáng)人工智能系統(tǒng)的韌性和抗干擾能力;應(yīng)用主體在供應(yīng)方面應(yīng)加強(qiáng)質(zhì)量管控,在使用方面禁止違規(guī)惡用;管理主體應(yīng)加強(qiáng)風(fēng)險(xiǎn)防范。對(duì)人工智能倫理風(fēng)險(xiǎn)進(jìn)行分類識(shí)別的目的是,有助于各責(zé)任主體和利益相關(guān)方清晰認(rèn)識(shí)人工智能倫理風(fēng)險(xiǎn)產(chǎn)生的原因,并有助于各方進(jìn)一步理解人工智能倫理風(fēng)險(xiǎn)與傳統(tǒng)倫理問題的區(qū)別和聯(lián)系,明確各責(zé)任主體的責(zé)任。進(jìn)而,在人工智能倫理風(fēng)險(xiǎn)對(duì)倫理準(zhǔn)則產(chǎn)生影響的維度上進(jìn)行具體分析,有助于指導(dǎo)和促進(jìn)人工智能技術(shù)和技術(shù)應(yīng)用合乎倫理的研發(fā),并有助于各方用好人工智能技術(shù)。本章節(jié)后續(xù)部分將選取典型場景,對(duì)其中的代表性人工智能技術(shù)應(yīng)用產(chǎn)生的倫理風(fēng)險(xiǎn)進(jìn)行分析。同時(shí),附錄1借鑒ISO/IECTR24368,為各方提供了一份構(gòu)建和使用符合倫理設(shè)計(jì)的人工智能的非詳盡考慮事項(xiàng)清單,可作為組織管理過程或信息系統(tǒng)審計(jì)中的部分參考,旨在減輕人工智能技術(shù)應(yīng)用全生命周期中的倫理風(fēng)險(xiǎn)。本小節(jié)將選取自動(dòng)駕駛、智能媒體、智能醫(yī)療、只能電商、智能教育和科學(xué)智能等6個(gè)典型場景,使用上述人工智能倫理風(fēng)險(xiǎn)分類識(shí)別和分析矩陣,對(duì)場景中人工智能技術(shù)應(yīng)用的倫理風(fēng)險(xiǎn)進(jìn)行分析,在人工智能技術(shù)和技術(shù)應(yīng)用的管理、研發(fā)、供應(yīng)和使用中作為積極的構(gòu)成要素,有助于在人工智能技術(shù)應(yīng)用的倫理風(fēng)險(xiǎn)發(fā)生前預(yù)判、規(guī)避和化解。自動(dòng)駕駛自動(dòng)駕駛即指車輛在搭載先進(jìn)傳感器、控制器、執(zhí)行器的基礎(chǔ)上,在特定的設(shè)計(jì)運(yùn)行范圍內(nèi),能自主獲取和分析車內(nèi)外信息,持續(xù)地處理部分或全部動(dòng)態(tài)駕駛?cè)蝿?wù),包括單車智能和車路云深度協(xié)同等。自動(dòng)駕駛是人工智能技術(shù)最受社會(huì)公眾關(guān)注的應(yīng)用場景之一。第一類技術(shù)型倫理風(fēng)險(xiǎn)的代表,是環(huán)境感知、行為決策和運(yùn)動(dòng)控制等自動(dòng)駕駛應(yīng)用對(duì)可問責(zé)性這一倫理準(zhǔn)則的影響。自動(dòng)駕駛的終極目標(biāo)是自主決策實(shí)現(xiàn)無人駕駛,但由于道路、行人和天氣情況的復(fù)雜多變,計(jì)算機(jī)視覺算法的不夠成熟可靠,以及目前傳感設(shè)備識(shí)別能力有限等問題,導(dǎo)致現(xiàn)階段自動(dòng)駕駛汽車事故頻發(fā)。事故原因多元而難以追溯,并且現(xiàn)有的制度規(guī)范也未建立完善,為自動(dòng)駕駛新增了問責(zé)困難的倫理風(fēng)險(xiǎn)。第二類應(yīng)用型倫理風(fēng)險(xiǎn)的代表,首先是自動(dòng)駕駛汽車的操控權(quán)和自主決策行為對(duì)以人為本、合作和公平等倫理準(zhǔn)則的影響。自動(dòng)駕駛系統(tǒng)對(duì)車主操控權(quán)的適時(shí)歸還以及車主的適當(dāng)使用等問題已經(jīng)引發(fā)了倫理爭議。面對(duì)“電車難題”等不可避免的道德困境,自動(dòng)駕駛系統(tǒng)代替人類做出的選擇,可能隱含著數(shù)據(jù)、算法、系統(tǒng)和人為歧視,并可能把個(gè)體的偏差放大到社會(huì)面。此外,由于不同國家和地區(qū)的文化背景和價(jià)值觀不同,自動(dòng)駕駛系統(tǒng)很難有一個(gè)普適的道德責(zé)任框架,這對(duì)國際合作和統(tǒng)一提出了挑戰(zhàn)。其次是駕駛數(shù)據(jù)包括導(dǎo)航數(shù)據(jù)對(duì)隱私這一倫理準(zhǔn)則產(chǎn)生的影響,主要是座艙數(shù)據(jù)對(duì)駕駛員和乘員的人臉、聲紋、指紋等生物識(shí)別特征數(shù)據(jù)的采集。車外數(shù)據(jù)對(duì)交通參與者人臉和車牌等個(gè)人信息的采集,以及導(dǎo)航數(shù)據(jù)對(duì)行駛軌跡的采集,也侵犯了其他交通參與者的隱私。第三類混合型倫理風(fēng)險(xiǎn)的代表,是駕駛數(shù)據(jù)、車聯(lián)網(wǎng)和車路協(xié)同對(duì)主動(dòng)安全和被動(dòng)安全兩大倫理準(zhǔn)則的而影響。海量駕駛數(shù)據(jù)的價(jià)值已然巨大,而重要敏感區(qū)域的地理信息、車輛流量、汽車充電網(wǎng)等能夠反映經(jīng)濟(jì)運(yùn)行情況的數(shù)據(jù)更關(guān)系到國家安全和公共利益,對(duì)安全提出了更高要求。此外,車聯(lián)網(wǎng)和車路云協(xié)同使得黑客能夠遠(yuǎn)程操控、影響和攻擊車輛,影響道路交通安全,并衍生高科技犯罪和破壞公共安全的倫理風(fēng)險(xiǎn)。智能媒體智能媒體場景關(guān)注人工智能技術(shù)在社交媒體方面的應(yīng)用,能夠提高信息傳播效率、人機(jī)交互體驗(yàn)、內(nèi)容質(zhì)量與豐富程度。人工智能技術(shù)對(duì)社交媒體的賦能也帶來了倫理風(fēng)險(xiǎn)。第一類技術(shù)型倫理風(fēng)險(xiǎn)的代表,是智能內(nèi)容處理和生成應(yīng)用對(duì)可問責(zé)性和透明兩大倫理準(zhǔn)則的影響。深度合成技術(shù)特別是深度偽造的發(fā)展帶來了虛假信息甚至虛假賬號(hào)的可能性,使得海量的音視頻和圖像需要接受檢測。因此,這些深度合成的內(nèi)容通過各類社交媒體傳播,導(dǎo)致信息本身和信息發(fā)布者的失真與難以分辨。進(jìn)而,這些虛假信息可能衍生其他領(lǐng)域的倫理風(fēng)險(xiǎn),比如影響公安領(lǐng)域的網(wǎng)絡(luò)輿情監(jiān)控有效性、導(dǎo)致特定人員聲譽(yù)受損等。第二類應(yīng)用型倫理風(fēng)險(xiǎn)的代表,是智能網(wǎng)絡(luò)社交應(yīng)用對(duì)以人為本、公平和隱私等倫理準(zhǔn)則的影響。網(wǎng)絡(luò)社交的興起使得原本只在家人朋友和同事鄰里之間分享的私密生活,可以被用戶線上展示分享并收獲關(guān)注。但這首先帶來了隱私泄露的倫理風(fēng)險(xiǎn)。其次,社交平臺(tái)的推薦算法應(yīng)用可能驅(qū)動(dòng)這些內(nèi)容甚至隱私向更多人開放,縮短了被他人獲取和分析的鏈條,可能加劇造謠、污蔑、歧視甚至網(wǎng)絡(luò)暴力等倫理風(fēng)險(xiǎn),并衍生如高科技犯罪、詐騙和破壞社會(huì)信任關(guān)系等倫理風(fēng)險(xiǎn)。最后,社交平臺(tái)的推薦算法機(jī)制可能使得傷害性和反智性言論更易擴(kuò)散,并加劇“信息繭房”、“回音室”以及群體極化等倫理風(fēng)險(xiǎn)。第三類混合型倫理風(fēng)險(xiǎn)的代表,是海量社交數(shù)據(jù)以及敏感信息對(duì)主動(dòng)安全和被動(dòng)安全兩大倫理準(zhǔn)則的影響。一方面,海量社交數(shù)據(jù)的產(chǎn)生對(duì)數(shù)據(jù)和網(wǎng)絡(luò)安全提出更高要求。另一方面,一些政治或經(jīng)濟(jì)相關(guān)虛假信息的傳播,信息推送中特定詞語插入對(duì)用戶情緒和行為的干預(yù)與誘導(dǎo),以及機(jī)密信息的泄露和擴(kuò)散,也可能造成意識(shí)形態(tài)和社會(huì)輿論方面的倫理風(fēng)險(xiǎn),甚至威脅國家安全。智能醫(yī)療智能醫(yī)療場景是人工智能技術(shù)在醫(yī)學(xué)場景的賦能與應(yīng)用。醫(yī)學(xué)自身已是一個(gè)倫理敏感的場景,對(duì)于人工智能技術(shù)應(yīng)用于醫(yī)學(xué),極有可能放大或變形傳統(tǒng)醫(yī)學(xué)場景的倫理風(fēng)險(xiǎn)、新增或產(chǎn)生混合的倫理風(fēng)險(xiǎn),需要特別關(guān)注。第一類技術(shù)型倫理風(fēng)險(xiǎn)的代表,是智能手術(shù)機(jī)器人和智能醫(yī)學(xué)影像分析等涉及自主能動(dòng)性的人工智能應(yīng)用對(duì)可問責(zé)性這一倫理準(zhǔn)則的影響。在智能手術(shù)機(jī)器人協(xié)助手術(shù)過程中因?yàn)獒t(yī)生操控失誤或機(jī)器故障引起的醫(yī)療事故,現(xiàn)階段仍沒有對(duì)如何劃分責(zé)任形成共識(shí)。智能醫(yī)學(xué)影像分析等“AI+醫(yī)療”技術(shù)亦存在類似的責(zé)任劃分困境,其分析結(jié)果對(duì)醫(yī)生的正確判斷可能產(chǎn)生的影響必須納入考慮。第二類應(yīng)用型倫理風(fēng)險(xiǎn)的代表,首先是腦機(jī)接口應(yīng)用對(duì)以人為本這一倫理準(zhǔn)則的影響。腦機(jī)接口是人工智能和醫(yī)學(xué)的代表性交叉技術(shù),由于直接作用于人體,可能造成對(duì)大腦組織的創(chuàng)傷和感染,其安全和倫理風(fēng)險(xiǎn)和爭議較大。另一方面,未來可能發(fā)生的黑客攻擊和意念控制將導(dǎo)致人類自由意志受到巨大威脅,更是將有關(guān)人腦的手術(shù)對(duì)自由意志的可能影響的倫理風(fēng)險(xiǎn)進(jìn)行了極度放大或變形。其次是可穿戴式設(shè)備、智能醫(yī)療信息平臺(tái)等對(duì)隱私、共享和公平等倫理準(zhǔn)則的影響。隨著現(xiàn)代人對(duì)日常健康監(jiān)測重視,這些設(shè)備或平臺(tái)大量采集人體的生物特征數(shù)據(jù)并進(jìn)行分析處理、輔助診斷和醫(yī)學(xué)研究。使用者難以保障數(shù)據(jù)的刪除權(quán)、存儲(chǔ)權(quán)、使用權(quán)和知情權(quán),且由于這些數(shù)據(jù)多是生理信息而顯得更為敏感,將對(duì)患者隱私的侵犯可能性進(jìn)行了放大。另外,智能醫(yī)療設(shè)備的高昂費(fèi)用和使用門檻,也放大了原本的數(shù)字鴻溝和醫(yī)療資源不均衡等問題,對(duì)共享和公平兩大倫理準(zhǔn)則產(chǎn)生進(jìn)一步影響。第三類混合型倫理風(fēng)險(xiǎn)的代表,是人工智能驅(qū)動(dòng)的人類增強(qiáng)應(yīng)用對(duì)主動(dòng)安全和被動(dòng)安全兩大倫理準(zhǔn)則的影響,腦機(jī)接口技術(shù)也在此列??赡艿暮诳凸艉透蓴_、數(shù)據(jù)竊取等對(duì)相關(guān)設(shè)備聯(lián)網(wǎng)的主動(dòng)安全提出了要求,而相關(guān)設(shè)備對(duì)人腦或人體的直接接觸和影響也對(duì)其可控性、可靠性和魯棒性等被動(dòng)安全提出了要求。智能電商智能平臺(tái)場景主要是人工智能技術(shù)賦能的電商和服務(wù)平臺(tái),能夠?yàn)橄M(fèi)者在線提供各類產(chǎn)品和服務(wù),做到個(gè)性化、精準(zhǔn)化和高效化。第一類技術(shù)型倫理風(fēng)險(xiǎn)的代表,是推薦系統(tǒng)對(duì)可問責(zé)性這一倫理準(zhǔn)則的影響。由于用戶一般只關(guān)注推薦排名靠前的商品,不良商家能夠通過推薦和排序算法背后的一系列操作獲得優(yōu)先推薦的機(jī)會(huì),可能導(dǎo)致電商平臺(tái)陷入倫理爭議并形象敗壞。同時(shí),平臺(tái)和商家的責(zé)任劃分,甚至消費(fèi)者如何選擇,均引發(fā)倫理爭議。第二類應(yīng)用型倫理風(fēng)險(xiǎn)的代表,是推薦系統(tǒng)和智能調(diào)度系統(tǒng)等人工智能技術(shù)應(yīng)用對(duì)以人為本、共享、公平和隱私等倫理準(zhǔn)則的影響。一方面,電商平臺(tái)使用的算法可能過度誘導(dǎo)消費(fèi)并導(dǎo)致“信息繭房”,用戶被反復(fù)加強(qiáng)和固化的消費(fèi)偏好也可能破壞市場的有序競爭和創(chuàng)新活力。另一方面,平臺(tái)可能根據(jù)用戶的歷史交易記錄、交易習(xí)慣等特征,甚至“竊聽”或“監(jiān)視”聊天記錄,利用算法在價(jià)格等方面實(shí)施不合理的差別待遇或進(jìn)行針對(duì)性推送,造成不公平競爭甚至欺詐行為。如近年來被廣泛曝光的“大數(shù)據(jù)殺熟”現(xiàn)象,便嚴(yán)重違反了消費(fèi)者的合法權(quán)益,破壞了市場秩序。而服務(wù)平臺(tái)則主要依靠智能調(diào)度系統(tǒng)為消費(fèi)者提供各類服務(wù)如外賣、跑腿和用車等,雖然提高了效率,但缺失了人性關(guān)懷的溫度,可能導(dǎo)致在算法控制與歸訓(xùn)下的員工陷入為按時(shí)完成任務(wù)而采取違規(guī)違法行為的倫理困境,對(duì)自身、平臺(tái)和公眾均產(chǎn)生風(fēng)險(xiǎn)隱患。第三類混合型倫理風(fēng)險(xiǎn)的代表,是消費(fèi)數(shù)據(jù)和管制物品流通對(duì)主動(dòng)安全和被動(dòng)安全兩大倫理準(zhǔn)則的影響。一方面,海量且全面消費(fèi)數(shù)據(jù)能夠反映國家經(jīng)濟(jì)發(fā)展運(yùn)行態(tài)勢;另一方面,多樣的電商平臺(tái)伴隨著現(xiàn)代物流服務(wù),使得槍支、入侵生物、?;返裙苤莆锲返牧魍y度和成本降低,且提高了監(jiān)管和追繳難度。這些均對(duì)國土安全、經(jīng)濟(jì)安全等提出了主動(dòng)安全和被動(dòng)安全方面的更高要求。智能教育智能教育是人工智能技術(shù)在教育領(lǐng)域應(yīng)用產(chǎn)生的新形態(tài),有望對(duì)教育技術(shù)、教育目標(biāo)、教育理念以及教育治理等產(chǎn)生變革性影響。教育是社會(huì)發(fā)展的動(dòng)力源泉,智能教育場景的倫理風(fēng)險(xiǎn)需要進(jìn)一步重視。第一類技術(shù)型倫理風(fēng)險(xiǎn)在智能教育場景尚未凸顯,現(xiàn)階段主要體現(xiàn)在算法黑箱對(duì)透明這一倫理準(zhǔn)則的影響。第二類應(yīng)用型倫理風(fēng)險(xiǎn)的代表,首先是智能化學(xué)習(xí)和評(píng)價(jià)應(yīng)用對(duì)以人為本和公平等倫理準(zhǔn)則的影響。學(xué)習(xí)者的獨(dú)立思考和教育者的評(píng)價(jià)、關(guān)懷,對(duì)學(xué)習(xí)者的學(xué)習(xí)成效和積極性非常重要。但智能學(xué)習(xí)內(nèi)容推薦應(yīng)用可能導(dǎo)致學(xué)習(xí)者遭遇“信息繭房”而使知識(shí)結(jié)構(gòu)和認(rèn)知的片面化;“拍照搜題”可能惰化學(xué)習(xí)者思維和獨(dú)立思考能力,違背教育教學(xué)規(guī)律等問題。智能教育缺失了教育的人文關(guān)懷,也可能因數(shù)據(jù)、算法或人為歧視而放大原本的人工偏差。其次
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 2025年度跨境電商倉儲(chǔ)租賃合同合法經(jīng)營拓展全球市場4篇
- 二零二五年度建筑工地鋼筋施工安全培訓(xùn)合同
- 二零二五版網(wǎng)絡(luò)短視頻剪輯師招聘合同范本3篇
- 二零二五年度建筑用沙子購銷及環(huán)保審計(jì)合同3篇
- 2025年皮包原材料進(jìn)口合同二零二五年度版4篇
- 二零二五年度拍賣會(huì)籌備及組織服務(wù)合同4篇
- 2025年度牛羊肉品牌保護(hù)及侵權(quán)糾紛處理合同
- 二零二五年度內(nèi)墻抹灰工程質(zhì)量監(jiān)督合同范例
- 二零二五版摩托車二手車交易評(píng)估與收購合同4篇
- 2025年建筑物清潔與智能安防系統(tǒng)維護(hù)合同3篇
- 2024-2025學(xué)年北京石景山區(qū)九年級(jí)初三(上)期末語文試卷(含答案)
- 第一章 整式的乘除 單元測試(含答案) 2024-2025學(xué)年北師大版數(shù)學(xué)七年級(jí)下冊(cè)
- 春節(jié)聯(lián)歡晚會(huì)節(jié)目單課件模板
- 中國高血壓防治指南(2024年修訂版)
- 糖尿病眼病患者血糖管理
- 抖音音樂推廣代運(yùn)營合同樣本
- 教育促進(jìn)會(huì)會(huì)長總結(jié)發(fā)言稿
- 北師大版(2024新版)七年級(jí)上冊(cè)數(shù)學(xué)第四章《基本平面圖形》測試卷(含答案解析)
- 心理調(diào)適教案調(diào)整心態(tài)積極應(yīng)對(duì)挑戰(zhàn)
- 小學(xué)數(shù)學(xué)6年級(jí)應(yīng)用題100道附答案(完整版)
- 噴漆外包服務(wù)合同范本
評(píng)論
0/150
提交評(píng)論