版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
目錄人工智能算法影響評(píng)價(jià)的背景:界定治理問(wèn)題 4算法歧視治理風(fēng)險(xiǎn) 5算法公平治理風(fēng)險(xiǎn) 8算法安全治理風(fēng)險(xiǎn) 10本章總結(jié) 12人工智能算法影響評(píng)價(jià)的內(nèi)涵:描述治理實(shí)踐 13人工智能算法影響評(píng)價(jià)的制度內(nèi)涵及其治理定位 13算法影響評(píng)價(jià)的制度內(nèi)涵 13算法審計(jì)的制度內(nèi)涵 15算法影響評(píng)價(jià)與算法審計(jì)的共性與差異 1617環(huán)境影響評(píng)價(jià)視角下的算法影響評(píng)價(jià) 17數(shù)據(jù)保護(hù)影響評(píng)估視角下的算法影響評(píng)價(jià) 20問(wèn)題列表清單評(píng)估視角下的算法影響評(píng)估 22不同模式的對(duì)比分析 26人工智能算法影響評(píng)價(jià)的國(guó)別特征:歐盟、美國(guó)、英國(guó)、加拿大與中國(guó) 262.3.1. 歐盟 262.3.2. 加拿大 312.3.3. 美國(guó) 352.3.4. 英國(guó) 412.3.5. 中國(guó) 47人工智能算法影響評(píng)價(jià)的治理邏輯:監(jiān)管者與被監(jiān)管者的合作 51協(xié)同治理(CollaborativeGovernance)視角下的人工智能算法影響評(píng)價(jià) 52管理主義(Managerialism)視角下的人工智能算法影響評(píng)價(jià) 55制度同化(InstitutionalIsomorphism)視角下的人工智能算法影響評(píng)價(jià) 60人工智能算法影響評(píng)價(jià)的未來(lái)改革:形成政策建議 61人工智能算法影響評(píng)價(jià)的制度要求:開(kāi)放性、合作性、責(zé)任性 62開(kāi)放性 62合作性 63責(zé)任性 64通用人工智能算法影響評(píng)價(jià)的體系框架:理論基礎(chǔ)、層次結(jié)構(gòu)、流程指標(biāo) 65理論基礎(chǔ):心理計(jì)量學(xué)與機(jī)器行為學(xué)的理論融合創(chuàng)新 65層次結(jié)構(gòu):技術(shù)、組織、社會(huì) 71通用人工智能算法影響評(píng)價(jià)的政策建議 錯(cuò)誤!未定義書(shū)簽。人工智能算法影響評(píng)價(jià)(algorithmimpactassessment,AIA)作為一種治理(即人工智能算法影響評(píng)價(jià)的必要性問(wèn)題(即人工智能算法影響評(píng)價(jià)的特殊性問(wèn)題)受到何種因素的影響(即人工智能算法影響評(píng)價(jià)的局限性問(wèn)題)?對(duì)于這些問(wèn)題的探索性回答,構(gòu)成了本報(bào)告的主要內(nèi)容。人工智能算法影響評(píng)價(jià)的背景:界定治理問(wèn)題-內(nèi)部為什么需要施行影響評(píng)價(jià)制度?對(duì)以上問(wèn)題的一個(gè)簡(jiǎn)潔回答是,在多類型的市場(chǎng)行為中,存在大量的“未知(。算法歧視治理風(fēng)險(xiǎn)(或感知到(特別是人工智能算法的基本(部署等等關(guān)聯(lián)了起來(lái)。(或者是不同指標(biāo)相對(duì)權(quán)重大小的設(shè)置擇都仍然是具有主觀性的,并因此可能是“歧視”的。者在算法決策的應(yīng)用環(huán)境下都將面臨新的不確定挑戰(zhàn)。然增加了歧視性權(quán)益侵害確認(rèn)的成本和難度。的追尋還將面臨更大的不確定性困境。1歧視問(wèn)題的分析視角大致可被劃分為兩(((或不平等結(jié)構(gòu)1Freeman,A.D.(1977).Legitimizingracialdiscriminationthroughantidiscriminationlaw:AcriticalreviewofSupremeCourtdoctrine.Minn.L.Rev.,62,1049.的歧視性是最低的(或“中立性”是最強(qiáng)的,這也使得在算法歧視問(wèn)題的治理比較義務(wù)而非是否采用了“最中立”算法2。3(或分化性結(jié)構(gòu)2Oppenheimer,D.B.(1992).Negligentdiscrimination.U.Pa.L.Rev.,141,899.3Kohler-Hausmann,I.(2018).EddieMurphyandthedangersofcounterfactualcausalthinkingaboutdetectingracialdiscrimination.Nw.ULRev.,113,1163.正表現(xiàn)了出來(lái)。而這也意味著僅聚焦結(jié)果并試圖厘清過(guò)錯(cuò)因果鏈條的傳統(tǒng)治理邏輯并不能對(duì)此一結(jié)論是否經(jīng)過(guò)測(cè)試和驗(yàn)證?諸如此類的問(wèn)題事實(shí)上就構(gòu)成了算法風(fēng)險(xiǎn)評(píng)估的算法公平治理風(fēng)險(xiǎn)的目的,也可能表現(xiàn)為算法決策的應(yīng)用甚至惡化了當(dāng)前已分化的社會(huì)結(jié)構(gòu)。具體而言,這又表現(xiàn)為以下三點(diǎn)。((商品推薦算法的“公平”性要求也是不同的。第二,()的治理要求。第三,算法公平作為治理目標(biāo)既需要平衡“公平”內(nèi)涵:針對(duì)不同群體的算法計(jì)算結(jié)果應(yīng)是一致(一致性要求識(shí)別的概率應(yīng)是一致的(正平衡性要求、不同群體被錯(cuò)誤識(shí)別的概率是一致的(負(fù)平衡性要求。技術(shù)層面的不同內(nèi)涵往往反映了差異化的價(jià)值目標(biāo),而它們目標(biāo)之間的內(nèi)在張力。(則,或者社會(huì)所公認(rèn)、接受的準(zhǔn)則,還是來(lái)源于結(jié)果效用的評(píng)估(例如讓所有算法安全治理風(fēng)險(xiǎn)此處要討論的算法安全治理應(yīng)被理解為“Safety”而非“Security入現(xiàn)有法律框架之下得到回應(yīng)?從算法技術(shù)邏輯及其應(yīng)用于具體環(huán)境下的制度統(tǒng)法律制度框架對(duì)于服務(wù)或產(chǎn)品安全治理的回應(yīng)主要體現(xiàn)在侵權(quán)法和產(chǎn)品責(zé)任(或醫(yī)院(Bug假設(shè)某類癌癥影響的正確診斷率為80%,那么在醫(yī)生診斷場(chǎng)景下,20%的診斷錯(cuò)的醫(yī)療診斷算法往往能提高正確診斷率(例如提升到90%,因而醫(yī)院采納該算Negligence10%(10%從算法實(shí)現(xiàn)的技術(shù)邏輯來(lái)看,產(chǎn)品責(zé)任法框架恐也難以對(duì)此做出有效應(yīng)對(duì)。(10%(例如識(shí)別錯(cuò)誤或推送錯(cuò)誤10%(Unknownunknownrisks。本章總結(jié)之下,這也意味著以“市場(chǎng)-政府”的嚴(yán)格劃分為邊界、聚焦風(fēng)險(xiǎn)結(jié)果而忽視風(fēng)言,這又可以總結(jié)為三點(diǎn)。第一,算法不能被視為獨(dú)立的產(chǎn)品或服務(wù)而被引入人類生產(chǎn)生活的各個(gè)場(chǎng)景,混雜中難以被充分滿足。第二,算法技術(shù)方案難以被解釋、難以被窮盡的基本邏輯使得算法治理將始技術(shù)開(kāi)發(fā)、應(yīng)用伴隨而生、伴隨而變需要成為新的主導(dǎo)性理念。第三,算法應(yīng)用風(fēng)險(xiǎn)往往以統(tǒng)計(jì)意義而非具體個(gè)案形式出現(xiàn)的基本規(guī)律,使得算法治理不得不陷入集體效用改善與個(gè)體權(quán)益侵害同時(shí)發(fā)生的公平性“悖論”的共性要求。(由此回應(yīng)實(shí)驗(yàn)性的治理要求求算法設(shè)計(jì)與應(yīng)用者及時(shí)修改生產(chǎn)流程以作出敏捷回應(yīng)(由此回應(yīng)動(dòng)態(tài)性的治理要求什么”這一基本問(wèn)題。人工智能算法影響評(píng)價(jià)的內(nèi)涵:描述治理實(shí)踐人工智能算法影響評(píng)價(jià)的制度內(nèi)涵及其治理定位括算法審計(jì)(algorithmaudit)。本小節(jié)將在比較二者異同點(diǎn)的基礎(chǔ)上,進(jìn)一步明確人工智能算法影響評(píng)價(jià)的制度內(nèi)涵。算法影響評(píng)價(jià)的制度內(nèi)涵從制度沿襲視角來(lái)看,算法影響評(píng)價(jià)與財(cái)政影響評(píng)價(jià)(FiscalImpact(EnvironmentalImpact等具有緊密(為標(biāo)準(zhǔn)選擇特定方案或提出改革建議的過(guò)程。(/((影響可能互相交織(算法影響將伴隨社會(huì)環(huán)境的變遷而變化過(guò)程。價(jià)在制度實(shí)踐過(guò)程中也將形成不同模式。4主要基于成本-效益分析方法對(duì)公共資金的投入進(jìn)行影響評(píng)價(jià),參見(jiàn)Kotval,Zenia,andJohnMullin.2006.“FiscalImpactAnalysis:Methods,Cases,andIntellectualDebate.”LincolnInstituteofLandPolicyWorkingPaper.LincolnInstituteofLandPolicy.5主要對(duì)建筑工程的環(huán)境影響進(jìn)行評(píng)價(jià),參見(jiàn)Taylor,Serge.1984.MakingBureaucraciesThink:TheEnvironmentalImpactStatementStrategyofAdministrativeReform.Stanford,CA:StanfordUniversityPress.算法審計(jì)的制度內(nèi)涵的方式在運(yùn)行。從這一定義來(lái)看,包括算法審計(jì)在內(nèi)的各類型審計(jì)制度,其都包含“名義值(nominalinformation)”和“實(shí)際值(actualinformation)”這兩個(gè)部分,而審計(jì)往往又體現(xiàn)為事后監(jiān)督行為而非事前準(zhǔn)入條件。)進(jìn)入至算法設(shè)計(jì)、應(yīng)用的全流程。算法影響評(píng)價(jià)與算法審計(jì)的共性與差異存在較大差異。-與修正,以最小化或規(guī)避治理風(fēng)險(xiǎn)。(因變量而算法系統(tǒng)是產(chǎn)生影響的自變(也正是因?yàn)槎卟町惖拇嬖?,算法影響評(píng)價(jià)和算法審計(jì)并非相互替代關(guān)系,而是相互補(bǔ)充以最終回應(yīng)算法治理的新要求和新挑戰(zhàn)。本報(bào)告主要聚焦算法影響評(píng)價(jià),接下來(lái)的實(shí)踐梳理與理論分析也主要圍繞此而展開(kāi)。列表清單環(huán)境影響評(píng)價(jià)視角下的算法影響評(píng)價(jià)1969(NationalEnvironmentalPolicyAct,NEPA)影響評(píng)價(jià)作為一種影響評(píng)價(jià)模式的關(guān)鍵特征。NEPA根據(jù)對(duì)環(huán)境質(zhì)量影響大小的不同,它們所要滿足的評(píng)價(jià)要求卻呈現(xiàn)出較大差異性。NEPA在程序上規(guī)定了四個(gè)判斷節(jié)點(diǎn)6,每一個(gè)節(jié)點(diǎn)所對(duì)應(yīng)的評(píng)價(jià)要求逐次升高,6NEPA規(guī)定的四個(gè)判斷節(jié)點(diǎn)包括以下內(nèi)容:第一,首先判斷該項(xiàng)目是否需要進(jìn)行環(huán)境影響評(píng)價(jià),特別對(duì)于在其他“功能近似(FunctionalEquivalent)”規(guī)制框架下已經(jīng)被要求進(jìn)行環(huán)境分析的項(xiàng)目可被免于NEPA的評(píng)價(jià)要求;第二,其次判斷該項(xiàng)目是否可被歸類進(jìn)免于環(huán)境影響評(píng)價(jià)的范疇之中,該審批主要由聯(lián)邦監(jiān)管機(jī)構(gòu)作出以說(shuō)明該項(xiàng)目的環(huán)境影響有限,并通過(guò)公開(kāi)程序征求公眾意見(jiàn);第三,如果不能被歸類于豁免范疇,則接下來(lái)需進(jìn)一步判斷該項(xiàng)目的環(huán)境影響是否“重大”,而聯(lián)邦監(jiān)管機(jī)構(gòu)將出具環(huán)境評(píng)估報(bào)告以對(duì)此作出判斷,并公開(kāi)征求公眾意見(jiàn),絕大部分項(xiàng)目都將停步于此;第四,如果聯(lián)邦監(jiān)管機(jī)構(gòu)認(rèn)為環(huán)境影響重大,則該項(xiàng)目便需要準(zhǔn)備詳細(xì)的環(huán)境影響陳述,其包括可能影響、關(guān)聯(lián)人群、替代方案等諸多內(nèi)容。相關(guān)分析參見(jiàn)Froomkin,A.M.(2015).Regulatingmasssurveillanceasprivacypollution:Learningfromenvironemntalimpactstatements.U.Ill.L.Rev.,1713.直到最后一個(gè)節(jié)點(diǎn)才被要求出具完整的環(huán)境影響陳述(EnvironmentalImpactStatementEIS都在前三個(gè)節(jié)點(diǎn)完成,并因此只承擔(dān)較輕的評(píng)價(jià)成本和負(fù)擔(dān)。NEPA若公眾仍然有不同意見(jiàn)則還可以提起訴訟并通過(guò)司法機(jī)構(gòu)來(lái)判斷環(huán)境影響評(píng)價(jià)結(jié)論的適當(dāng)與否。才可能實(shí)質(zhì)性推動(dòng)方案的改進(jìn)和優(yōu)化。存在差異。7但無(wú)論差異如何,環(huán)境影響評(píng)價(jià)作為一項(xiàng)影響評(píng)價(jià)制度范式的基本反映在已有研究與政策實(shí)踐之中。AINow201872003(社會(huì)科學(xué)版,202318(Pre-Acquisition、初步公開(kāi)(InitialAgencyDisclosureRequirement)(Comment當(dāng)程序訴訟(DueProcessChallengePeriod)、影響評(píng)價(jià)方案更新(RenewingAIAs疇(EstablishingScopeandDefineAppropriateBoundaryAroundAutomatedDesnste(PulcNotcefxstingandProposedAutomatedDecisionSystem)、內(nèi)部自評(píng)估各個(gè)維度的算法影響(InternalAgencySelf-AssessmentsonFairnessandotherDimensions)、為利(MeaningfulAINow(EuropeanParliamentaryResearchService,EPRS)20198由此也不難看出,EPRS方案更是全面沿襲了環(huán)境影響評(píng)估的制度框架與主要內(nèi)容。98https://openresearch.amsterdam/image/2018/6/12/aiareport2018.pdf9https://www.europarl.europa.eu/RegData/etudes/STUD/2019/624262/EPRS_STU(2019)624262_EN.pdfAINowEPRS評(píng)價(jià),其他模式的探索同樣必不可少。數(shù)據(jù)保護(hù)影響評(píng)估視角下的算法影響評(píng)價(jià)數(shù)據(jù)保護(hù)影響評(píng)估的制度框架基本上來(lái)源于歐盟《一般通用數(shù)據(jù)規(guī)定》(GeneralDataProtectionRegulation,GDPR)35(數(shù)據(jù)處理者ProtectionImpactAssessment,DPIA)DPIA(AIA)的關(guān)聯(lián)性29GDPRGDPR時(shí)的具體實(shí)踐11,以及理論界的法理分析1235DPIADPIA成為獨(dú)立的制度性要求。那么接下來(lái)的問(wèn)題便在于,DPIA其是否可以滿足算法影響評(píng)估的制度要求并回應(yīng)算法治理的諸多挑戰(zhàn)?從流程要求來(lái)講,DPIA可能措施、在全過(guò)程咨詢利益相關(guān)方、復(fù)審以在必要時(shí)重啟影響評(píng)估。1310WorkingPartyontheProtectionofPersonalData95/46/EC,GuidelinesonDataProtectionImpactAssessment(DPIA)andDeterminingWhetherProcessingis“LikelytoResultinaHighRisk”forthePurposesofRegulation2016/679,art.29,WP248(Apr.4,2017)11Kaminski,M.E.,&Malgieri,G.(2020).AlgorithmicimpactassessmentsundertheGDPR:producingmulti-layeredexplanations.Internationaldataprivacylaw,19-28.12Casey,B.,Farhangi,A.,&Vogl,R.RethinkingExplainableMachines:TheGDPR’s“RighttoExplanation”DebateandtheRiseofAlgorithmicAuditsinEnterprise’(2019).BerkeleyTechnologyLawJournal,34,143.13肖冬梅、譚禮格,《歐盟數(shù)據(jù)保護(hù)影響評(píng)估制度及其啟示》,《中國(guó)圖書(shū)館學(xué)報(bào)》,2018年9月上看,DPIA異。DPIA357條指出,數(shù)據(jù)處理者應(yīng)“展望”(measuresenvisaged)能夠控制數(shù)據(jù)權(quán)益風(fēng)險(xiǎn)的可能措施,但這并不完全等同DPIA29GDPRDPIA決于各成員國(guó)。14這一制度邏輯的關(guān)鍵在于,DPIA是建立在“回應(yīng)性監(jiān)管(Responsive(Collaborative等新型監(jiān)管理論(例如商業(yè)秘密DPIA管者(數(shù)據(jù)處理者)之間構(gòu)成了一種“委托-代理”關(guān)系,即監(jiān)管者作為公眾的步與被監(jiān)管者形成合作關(guān)系以共同探索應(yīng)對(duì)風(fēng)險(xiǎn)的積極措施。DPIAGDPRDPIA14https://ec.europa.eu/newsroom/article29/items/611236/en,P.1815McGeveran,W.(2016).Friendingtheprivacyregulators.Ariz.L.Rev.,58,959.16Kaminski,M.E.(2018).Binarygovernance:LessonsfromtheGDPR'sapproachtoalgorithmicaccountability.S.Cal.L.Rev.,92,1529.人工智能算法引起的倫理和社會(huì)風(fēng)險(xiǎn)AIA(Knowledge(KnowledgeProduction)”DPIAAIA的治理需求。18的環(huán)境下,DPIA更為困難實(shí)現(xiàn),同樣是值得進(jìn)一步探究的問(wèn)題,而非已經(jīng)形成確定答案的結(jié)果。問(wèn)題列表清單評(píng)估視角下的算法影響評(píng)估便是加拿大政府在2019年4月出臺(tái)施行的“自動(dòng)決策指令”(DirectiveonAutomatedDecision-making),其要求所有被用于行政決策領(lǐng)域的自動(dòng)決策系年都將被重新評(píng)估并更新。((littletono(moderate(highat(vryhmat(Perreviw17Mantelero,A.(2018).AIandBigData:Ablueprintforahumanrights,socialandethicalimpactassessment.ComputerLaw&SecurityReview,34(4),754-772.18Gellert,R.(2022).Comparingdefinitionsofdataandinformationindataprotectionlawandmachinelearning:Ausefulwayforwardtomeaningfullyregulatealgorithms?.Regulation&governance,16(1),156-176.性別等個(gè)體特征分析(Gender-basedAnalysisPlus)、通知(Notice)、人在環(huán)路(Human-in-the-loopfordecisions)、可解釋(Explanation)、記錄與測(cè)試(DocumentationandTraining)、連續(xù)性管理(ContinuityManagement)、準(zhǔn)(Approvalforthesystemtooperate)等八個(gè)方面提出了不同程度的治理策系統(tǒng)提出監(jiān)管約束,要求其對(duì)共性決策結(jié)果(commondecisionresults)提供的治理要求。601-4(rawimpact(mitigation。該系統(tǒng)的影響評(píng)估總得分是按照以下兩條原則來(lái)計(jì)算:如果風(fēng)險(xiǎn)預(yù)防評(píng)分小于80的最高可能得分,那么總得分就等于風(fēng)險(xiǎn)評(píng)分;如果風(fēng)險(xiǎn)預(yù)防評(píng)大于或等8085的風(fēng)險(xiǎn)評(píng)級(jí)也將越高。1948107。在要求對(duì)系統(tǒng)作出一般(data)”兩個(gè)子((19https://aia.guide/IT系統(tǒng)相交互、誰(shuí)在收集33csutatn(-riskigandtigatinmasurs(31個(gè)(GrBasedAnassPus(audit是否可以確認(rèn)所有關(guān)鍵決理等。20不難發(fā)現(xiàn),該列表清單基本上涵蓋了當(dāng)前算法影響評(píng)估利益相關(guān)方關(guān)心的主20https://open.canada.ca/data/en/dataset/aafdfbcd-1cdb-4913-84d5-a03df727680c究竟能否以及在多大程度上可被視為算法影響評(píng)估的理想模式?針對(duì)此問(wèn)題的回答可大致總結(jié)為以下兩方面。而下試圖框定評(píng)估過(guò)程的制度邏輯始終都將面臨算法治理風(fēng)險(xiǎn)信息不對(duì)稱以及(而非僅僅是解決治理問(wèn)題作為算法影響評(píng)估核心目標(biāo)之一的重要案究竟能在多大程度上反映現(xiàn)實(shí),仍然是值得反思的深刻問(wèn)題。21(每個(gè)答案究竟應(yīng)該被匹配以多少分?jǐn)?shù)對(duì)于不同不同算法治(針對(duì)不同問(wèn)題的答案都被以相同分?jǐn)?shù)加以對(duì)比。(例如就業(yè)保險(xiǎn)、殘疾認(rèn)證)”121一個(gè)典型案例例如加拿大列表清單在數(shù)據(jù)部分的問(wèn)題是“誰(shuí)收集了訓(xùn)練該系統(tǒng)所需要的輸入數(shù)據(jù)?”,該問(wèn)題的可選答案列表包括“機(jī)構(gòu)自身、另外的聯(lián)邦機(jī)構(gòu)、另外層級(jí)的政府、國(guó)外政府或第三方”。對(duì)此問(wèn)題及答案的質(zhì)疑在于,這四個(gè)答案選項(xiàng)能否概括所有數(shù)據(jù)收集主體,且國(guó)外政府或第三方在考慮數(shù)據(jù)收集治理風(fēng)險(xiǎn)時(shí)是可以等同的嗎?而在一個(gè)開(kāi)放模式下,評(píng)估問(wèn)題就會(huì)被開(kāi)放性地轉(zhuǎn)化為“請(qǐng)列舉訓(xùn)練該系統(tǒng)時(shí)所使用輸入數(shù)據(jù)的來(lái)源?”3都是列表清單模式所不能回答的關(guān)鍵問(wèn)題。不同模式的對(duì)比分析人工智能算法影響評(píng)價(jià)的國(guó)別特征:歐盟、美國(guó)、英國(guó)、加拿大與中國(guó)2.22.2考慮到代表性問(wèn)題,本節(jié)選擇歐盟、美國(guó)、英國(guó)、加拿大與中國(guó)作為分析對(duì)歐盟估的制度定位及政策內(nèi)涵,以勾勒出其治理特征與治理邏輯。歐盟人工智能治理的基本框架(GeneralDataProtectionAct,GPDR)(ArtificialIntelligenceAct)》為主干的治理框架,該法案一方面將在此之前所提出的不具有約束力的人工智能倫理治理原則轉(zhuǎn)化為了具有約束力的法律規(guī)則22,另一方面也調(diào)和了垂直領(lǐng)域的人工智能法律規(guī)則從而在制度層面實(shí)現(xiàn)了協(xié)同統(tǒng)一23。配以差異化的規(guī)制措施并尤其對(duì)高風(fēng)險(xiǎn)人工智能系統(tǒng)應(yīng)用提出了詳細(xì)而明確的規(guī)制要求。24正因?yàn)榇?,該法案的關(guān)鍵要素之一在于對(duì)人工智能系統(tǒng)進(jìn)行風(fēng)險(xiǎn)分((例如算法系統(tǒng)的使用頻率,潛在危害性,結(jié)果的可逆轉(zhuǎn)性等)。與風(fēng)險(xiǎn)分類緊密相關(guān)的是針對(duì)不同類別風(fēng)險(xiǎn)而提出差異化的治理要求,而22這主要體現(xiàn)為對(duì)歐盟高級(jí)別專家委員會(huì)(HighLevelExpertGroup,HLEG)提出的“可信賴人工智能倫理原則(EthicsGuidelinesforTrustworthyAI)”,以及歐盟發(fā)布的“人工智能白皮書(shū)(WhitePaperonAI)”、“歐盟人工智能戰(zhàn)略(EuropeanAIStrategy)”等倫理治理原則、主張、戰(zhàn)略的法律轉(zhuǎn)化,將其中本不具有約束力、主要體現(xiàn)倡議功能的治理?xiàng)l款轉(zhuǎn)化為需要嚴(yán)格執(zhí)行的法律條款。23(ctadAIiabiitye(acieyelaion(GeealctSaetyirectie《通用數(shù)據(jù)保護(hù)指令GeealDataectinDirectve(DigitlaetsAct》和《數(shù)字服務(wù)法案(DigitlSevicesAct》等。24被歸類為不可接受風(fēng)險(xiǎn)的人工智能系統(tǒng)將被禁止使用,而低風(fēng)險(xiǎn)人工智能系統(tǒng)往往被免于規(guī)制要求,因而主要的規(guī)制措施都是針對(duì)高風(fēng)險(xiǎn)系統(tǒng)及其應(yīng)用。(或系統(tǒng)上線提供服務(wù)crmtyasssst(caratnfcrmty立“人工智能委員會(huì)或辦公室(AIBoardorAIOffice)”以為歐盟及成員國(guó)的國(guó)LiabilityDirective)》引入了“過(guò)錯(cuò)原則”,即當(dāng)被發(fā)現(xiàn)存在權(quán)益侵害時(shí)歐盟人工智能算法影響評(píng)估的制度邏輯法案中作為制度基礎(chǔ)的重要作用。一方面,法案要求高風(fēng)險(xiǎn)人工智能系統(tǒng)在投入使用前應(yīng)執(zhí)行“合規(guī)性評(píng)估(ConformityAssessments)”,即需要按照現(xiàn)行法律規(guī)則來(lái)評(píng)估該系統(tǒng)是否滿的設(shè)計(jì)與應(yīng)用是否符合該標(biāo)準(zhǔn)要求。25另一方面,《人工智能法案》更全面體現(xiàn)算法影響評(píng)估的機(jī)制設(shè)計(jì)是在其2023這便主要體現(xiàn)為在法案中明確加入了基本25https://ject-sherpa.eu/conformity-assessment-or-impact-assessment-what-do-we-need-for-ai/26/2023/11/13/a-deeper-look-into-the-eu-ai-act-trilogues-fundamental-rights-impact-assessments-generative-ai-and-a-european-ai-office/權(quán)利影響評(píng)估(FundamentalRightsImpactAssessments,FRIA)299項(xiàng)針對(duì)該系統(tǒng)使用目的的明確說(shuō)明(國(guó)規(guī)定的基本權(quán)利相一致的證明;(e)本權(quán)利影響評(píng)估的結(jié)果要求向監(jiān)管機(jī)構(gòu)以及利益相關(guān)方匯報(bào)或分享。與《通用數(shù)據(jù)保護(hù)指令(GDPR)(DPIA)”29FRIA和DPIAGDPR要求人工智能系統(tǒng)提供者開(kāi)展DPIAFRIADPIA(特別是關(guān)于在該系統(tǒng)特定的使用目標(biāo)和使用背景下)。于其他影響評(píng)估(DPIA),DPIA(系統(tǒng)的能源消耗問(wèn)題(具體是指法律規(guī)則歐盟人工智能算法影響評(píng)估的總結(jié)與反思(ConformityAssessment)都存在不可忽視的缺陷與短板,并因此引起了諸多反思與批評(píng)。以促進(jìn)實(shí)質(zhì)治理目標(biāo)的實(shí)現(xiàn)。27一方面,考慮到人工智能治理法律制度尚在發(fā)展立法初衷。正因?yàn)榇?,批評(píng)者往往提出建議,認(rèn)為應(yīng)刪除基本影響評(píng)估條款。2827https://ject-sherpa.eu/conformity-assessment-or-impact-assessment-what-do-we-need-for-ai/28https:///resources/ai-act-trilogues-a-vision-for-future-proofing-governance-and-innovation-in-europe/能。29在批評(píng)者看來(lái),這一規(guī)定可能產(chǎn)生制度漏洞,例如大型數(shù)字平臺(tái)企業(yè)可以開(kāi)基本權(quán)利影響評(píng)估的前提下測(cè)試、應(yīng)用高風(fēng)險(xiǎn)人工智能。30加拿大(ArtificialIntelligenceandDataAct,AIDA)以及已經(jīng)施行的《自動(dòng)決策指令》(DirectiveonAutomatedDecision-Making,(anarochs)制思路,并形成了一系列的制度設(shè)計(jì)。加拿大人工智能治理的基本框架AIDADADMAIDA是由信息、科學(xué)和產(chǎn)業(yè)部(MinisterofInnovationScienceandIndustry,MISI)在20226月作為《數(shù)字憲章實(shí)施法案》(DigitalCharterImplementationAct,DCIA29https://artificialintelligenceact.eu/wp-content/uploads/2023/08/AI-Mandates-20-June-2023.pdf30https://www.socialeurope.eu/the-ai-act-deregulation-in-disguise,388d31https://ised-isde.canada.ca/site/innovation-better-canada/en/artificial-intelligence-and-data-act-aida-companion-document新與產(chǎn)業(yè)應(yīng)用??紤]到人工智能與數(shù)據(jù)的緊密關(guān)聯(lián),AIDA便作為重要組成部分納入到了DCIA322019年4決策水平。從制度內(nèi)容來(lái)講,AIDA人工智能應(yīng)用的規(guī)制問(wèn)題。但與歐盟不同,AIDA使如此,AIDA用環(huán)境的分化結(jié)構(gòu),以及在現(xiàn)有法律框架下能夠被有效規(guī)制的程度等。33圍繞這幾個(gè)維度,AIDA(armstonvuas(ased估中較為寬泛地將環(huán)境、財(cái)產(chǎn)權(quán)、人權(quán)等包括在內(nèi)的立法思路,AIDA問(wèn)題集合顯得更為聚焦和狹窄。不過(guò)根據(jù)加拿大信息、科學(xué)和產(chǎn)業(yè)部的規(guī)劃,AIDA202534而這也意味著該框架下的“高影響”人工智能范疇究竟將包括哪些內(nèi)容仍然還存在較大不確定性。DADM同樣沿襲了風(fēng)險(xiǎn)分類的治理框架,但其并不僅僅針對(duì)“高影響”自動(dòng)32https://ised-isde.canada.ca/site/innovation-better-canada/en/artificial-intelligence-and-data-act-aida-companion-document33https://ised-isde.canada.ca/site/innovation-better-canada/en/artificial-intelligence-and-data-act-aida-companion-document34https://ised-isde.canada.ca/site/innovation-better-canada/en/artificial-intelligence-and-data-act-aida-companion-documentDADM為無(wú)影響(littletonoimpact)、有限影響(moderateimpact)、高影響(high(veryhighDADM定差異。加拿大決策者采取了公、私分立的監(jiān)管態(tài)度,AIDAAIDA(High人工(Conformity影響評(píng)估,并根據(jù)評(píng)估結(jié)果來(lái)匹配相應(yīng)的規(guī)制措施。加拿大人工智能算法影響評(píng)估的制度邏輯IDA和DADM都將其納入制度范疇,并扮演了基礎(chǔ)性作用。AIDAAIDA索與回答。2.2.32.2.3節(jié)已對(duì)此做了較為充分的分析,本節(jié)不再贅述。加拿大人工智能算法影響評(píng)估的總結(jié)與反思而不對(duì)其他類型作出區(qū)分。第二(例如基本權(quán)利影響評(píng)估制度影響評(píng)估責(zé)任。AIDA管環(huán)境。第三,加拿大較為明顯地體現(xiàn)出了將國(guó)內(nèi)治理與全球治理緊密聯(lián)系在一起的立法態(tài)度。AIDA規(guī)負(fù)擔(dān)。的人工智能算法影響評(píng)估制度框架的不足,這又具體體現(xiàn)在以下兩方面。一方面,批評(píng)者認(rèn)為加拿大人工智能立法(AIDA)智能產(chǎn)業(yè)或企業(yè)而輕視了基本權(quán)益保護(hù)。AIDA因而應(yīng)由其他部門(mén)代替。35DADM能并不能有效應(yīng)對(duì)人工智能風(fēng)險(xiǎn)治理要求輯,且其內(nèi)在制度邏輯的一致性同樣遭受頗多質(zhì)疑。在此背景下,AIDADADM也為加拿大人工智能治理制度帶來(lái)了不確定性,反而不利于產(chǎn)業(yè)發(fā)展。美國(guó)效,及其未來(lái)的動(dòng)態(tài)更新是我們需要關(guān)注的重點(diǎn)內(nèi)容。美國(guó)人工智能治理的基本框架性的治理規(guī)則文本或治理行動(dòng)。人工智能的治理規(guī)范來(lái)引導(dǎo)私人部門(mén)治理進(jìn)程的內(nèi)在影響機(jī)制。對(duì)于公共部門(mén)的人工智能治理而言,主要以特朗普、拜登政府連續(xù)發(fā)布的行35https:///practice-areas/privacy-and-data/critics-say-artificial-intelligence-and-data-act-needs-to-focus-more-on-rights-not-just-business/380552政命令為主,并以此為基礎(chǔ)進(jìn)一步延伸至聯(lián)邦管理與預(yù)算辦公室(OfficeofManagementandBudgetOMB)發(fā)布的更為系統(tǒng)的“促進(jìn)聯(lián)邦機(jī)構(gòu)推動(dòng)人工智能治理、創(chuàng)新、風(fēng)險(xiǎn)管理的備忘錄”(ProposedMemorandumfortheHeadsofExecutiveDepartmentsandAgenciesonAdvancingGovernanceInnovationandRiskManatrAyUseofArtfcalInteice(。201913859域的領(lǐng)先地位》(ExecutiveOrder13859:MaintainingAmericanLeadershipinArtificial(ExecutiveOrder13960:PromotingtheUseofTrustworthyAIintheFederal2022(BlueprintforanAIBillofRightsBOR),確定了在人工智能應(yīng)用時(shí)代保護(hù)美國(guó)公眾權(quán)利與自由的36從在整個(gè)治理框架中的定位來(lái)看,BORGuidelinesforTrustworthy202310OrderonSafeSecureandTrustworthyDevelopmentandUseofArtificialIntelligence),而在該行政命令發(fā)OMB辦公室即發(fā)布了“備忘錄”草案以征求公眾意見(jiàn)。6具體包括安全與有效系統(tǒng)(SeadEectieStem、算法歧視保護(hù)(AlgoitcDicimatiecti、數(shù)據(jù)隱私(Dataivacy、通知與可解釋(NiceadEaatin、人為決策作為可選項(xiàng)(HumanAlternatives,ConsiderationandFallback)等五項(xiàng)。復(fù)提出(201920222023三次被提案)案》(AlgorithmAccountabilityAct,AAA),以及由國(guó)家標(biāo)準(zhǔn)和技術(shù)研究所(NationalInstituteofStandardsandTechnologyNIST)提出的“人工智能風(fēng)險(xiǎn)管理框架”(AIRiskManagementFramework,AIRMF)一般性人工智能應(yīng)用而形成的治理文本,但在AAA立法通過(guò)之前,二者都不具有約束力,而只是作為鼓勵(lì)私人部門(mén)采用的自愿性、引導(dǎo)性文本。criticaldecisionAAAcomputinginfrastructure)FeralTradeossnFTC作為監(jiān)管機(jī)構(gòu)而非單獨(dú)設(shè)立,在FTC37值得注意的是,AAAAAA本報(bào)告將在下一節(jié)做更詳細(xì)的描述。上述分析都體現(xiàn)了美國(guó)試圖在人工智能治理方面構(gòu)建跨領(lǐng)域一般性規(guī)制框架的努力,但這并非美國(guó)決策者的唯一特征,特別是考慮到上述框架都尚未被上37https:///blog/us-algorithmic-accountability-act38/title-v/article-55/(國(guó)會(huì)對(duì)的,是美國(guó)各垂直領(lǐng)域監(jiān)管者對(duì)人工智能創(chuàng)新應(yīng)用而引發(fā)新挑戰(zhàn)的回應(yīng)。例如,F(xiàn)TC2021方面的適用性進(jìn)行了解釋,其主要關(guān)注了三點(diǎn)。39第一,F(xiàn)TC法案(FTCAct)在該法案范疇內(nèi);第二,公平信用報(bào)告法案(FairCreditReportingAct,FCRA)(評(píng)級(jí)(EqualCreditOpportunityAct)FTC體現(xiàn)了美國(guó)試圖強(qiáng)化在垂直領(lǐng)域解決人工智能治理問(wèn)題的努力。換言之,無(wú)論AAAFC框架推進(jìn)人工智能治理工作。美國(guó)人工智能算法影響評(píng)估的制度邏輯39https:///business-guidance/blog/2021/04/aiming-truth-fairness-equity-your-companys-use-ai和私人部門(mén)的治理框架之中。OMB202310出了算法影響評(píng)估的關(guān)鍵地位。40該備忘錄提出了強(qiáng)化人工智能治理體系(StrengtheningAIGovernance)、促進(jìn)負(fù)責(zé)任人工智能創(chuàng)新(AdvancingResponsibleAIInnovation)、管理人工智能應(yīng)用風(fēng)險(xiǎn)(ManagingRisksfromtheUseof一是要求聯(lián)邦部門(mén)在決定應(yīng)用人工智能時(shí)需要采取“成本-收益”分析,在證明40https:///wp-content/uploads/2023/11/AI-in-Government-Memo-draft-for-public-review.pdf規(guī)制要求的提出(以列表清單式)等方面仍然體現(xiàn)了差異化特點(diǎn)。AAA11(PrcssEvauatn(Stakeholder(Privacy(Performance(對(duì)使用者的(TrainingandEducation)、防護(hù)與使用限制(GuardrailsandLimitations)、數(shù)據(jù)記錄(Data(RightsTransparencyandExplainability)(NegativeImpactAssessment)本記錄(DocumentationandMilestones)、優(yōu)化決策的資源儲(chǔ)備(Resource41AAA美國(guó)人工智能算法影響評(píng)估的總結(jié)與反思主要特征。這也有別于歐盟路徑。41https:///blog/us-algorithmic-accountability-act是政府采購(gòu)等。需要進(jìn)一步的觀察。英國(guó)英國(guó)人工智能治理的基本框架apro-innovationapproachtoregulatingAI)的政策報(bào)告中。(thisGuensfrTrustworthy(BlueprintforanAIBillofRightsBOR)智能治理的基本原則作出闡釋(的具體內(nèi)容該報(bào)告將英國(guó)人工智能治理框架命名為“促進(jìn)創(chuàng)新的治理路徑(ANewPro-42https://.uk/government/publications/establishing-a-pro-innovation-approach-to-regulating-ai/establishing-a-pro-innovation-approach-to-regulating-ai-policy-statementinnovation(Context-(Pro-innovationand(Proportionateand(actualimpact)味著英國(guó)將采取同歐盟、加拿大相類似的主要聚焦“高風(fēng)險(xiǎn)/寬泛監(jiān)管原則與建設(shè)協(xié)同性監(jiān)管機(jī)構(gòu)這兩個(gè)層面?;A(chǔ)原則:確保人工智能應(yīng)用的安全性(EnsurethatAIisusedsafely)、確保人工智能在技術(shù)上是安全的并按照既定功能在運(yùn)行(EnsurethatAIistechnicallysecureandfunctionsasdesigned)、確保人工智能在合適層面上是透明的且可被解釋(MakesurethatAIisappropriatelytransparentandexplainable)、將公(Embedconsiderationsoffairnessinto(Definelegalpersons’responsibilityforAI為救濟(jì)或抗?fàn)幪峁┟鞔_渠道(Clarifyroutestoredressorcontestability)。除了共性原則的基礎(chǔ)性、寬泛性要求之外,英國(guó)還建立了“數(shù)字監(jiān)管合作論壇”(DigitalRegulationCooperationForum,DRCF)這一跨部門(mén)協(xié)同機(jī)制。43在20206(The?CompetitionandMarketsAuthority,信息委員會(huì)辦公室(InformationCommissioner’sOffice,ICO)以及通信辦公室(OfficeofCommunication)DRCF,隨后金融指導(dǎo)機(jī)構(gòu)(FinancialConductAuthority,FCA)20214DRCF究,也包括分享監(jiān)管經(jīng)驗(yàn)和標(biāo)桿實(shí)踐案例等。120244劃。44與釋放創(chuàng)新》政策報(bào)告45,全面闡釋了該部門(mén)將要推行的監(jiān)管改革創(chuàng)新,將積極促進(jìn)創(chuàng)新(activelypromoteinnovation)、實(shí)現(xiàn)向前看且前后一致的監(jiān)管結(jié)果(achieveforward-lookingandcoherentoutcomes)(Exploitopportunitiesandaddresschallengesintheinternationalarena)(調(diào)“十項(xiàng)技術(shù)優(yōu)先戰(zhàn)略”46)、對(duì)于促進(jìn)中小企業(yè)創(chuàng)新(43https://.uk/government/collections/the-digital-regulation-cooperation-forum44https://.uk/government/news/uk-signals-step-change-for-regulators-to-strengthen-ai-leadership45https://.uk/government/publications/digital-regulation-driving-growth-and-unlocking-innovation/digital-regulation-driving-growth-and-unlocking-innovation46TenTechPriorities,包括建設(shè)世界領(lǐng)先的數(shù)字基礎(chǔ)設(shè)施(Rollingoutworld-classdigitalinfrastructureatiide、釋放數(shù)據(jù)潛能(locingthepoerfata、建設(shè)技術(shù)常識(shí)國(guó)家(Bilgaec-avvyati、保持在線安全(eepingtheKaeadeceine、開(kāi)啟創(chuàng)新創(chuàng)業(yè)新階段(Fueligaeweaftatupsadclep、釋放技術(shù)和人工智能的變革能力(leaingthetaatialpoerftechadI、促進(jìn)自由和公平數(shù)字貿(mào)易(CageadairtaltaeLeagtealconveatinntech(eveingpialppeityacsthe、推動(dòng)數(shù)字創(chuàng)新賦能零排放(ingitalinatintoeachNeteo)等十項(xiàng),參見(jiàn)單位作為新型監(jiān)管機(jī)構(gòu)以限制大企業(yè)市場(chǎng)壟斷能力47)等的政策偏好。當(dāng)然,對(duì)創(chuàng)新的核心目的。(AIAssuranceforDataEthicsandInnovation,CDEI)AI戰(zhàn)略(NationalAIStrategy)的要求下發(fā)布了“人工智能保證生態(tài)系統(tǒng)路線圖(AIAssuranceEcosystemRoadmap)”,對(duì)英國(guó)在該領(lǐng)域的改革措施做出了全面規(guī)劃。48該路核心位置,更具體的內(nèi)容將在下一小節(jié)得到闡釋。英國(guó)人工智能算法影響評(píng)估的制度邏輯/Our-Ten-Tech-Priorities/index.html47https://.uk/government/collections/digital-markets-unit48https://.uk/government/publications/the-roadmap-to-an-effective-ai-assurance-ecosystem/the-roadmap-to-an-effective-ai-assurance-ecosystem制中仍然占據(jù)著重要位置?!叭斯ぶ悄鼙WC生態(tài)系統(tǒng)路線圖(AIAssuranceEcosystemRoadmap)”文(ImpactEvaluation)50(Bias(Compliance(ConformityAsssst(PrrmanceTstin(Formalrictin)56等八種。57但值得注意的是,該路線圖并沒(méi)有對(duì)不同領(lǐng)域監(jiān)管框架下,需要進(jìn)行采用此種工具仍然是屬于各領(lǐng)域監(jiān)管者自由裁量的權(quán)限范疇。在英國(guó)政府層面發(fā)布的與人工智能算法影響評(píng)估相關(guān)的文件是由數(shù)字監(jiān)管合作論壇機(jī)制發(fā)布的政策報(bào)告《審計(jì)算法:當(dāng)前進(jìn)展、監(jiān)管者角色和未來(lái)展望》49被用于預(yù)測(cè)該系統(tǒng)對(duì)環(huán)境、平等性、人權(quán)、數(shù)據(jù)保護(hù)或其他產(chǎn)出的影響(Usedtoanticipatetheeffectofasystemonenvironmental,equality,humanrights,dataprotection,orotheroutcomes)50類似于影響評(píng)估,但是在事后以反思性形式展開(kāi)(Similartoimpactassessments,butareconductedafterasystemhasbeenimplementedinaretrospectivemanner).51對(duì)算法系統(tǒng)的輸入和輸出進(jìn)行評(píng)估以確定其是否會(huì)產(chǎn)生不公平的偏差(Assessingtheinputsandoutputsofalgorithmicsystemstodetermineifthereisunfairbiasintheinputdata,theoutcomeofadecisionorclassificationmadebythesystem.)52對(duì)開(kāi)發(fā)、應(yīng)用人工智能系統(tǒng)的法人主體的內(nèi)部流程或外部合規(guī)性要求進(jìn)行審計(jì)(Areviewofacompany’sadherencetointernalpoliciesandprocedures,orexternalregulationsorlegalrequirements.Specialisedtypesofcomplianceauditincludesystemandprocessauditsandregulatoryinspection)53由獨(dú)立主體證實(shí)某個(gè)產(chǎn)品、服務(wù)或組織是否滿足特定治理要求(Aprocesswhereanindependentbodyatteststhataproduct,service,organisationorindividualhasbeentestedagainst,andmet,objectivestandardsofqualityorperformance)54證明某個(gè)產(chǎn)品、服務(wù)或系統(tǒng)滿足特定要求,其包括測(cè)試、監(jiān)測(cè)、認(rèn)證等多個(gè)環(huán)節(jié)(Providesassurancethataproduct,serviceorsystembeingsuppliedmeetstheexpectationsspecifiedorclaimed,priortoitenteringthemarket.Conformityassessmentincludesactivitiessuchastesting,inspectionandcertification.)55對(duì)系統(tǒng)滿足預(yù)先確定的量化指標(biāo)的程度進(jìn)行評(píng)估(Usedtoassesstheperformanceofasystemwithrespecttopredeterminedquantitativerequirementsorbenchmarks)56使用正式的統(tǒng)計(jì)學(xué)方法對(duì)系統(tǒng)滿足特定要求的程度進(jìn)行解釋說(shuō)明(Establisheswhetherasystemsatisfiessomerequirementsusingtheformalmethodsofmathematics)57https://.uk/guidance/cdei-portfolio-of-ai-assurance-techniques(Auditingalgorithms:theexistinglandscape,roleofregulatorsandfutureoutlook)58DRCF架等重要問(wèn)題進(jìn)行了回答。(GovernanceAudit)(Empirical(Technical慮其具體影響,技術(shù)審計(jì)則進(jìn)一步切入系統(tǒng)內(nèi)部以發(fā)現(xiàn)代碼本身問(wèn)題。DRCF啟動(dòng)條件(Statingwhenauditsshouldhappen)、確立算法審計(jì)的最佳示范(EstablishingStandardsandBestPractice)(Actasanlrrttrauts9sureactonstakentoaddressharmsidentifiedinanaudit)、對(duì)可能誤導(dǎo)的審計(jì)結(jié)果進(jìn)行糾正或解釋(Identifyingandtacklingmisleadingclaims)等。英國(guó)人工智能算法影響評(píng)估的總結(jié)與反思特征。58https://.uk/government/publications/findings-from-the-drcf-algorithmic-processing-workstream-spring-2022/auditing-algorithms-the-existing-landscape-role-of-regulators-and-future-outlook59例如增強(qiáng)算法系統(tǒng)的可接入性以使得更多利益相關(guān)方能更有效的參與算法審計(jì)。領(lǐng)域監(jiān)管者提供參考。國(guó)以“促進(jìn)創(chuàng)新”作為人工智能治理主要思路的基本原則。中國(guó)智能新出現(xiàn)議題的敏捷回應(yīng),而這也構(gòu)成了當(dāng)前中國(guó)人工智能治理的新特色。中國(guó)人工智能治理的基本框架2017(簡(jiǎn)稱《規(guī)劃》)了豐富成果。20192620219201910202062022倫理治理的立場(chǎng)文件》、2023見(jiàn)類型移動(dòng)互聯(lián)網(wǎng)應(yīng)用程序(App)20217(202112成管理規(guī)定》(2022年12月發(fā)布)、《生成式人工智能服務(wù)管理暫行辦法》(20237月發(fā)布)應(yīng)用者的實(shí)質(zhì)性規(guī)制約束要求。中國(guó)人工智能算法影響評(píng)估的制度邏輯(這也成為中國(guó)人工智能治理區(qū)別于他國(guó)的重要特征。(202231日上線20235100余家平臺(tái)公司已經(jīng)就262種算法提交了備案信息,從而真正落實(shí)了算法備案這一制度要求。尚未出臺(tái)。中國(guó)人工智能算法影響評(píng)估的總結(jié)與反思(例如人工智能算法的環(huán)境影響是否是被評(píng)估對(duì)象(例如是否只關(guān)注評(píng)估結(jié)果為高風(fēng)險(xiǎn)的人工智能治理議題(例如是否要求評(píng)估結(jié)果可公開(kāi)以及向哪些利益相關(guān)方公開(kāi)(人工智能算法影響評(píng)價(jià)的治理邏輯:監(jiān)管者與被監(jiān)管者的合作(問(wèn)題列表清單評(píng)價(jià)模式(人工智能算法影響評(píng)價(jià)究竟如何實(shí)現(xiàn)其治理邏輯,而何種因素又將影響其治理邏輯的實(shí)現(xiàn)與否?“市場(chǎng)-政府”的二分邊界,而將監(jiān)管觸手延伸至了市場(chǎng)主體內(nèi)部,并同時(shí)將聚(智能算法影響評(píng)價(jià)治理實(shí)踐的具體運(yùn)行?(Collaborative視角下的人工智能算法影響評(píng)價(jià)(監(jiān)管者與被監(jiān)管者及第三方等然使得協(xié)同治理理論可被視為算法影響評(píng)估的理論基礎(chǔ)之一。協(xié)同治理理論往往是作為介于政府規(guī)制(regulation)(self-regulation)之間的第三條道路而出現(xiàn),試圖通過(guò)避免二者弱點(diǎn)以實(shí)現(xiàn)更大的監(jiān)(特別是作為被監(jiān)管對(duì)象的私人主體同時(shí)要求從結(jié)果監(jiān)管轉(zhuǎn)向過(guò)程監(jiān)管乃至延伸至被監(jiān)管者的生產(chǎn)治理過(guò)程以回應(yīng)治理理論的理論假設(shè)能否成立的關(guān)鍵,這在具體機(jī)制層面則涉及“靈活性”(flexibility)與“責(zé)任性”(accountability)的平衡。它們都意味著僅僅依靠政府部門(mén)作為規(guī)制者已經(jīng)不能滿足日益復(fù)雜環(huán)境的治理(私人部門(mén)(公共部門(mén)(例如信息公開(kāi)(例如非歧視的治理責(zé)任。但在很多時(shí)候,靈活性與責(zé)任性是相互沖突(或者此消彼長(zhǎng))的60,并因主要體現(xiàn)為以下三種類別。60Estlund,C.(2005).RebuildingtheLawoftheWorkplaceinanEraofSelf-Regulation.Colum.L.Rev.,105,319.(Transparency),通過(guò)將監(jiān)管信息向公眾開(kāi)放以(escalating(penalty而監(jiān)管者更是可以與被監(jiān)管者“合作”以共同避免達(dá)到自動(dòng)觸發(fā)條件。管者個(gè)體施加約束條件。(,了協(xié)同治理的理論內(nèi)涵及理論要求。61Ayres,I.,&Braithwaite,J.(1991).Tripartism:Regulatorycaptureandempowerment.Law&SocialInquiry,16(3),435-496.62Sabel,C.,&Simon,W.H.(2017).Democraticexperimentalism.SearchingforContemporaryLegalThought(CambridgeandNewYork,CambridgeUniversityPress,2017),ColumbiaPublicLawResearchPaper,(14-549).2.2.1節(jié)討論的環(huán)境影響評(píng)價(jià)“四個(gè)關(guān)鍵點(diǎn)”事能將被監(jiān)管對(duì)象拉入“監(jiān)管合作”空間而非走向針?shù)h相對(duì)。不過(guò)同樣值得注意的是,協(xié)同治理看似完整、精巧的理論設(shè)計(jì)并不代表其必然能夠有效,其不足仍然十分明顯,并主要體現(xiàn)在以下兩點(diǎn)。一方面,從本質(zhì)上講,協(xié)同治理在實(shí)踐中往往被視為一個(gè)程序性要求(proceduralrequirement)而非實(shí)質(zhì)性要求(substantiverequirement)。這一傾向在美國(guó)環(huán)境影響評(píng)價(jià)制度的實(shí)踐中被最高法明確地表達(dá)并被執(zhí)行了下去。NEPA在法律上同時(shí)包含了程序性要求和實(shí)質(zhì)性要求64與行政權(quán)力分割邊界的尊重,美國(guó)司法機(jī)構(gòu)不愿意干涉行政決策過(guò)程65,因而其并不對(duì)案件中聯(lián)邦機(jī)構(gòu)所開(kāi)展環(huán)境影響評(píng)價(jià)工作能否實(shí)現(xiàn)環(huán)境保護(hù)目標(biāo)的實(shí)質(zhì)(即忽視了環(huán)境保護(hù)這一實(shí)質(zhì)性目標(biāo)的實(shí)現(xiàn)與否66,而這也構(gòu)成了我們對(duì)影響評(píng)估這一類制度究竟能否實(shí)現(xiàn)實(shí)質(zhì)性目標(biāo)的擔(dān)憂和質(zhì)疑。(因此將其納入“協(xié)同”范疇,誰(shuí)掌握監(jiān)管信息,如何能夠推動(dòng)監(jiān)管者與被監(jiān)管63Orts,E.W.(2019).Reflexiveenvironmentallaw.EnvironmentalLaw,347-460.64NEPA中的程序性要求條款較多,實(shí)質(zhì)性要求條款主要是第101款(Section101)以及第102款第1條(Sectin12(1)t,N.C190).NEA'se-atiallyFulfile.Evtl.,03.65在相關(guān)判決書(shū)中,最高法法官提出司法不能成為行政決策的一個(gè)環(huán)節(jié)(decision-makingunitoftheaecyFeete192).eitaizingtheNaionalEvietalicyAct:SbativeAdaptationsfromNEPA'sProgeny.Harv.Envtl.L.Rev.,16,207.P.218.66Yost,N.C.(1990).NEPA'sPromise-PartiallyFulfilled.Envtl.L.,20,533;Hodas,D.R.(1999).NEPA,EcosystemManagementandEnvironmentalAccounting.Nat.Resources&Env't.,14,185.局限性的考量仍然需要被納入到人工智能算法治理的整體框架之中。管理主義(Managerialism)視角下的人工智能算法影響評(píng)價(jià)(例如能否確認(rèn)利益相關(guān)方范疇等技術(shù)性問(wèn)題,還在于制度邏輯層面。3.1(評(píng)價(jià)制度(特殊性,還在于協(xié)同治理(或算法影響評(píng)價(jià))作為管理主義的具體體現(xiàn)而包含(Managerial)面展現(xiàn)出其治理邏輯的優(yōu)勢(shì)與不足。20(Neo-Liberalism”意識(shí)形態(tài)緊密關(guān)聯(lián),而在此理論關(guān)聯(lián)6820紀(jì)早期的社會(huì)危機(jī)引發(fā)了公眾對(duì)于“自由放任資本主義(laissezfairecapitalis”的不滿,但西方理論家同時(shí)也對(duì)走向集體主義、社會(huì)主義的革命67Cohen,J.E.(2019).Betweentruthandpower.OxfordUniversityPress.p.143.68Hanlon,G.(2018).Thefirstneo-liberalscience:Managementandneo-liberalism.Sociology,52(2),298-315.EltonMayo(MaxWeber系化的理論框架。(spontaneouscooperation,即既能以分散化自由決策為基礎(chǔ)(從而發(fā)揮,同時(shí)也能實(shí)現(xiàn)集體生產(chǎn)的規(guī)模(從而避免市場(chǎng)對(duì)社會(huì)的排擠方面通過(guò)管理者作為精英的知識(shí)創(chuàng)造來(lái)設(shè)計(jì)出“常規(guī)性合作(routinecooperatio20干涉、強(qiáng)調(diào)個(gè)體間競(jìng)爭(zhēng)、精英領(lǐng)導(dǎo)的必要性。71((69Hanlon,G.(2018).Thefirstneo-liberalscience:Managementandneo-liberalism.Sociology,52(2),p.10.70如其所指出,資本主義與國(guó)家官僚利益集團(tuán)之間的聯(lián)盟是對(duì)市場(chǎng)競(jìng)爭(zhēng)的巨大威脅。參見(jiàn)Hanlon,G.(2018).Thefirstneo-liberalscience:Managementandneo-liberalism.Sociology,52(2),p.12.71Hanlon,G.(2018).Thefirstneo-liberalscience:Managementandneo-liberalism.Sociology,52(2),298-315.;第三,精英作為管理者的領(lǐng)導(dǎo)與組織工作,對(duì)于實(shí)現(xiàn)前二72而這又主要體現(xiàn)在兩個(gè)方面。(或新自由主義利于后者的實(shí)現(xiàn)。73這一批評(píng)尤其在數(shù)字時(shí)代可能將更為凸顯。喬治敦大學(xué)法學(xué)教授朱莉·E·科恩將信息資本主義(informationalcapitalism)(problemofintangibleharmsproblemofnumerosity者權(quán)益等議題卻幾乎被忽略。74在管理主義的理論視角下,這一分化幾乎是不可避免的,親市場(chǎng)的制度規(guī)范將自然限制社會(huì)性政策目標(biāo)的實(shí)現(xiàn)。(或新自由主義為前述三個(gè)管理主義核心特征之外的第四個(gè)關(guān)鍵機(jī)制。7572Hanlon,G.(2018).Thefirstneo-liberalscience:Managementandneo-liberalism.Sociology,52(2),p.5.73Cohen,J.E.(2019).Betweentruthandpower.OxfordUniversityPress.p.155.(stating,managerialismasaformofinstitutionaldisciplinethathasgraduallybutinexorablysweptthejudicialsystemintoitsorbit)74Cohen,J.E.(2019).Betweentruthandpower.OxfordUniversityPress.p.145.75/s/EkIGffk1Zxv8UxIT5oK7QQ模糊(甚至替代)治理目標(biāo)的“托詞”。邏輯很可能是難以成立的。2.3法影響評(píng)估的主要標(biāo)的仍然聚焦消費(fèi)者法定權(quán)益(包括隱私權(quán)、價(jià)格歧視等議題分化、議題偏差現(xiàn)象。也逐漸發(fā)現(xiàn)人工智能倫理治理原則并沒(méi)有在事實(shí)上改變技術(shù)人員的開(kāi)發(fā)與應(yīng)用更多資源來(lái)消除惡臭76得到用戶的明確同意77會(huì)影響企業(yè)或個(gè)人等一線主體的治理行為?(social(economicconstraints)雙重約束條件下的理性選擇。78例如在針對(duì)卡車產(chǎn)業(yè)的環(huán)境影響治理行為研究中.3(policyentrepreneurs)”表明,公平人工智能(AIFairness)研究往往是企業(yè)內(nèi)部個(gè)別倡議者推動(dòng)臨時(shí)性76Gunningham,N.,Kagan,R.A.,&Thornton,D.(2004).Sociallicenseandenvironmentalprotection:whybusinessesgobeyondcompliance.Law&SocialInquiry,29(2),307-341.77https:///sites/kateoflahertyuk/2021/01/31/apples-stunning-ios-14-privacy-move-a-game-changer-for-all-iphone-users/78Gunningham,N.,Kagan,R.A.,&Thornton,D.(2004).Sociallicenseandenvironmentalprotection:whybusinessesgobeyondcompliance.Law&SocialInquiry,29(2),307-341.79Thornton,D.,Kagan,R.A.,&Gunningham,N.(2009).Whensocialnormsandpressuresarenotenough:Environmentalperformanceinthetruckingindustry.Law&SocietyReview,43(2),405-436.議程的結(jié)果,而并不一定是企業(yè)自上而下的有組織行為。80正因?yàn)榇耍徒M織管段。3.3. 制度同化(InstitutionalIsomorphism)價(jià)采納超出規(guī)制要求的治理行為,3.23.3自利主體為基礎(chǔ),試圖尋找影響被監(jiān)管者“成本-收益”計(jì)算的相關(guān)因素,并在合開(kāi)展算法影響評(píng)價(jià)的合規(guī)行為。但制度主義的分析路徑不僅僅只包含理性計(jì)算,以制度同化理論為代表的非理性路徑同樣構(gòu)成了解釋制度形成及演化過(guò)程的重要視角,這也由此構(gòu)成了理解人工智能算法影響評(píng)價(jià)制度邏輯的第三種視角。(crcv(ti(ormatve:維將同樣影響組織本身的同化進(jìn)程。81再次需要強(qiáng)調(diào)的是,這三類機(jī)制都與特定80Madaio,M.A.,Stark,L.,WortmanVaughan,J.,&Wallach,H.(2020,April).Co-designingcheckliststounderstandorganizationalchallengesandopportunitiesaroundfairnessinAI.InProceedingsofthe2020CHIconferenceonhumanfactorsincomputingsystems(pp.1-14).81P.172范式,很可能與理性計(jì)算的結(jié)果相反。制度同化理論視角對(duì)于我們理解人工智能算法影響評(píng)價(jià)制度在各個(gè)企業(yè)的存在極大模糊空間,在此意義上一線主體事實(shí)上很難對(duì)評(píng)價(jià)行為本身的“成本時(shí),如果沿襲制度同化的理論視角,2.3會(huì)參考?xì)W盟模式等,都是具有一定現(xiàn)實(shí)基礎(chǔ)且可能發(fā)生的未來(lái)演化。(例如大型數(shù)字平臺(tái)企業(yè)法影響評(píng)價(jià)制度成型并擴(kuò)散的重要機(jī)制。人工智能算法影響評(píng)價(jià)的未來(lái)改革與方向?yàn)槔斫馑惴ㄓ绊懺u(píng)價(jià)的整體改革路徑提供了參考,因而同樣具有其價(jià)值意義。人工智能算法影響評(píng)價(jià)的制度要求:開(kāi)放性、合作性、責(zé)任性面核心特征。開(kāi)放性(known(unknown節(jié)所提到問(wèn)影響評(píng)價(jià)需要保持對(duì)環(huán)境的開(kāi)放性,以維持與環(huán)境的動(dòng)態(tài)匹配。第三,就治理機(jī)制而言,人工智能算法影響評(píng)價(jià)要求形成動(dòng)態(tài)、迭代的反復(fù)渠道、不同形式參與其中。換言之,開(kāi)放性是合作性和責(zé)任性的前提與基礎(chǔ)。合作性第三方這三個(gè)治理主體的不同側(cè)面。對(duì)于被監(jiān)管者而言,不僅是權(quán)利,也是義務(wù)。責(zé)任性3.1
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 2024-2030年中國(guó)嬰兒床市場(chǎng)前景規(guī)模及發(fā)展趨勢(shì)分析報(bào)告
- 2024年港口起重機(jī)采購(gòu)與租賃合同3篇
- 2024年塔吊租賃合同及操作培訓(xùn)服務(wù)3篇
- 茂名職業(yè)技術(shù)學(xué)院《刑法2》2023-2024學(xué)年第一學(xué)期期末試卷
- 2024年度物業(yè)服務(wù)合同履行監(jiān)督與違約責(zé)任追究研究3篇
- 2024年標(biāo)準(zhǔn)離婚合同樣本圖片直接下載版B版
- 2024年版測(cè)繪服務(wù)委托書(shū)2篇
- 2024年歌手經(jīng)紀(jì)公司合約3篇
- 2025年蘭州貨運(yùn)從業(yè)資格證考試試題和答案
- 2025公對(duì)公借款合同范本
- 《物流系統(tǒng)規(guī)劃與設(shè)計(jì)》課程教學(xué)大綱
- 護(hù)理質(zhì)控分析整改措施(共5篇)
- 金屬礦山安全教育課件
- 托盤(pán)演示教學(xué)課件
- 中華農(nóng)耕文化及現(xiàn)實(shí)意義
- DB32T 4353-2022 房屋建筑和市政基礎(chǔ)設(shè)施工程檔案資料管理規(guī)程
- DBJ61-T 112-2021 高延性混凝土應(yīng)用技術(shù)規(guī)程-(高清版)
- 2023年高考數(shù)學(xué)求定義域?qū)n}練習(xí)(附答案)
- 農(nóng)產(chǎn)品品牌與營(yíng)銷課件
- 蘇科版一年級(jí)心理健康教育第17節(jié)《生命更美好》教案(定稿)
- 車輛二級(jí)維護(hù)檢測(cè)單參考模板范本
評(píng)論
0/150
提交評(píng)論