人工智能算法影響評(píng)價(jià)體系構(gòu)建與應(yīng)用實(shí)踐_第1頁
人工智能算法影響評(píng)價(jià)體系構(gòu)建與應(yīng)用實(shí)踐_第2頁
人工智能算法影響評(píng)價(jià)體系構(gòu)建與應(yīng)用實(shí)踐_第3頁
人工智能算法影響評(píng)價(jià)體系構(gòu)建與應(yīng)用實(shí)踐_第4頁
人工智能算法影響評(píng)價(jià)體系構(gòu)建與應(yīng)用實(shí)踐_第5頁
已閱讀5頁,還剩91頁未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

清華大學(xué)CIDEG研究項(xiàng)目研究報(bào)告(結(jié)題)委托方:清華大學(xué)產(chǎn)業(yè)發(fā)展與環(huán)境治理研究中心1.人工智能算法影響評(píng)價(jià)的背景:界定治理問題 41.1.算法歧視治理風(fēng)險(xiǎn) 51.2.算法公平治理風(fēng)險(xiǎn) 81.3.算法安全治理風(fēng)險(xiǎn) 1.4.本章總結(jié) 2.人工智能算法影響評(píng)價(jià)的內(nèi)涵:描述治理實(shí)踐 2.1.人工智能算法影響評(píng)價(jià)的制度內(nèi)涵及其治理定位 2.1.1.算法影響評(píng)價(jià)的制度內(nèi)涵 2.1.2.算法審計(jì)的制度內(nèi)涵 2.1.3.算法影響評(píng)價(jià)與算法審計(jì)的共性與差異 2.2.人工智能算法影響評(píng)價(jià)的三種模式:環(huán)境影響評(píng)價(jià)、數(shù)據(jù)保護(hù)影響評(píng)估、列表清單172.2.1.環(huán)境影響評(píng)價(jià)視角下的算法影響評(píng)價(jià) 2.2.2.數(shù)據(jù)保護(hù)影響評(píng)估視角下的算法影響評(píng)價(jià) 2.2.3.問題列表清單評(píng)估視角下的算法影響評(píng)估 2.2.4.不同模式的對(duì)比分析 2.3.人工智能算法影響評(píng)價(jià)的國(guó)別特征:歐盟、美國(guó)、英國(guó)、加拿大與中國(guó) 2.3.1.歐盟 2.3.2.加拿大 312.3.3.美國(guó) 352.3.4.英國(guó) 412.3.5.中國(guó) 473.人工智能算法影響評(píng)價(jià)的治理邏輯:監(jiān)管者與被監(jiān)管者的合作 513.1.協(xié)同治理(CollaborativeGovernance)視角下的人工智能算法影響評(píng)價(jià) 3.2.管理主義(Managerialism)視角下的人工智能算法影響評(píng)價(jià) 3.3.制度同化(InstitutionalIsomorphism)視角下的人工智能算法影響評(píng)價(jià) 4.人工智能算法影響評(píng)價(jià)的未來改革:形成政策建議 614.1.人工智能算法影響評(píng)價(jià)的制度要求:開放性、合作性、責(zé)任性 4.1.1.開放性 4.1.2.合作性 4.1.3.責(zé)任性 4.2.通用人工智能算法影響評(píng)價(jià)的體系框架:理論基礎(chǔ)、層次結(jié)構(gòu)、流程指標(biāo) 4.2.1.理論基礎(chǔ):心理計(jì)量學(xué)與機(jī)器行為學(xué)的理論融合創(chuàng)新 4.2.2.層次結(jié)構(gòu):技術(shù)、組織、社會(huì) 714.3.通用人工智能算法影響評(píng)價(jià)的政策建議 錯(cuò)誤!未定義書簽。)?)?風(fēng)險(xiǎn)”:這既包括因監(jiān)管者與被監(jiān)管者之間存在信息不對(duì)稱而導(dǎo)致前者“未知”的追尋還將面臨更大的不確定性困境。1歧視問題的分析視角大致可被劃分為兩detectingracialdiscriminati而這也意味著僅聚焦結(jié)果并試圖厘清過錯(cuò)因果鏈條的傳統(tǒng)治理邏輯并不能對(duì)此一結(jié)論是否經(jīng)過測(cè)試和驗(yàn)證?諸如此類的問題事實(shí)上就構(gòu)成了算法風(fēng)險(xiǎn)評(píng)估的(或“正義”)的治理要求。第三,算法公平作為治理目標(biāo)既需要平衡“公平”在大多數(shù)情況下互斥并因此難以同時(shí)實(shí)現(xiàn)的困境也在事實(shí)上體現(xiàn)了不同“公平”入現(xiàn)有法律框架之下得到回應(yīng)?從算法技術(shù)邏輯及其應(yīng)用于具體環(huán)境下的制度統(tǒng)法律制度框架對(duì)于服務(wù)或產(chǎn)品安全治理的回應(yīng)主要體現(xiàn)在侵權(quán)法和產(chǎn)品責(zé)任侵權(quán)法的制度邏輯與反歧視法律框架有近似之處,其都建立在“過錯(cuò)原則”假設(shè)某類癌癥影響的正確診斷率為80%,那么在醫(yī)生診斷場(chǎng)景下,20%的診斷錯(cuò)的醫(yī)療診斷算法往往能提高正確診斷率(例如提升到90%因而醫(yī)院采納該算之下,這也意味著以“市場(chǎng)-政府”的嚴(yán)格劃分為邊界、聚焦風(fēng)險(xiǎn)結(jié)果而忽視風(fēng)得算法治理不得不陷入集體效用改善與個(gè)體權(quán)益侵害同時(shí)發(fā)生的公平性“悖論”求算法設(shè)計(jì)與應(yīng)用者及時(shí)修改生產(chǎn)流程以作出敏捷回應(yīng)(由此回應(yīng)動(dòng)態(tài)性的治括算法審計(jì)(algorithmaudit)。本小節(jié)將在比較二者異同點(diǎn)的基礎(chǔ)上從制度沿襲視角來看,算法影響評(píng)價(jià)與財(cái)政影響評(píng)價(jià)(FiscalImpact可被視為對(duì)項(xiàng)目不同方案的社會(huì)影響(廣泛涉及個(gè)人、群體、環(huán)境等促使算法設(shè)計(jì)、應(yīng)用者調(diào)整其行為方式以避免/最小化有害影響。考慮到社會(huì)影4主要基于成本-效益分析方法對(duì)公共資金的投入進(jìn)5主要對(duì)建筑工程的環(huán)境影響進(jìn)行評(píng)價(jià),參然而另一方面,二者的區(qū)別則更為明顯。首先,二者的分析對(duì)象存在差異:的評(píng)價(jià)要求;第二,其次判斷該項(xiàng)目是否可被歸類進(jìn)免于環(huán)境影響評(píng)價(jià)的范疇之中,該審管機(jī)構(gòu)作出以說明該項(xiàng)目的環(huán)境影響有限,并通過公開程序征求公眾意見;第三,如果不范疇,則接下來需進(jìn)一步判斷該項(xiàng)目的環(huán)境影響是否“重大”,而聯(lián)邦監(jiān)管機(jī)構(gòu)將出具環(huán)作出判斷,并公開征求公眾意見,絕大部分項(xiàng)目都將停步于此;第四,如果聯(lián)邦監(jiān)管機(jī)大,則該項(xiàng)目便需要準(zhǔn)備詳細(xì)的環(huán)境影響陳述,其包括可能影響、關(guān)聯(lián)人群、替代方案等直到最后一個(gè)節(jié)點(diǎn)才被要求出具完整的環(huán)境影響陳述(EnvironmentalImpact若公眾仍然有不同意見則還可以提起訴訟并通過司法機(jī)構(gòu)來判斷環(huán)境影響評(píng)價(jià)存在差異。7但無論差異如何,環(huán)境影響評(píng)價(jià)作為一項(xiàng)影響評(píng)價(jià)制度范式的基本7例如中國(guó)在2003年施行《環(huán)境影響評(píng)價(jià)法》之前對(duì)公眾參當(dāng)程序訴訟(DueProcessCha了環(huán)境影響評(píng)價(jià)中的影響級(jí)別分類、公眾參89https://openresearch.amsterdam/image/2018/6/1https://www.europarl.europa.eu/RegData/etudes/STUD/2019/624262/EPR數(shù)據(jù)保護(hù)影響評(píng)估的制度框架基本上來源于歐盟《一般通用數(shù)據(jù)規(guī)定》可能措施、在全過程咨詢利益相關(guān)方、復(fù)審以在必要時(shí)重啟影響評(píng)估。13從表面layeredexplanations.Internationaldataprivacylaw,19-28.DebateandtheRiseofAlgorithmicAuditsinEnterprise’(2019).BerkeleyTechnologyLawJournal,34,143.9月沒有對(duì)DPIA提出類似要求。盡管第35款第7條指出,數(shù)據(jù)處理者應(yīng)“展望”(measuresenvisaged)能這一制度邏輯的關(guān)鍵在于,DPIA是建立在“回應(yīng)性監(jiān)管(Responsive管者(數(shù)據(jù)處理者)之間構(gòu)成了一種“委托-代理”關(guān)系,即監(jiān)管者作為公眾的14https://ec.europa.eu/newsroom/article29/items/611236/en,P.18便是加拿大政府在2019年4月出臺(tái)施行的“自動(dòng)決策指令”(DirectiveonAutomatedDecision-making其要求所有被用于行政決策領(lǐng)域的自動(dòng)決assessment.ComputerLaw&SecurityReview,34(4),754-772.learning:Ausefulwayforwardtomeaningfullyregulatealgorithms?.Regulation&governance,16(1),156-路(Human-in-the-loopfordecisio(DocumentationandTrainin策系統(tǒng)提出監(jiān)管約束,要求其對(duì)共性決策結(jié)該系統(tǒng)的影響評(píng)估總得分是按照以下兩條原則來計(jì)算:如果風(fēng)險(xiǎn)預(yù)防評(píng)分小于80%的最高可能得分,那么總得分就等于風(fēng)險(xiǎn)評(píng)分;如果風(fēng)險(xiǎn)預(yù)防評(píng)大于或等于20https://open.canada.ca/data/en/dataset/aafdfbcd-1cdb-4913-84d5-a究竟能否以及在多大程度上可被視為算法影響評(píng)估的理想模式?針對(duì)此問題的而下試圖框定評(píng)估過程的制度邏輯始終都將面臨算法治理風(fēng)險(xiǎn)信息不對(duì)稱以及案究竟能在多大程度上反映現(xiàn)實(shí),仍然是值得反21一個(gè)典型案例例如加拿大列表清單在數(shù)據(jù)部分的問題是“誰收問題的可選答案列表包括“機(jī)構(gòu)自身、另外的聯(lián)邦機(jī)構(gòu)、另外層級(jí)及答案的質(zhì)疑在于,這四個(gè)答案選項(xiàng)能否概括所有數(shù)據(jù)收集主體,且國(guó)外政府或第三方在考理風(fēng)險(xiǎn)時(shí)是可以等同的嗎?而在一個(gè)開放模式下,評(píng)估問題就會(huì)被開放性地轉(zhuǎn)化為“請(qǐng)列舉所使用輸入數(shù)據(jù)的來源?”IntelligenceAct)》為主干的治理框架,該也調(diào)和了垂直領(lǐng)域的人工智能法律規(guī)則從而在制度層配以差異化的規(guī)制措施并尤其對(duì)高風(fēng)險(xiǎn)人工智能系統(tǒng)應(yīng)用提出了詳細(xì)而明確的規(guī)制要求。24正因?yàn)榇?,該法案的關(guān)鍵要素之一在于對(duì)人工智能系統(tǒng)進(jìn)行風(fēng)險(xiǎn)分與風(fēng)險(xiǎn)分類緊密相關(guān)的是針對(duì)不同類別風(fēng)險(xiǎn)而提出差異化的治理要求,而原則(EthicsGuidelinesforTrustworthyAI)”,以及歐盟發(fā)布的“人工智能白皮書“歐盟人工智能戰(zhàn)略(EuropeanAIStrategy)”等倫理治理原則、主張、戰(zhàn)略的法律轉(zhuǎn)化,將其中本不具有約束力、主要體現(xiàn)倡議功能的治理?xiàng)l款轉(zhuǎn)化為需要嚴(yán)格執(zhí)行的24被歸類為不可接受風(fēng)險(xiǎn)的人工智能系統(tǒng)將被禁止使用,而低風(fēng)險(xiǎn)人工智能系統(tǒng)往往一方面,法案要求高風(fēng)險(xiǎn)人工智能系統(tǒng)在投入使用前應(yīng)執(zhí)行“合規(guī)性評(píng)估另一方面,《人工智能法案》更全面體現(xiàn)算法影響評(píng)估的機(jī)制設(shè)計(jì)是在其25ject-sherpa.eu/conformity-assessment-or-impact-assessment-what-do-we26/2023/11/13/a-deeper-look-into-the-trilogues-fundamental-rights-impact-assessments-generative-ai-and-a-european-ai-offic;(響f)對(duì)邊緣人群、敏感人群可能出現(xiàn)的特定風(fēng)險(xiǎn)g)對(duì)環(huán)境產(chǎn)生的可預(yù)見的負(fù)面風(fēng)險(xiǎn)h)削弱或消除對(duì)基本權(quán)利風(fēng)險(xiǎn)的詳細(xì)方案j)該系統(tǒng)部署于其他影響評(píng)估(特別是DPIA這體現(xiàn)了歐盟已經(jīng)認(rèn)識(shí)到人立法初衷。正因?yàn)榇耍u(píng)者往往提出建議,認(rèn)為應(yīng)刪除基本影響評(píng)估條款。2827ject-sherpa.eu/conformity-assessment-or-impact-assessment-what-do-we28/resources/ai-act-trilogues-a-visio能。29在批評(píng)者看來,這一規(guī)定可能產(chǎn)生制度漏洞,例如大型數(shù)字平臺(tái)企業(yè)可以開基本權(quán)利影響評(píng)估的前提下測(cè)試、應(yīng)用高風(fēng)險(xiǎn)以及已經(jīng)施行的《自動(dòng)決策指令》(DirectiveonAutomatedDecision理要求。31在此目標(biāo)指引下,加拿大人工智能治理同樣采取了基于風(fēng)險(xiǎn)分類的規(guī) 加拿大人工智能治理框架以AIDA和DADM兩部法律為主要支柱。AIDA是29https://artificialintelligenceact.eu/wp-content/uploads/2023/08/AI-Mandates-20-J30https://www.socialeurope.eu/the-ai-act-deregulation-in-disguise,388d31https://ised-isde.canada.ca/site/innovation-better-canada/en/artificial-問題集合顯得更為聚焦和狹窄。不過根據(jù)加拿大信息、科學(xué)和產(chǎn)業(yè)部的規(guī)劃,32https://ised-isde.canada.ca/site/innovation-better-canada/en/artificial-33https://ised-isde.canada.ca/site/innovation-better-canada/en/artificial-34https://ised-isde.canada.ca/site/innovation-better-canada/en/artificial-公共部門而言,DADM則明確要求自動(dòng)決策系統(tǒng)在落地應(yīng)用之前需要進(jìn)行算法影響評(píng)估責(zé)任。AIDA僅對(duì)“高影響”人35/practice-areas/privacy-and-data/critiand-data-act-needs-to-focus-more-on-rights-not-just-busines政命令為主,并以此為基礎(chǔ)進(jìn)一步延伸至聯(lián)邦管理與預(yù)算辦公室(Officeof),五項(xiàng)基礎(chǔ)性原則。36從在整個(gè)治理框架中的定位可信賴人工智能的發(fā)展與使用行政命令》(Exec),案》(AlgorithmAccountabilityAct,AAA以及由國(guó)家標(biāo)準(zhǔn)和技術(shù)研究所規(guī)資源。38究竟哪種模式是更好的模式,仍然需要在實(shí)上述分析都體現(xiàn)了美國(guó)試圖在人工智能治理方面構(gòu)建跨領(lǐng)域一般性規(guī)制框/blog/us-algorithmic-acc/title體現(xiàn)了美國(guó)試圖強(qiáng)化在垂直領(lǐng)域解決人工智能治理問題的努力。換言之,無論39/business-guidance/blog/2021/04/aiming-truth-fairness-equity-y出了算法影響評(píng)估的關(guān)鍵地位。40該備忘錄提出了強(qiáng)化人工智能治理體系(StrengtheningAIGovernance)、促進(jìn)負(fù)責(zé)任人工智能創(chuàng)新(Advancing一是要求聯(lián)邦部門在決定應(yīng)用人工智能時(shí)需要采取“成本-收益”分析,在證明40/wp-content/uploads/2023/11/AI-in-Government-Memo-draft-forEducation)、防護(hù)與使用限制(G本記錄(DocumentationandMilestones)、優(yōu)化決策的資源儲(chǔ)備(Resource41/blog/us-algorithmic-accountabi智能治理的基本原則作出闡釋(例如“可信賴”的具體內(nèi)涵,或者“權(quán)利法案”42.uk/government/publications/establishing-a-pro-innovaai/establishing-a-pro-innovation-approach-to-regulating-ai-policy-sta味著英國(guó)將采取同歐盟、加拿大相類似的主要聚焦“高風(fēng)險(xiǎn)/高影響”人工智能工智能在技術(shù)上是安全的并按照既定功能在運(yùn)行(EnsurethatAIistechnically被解釋(MakesurethatAIisappropriately信息委員會(huì)辦公室(InformationCommissioner’sOffice,ICO)以及通信辦劃。44其中,較有代表性例如科學(xué)、創(chuàng)新和技術(shù)部發(fā)布的《數(shù)字監(jiān)管:促進(jìn)增長(zhǎng)促進(jìn)創(chuàng)新(activelypromoteinnovation)、實(shí)現(xiàn)向前看且前后一致的監(jiān)管結(jié)果43.uk/government/collections/the-digital-regulation-cooperati44.uk/government/news/uk-signals-step-change-for-regulators-to-stren45.uk/government/publications/digital-regulatioinnovation/digital-regulation-driving-growth-and-unlocki單位作為新型監(jiān)管機(jī)構(gòu)以限制大企業(yè)市場(chǎng)壟Strategy)的要求下發(fā)布了“人工智能保證生態(tài)系統(tǒng)路線圖(AIAssurance/Our-Ten-Tech-Prio47.uk/government/collections/digital-48.uk/government/publications/the-roadmaecosystem/the-roadmap-to-an-effective-ai-assurance-e“人工智能保證生態(tài)系統(tǒng)路線圖(AIAssu55在英國(guó)政府層面發(fā)布的與人工智能算法影響評(píng)估相關(guān)的文件是由數(shù)字監(jiān)管合作論壇機(jī)制發(fā)布的政策報(bào)告《審計(jì)算法:當(dāng)前進(jìn)展、監(jiān)管者角色和未來展望》49被用于預(yù)測(cè)該系統(tǒng)對(duì)環(huán)境、平等性、人權(quán)、數(shù)據(jù)保護(hù)或其他產(chǎn)出的影響(Usedtoanticipatethee50類似于影響評(píng)估,但是在事后以反思性形式展開(Si51對(duì)算法系統(tǒng)的輸入和輸出進(jìn)行評(píng)估以確定其是否會(huì)產(chǎn)生不公平的偏差(Assessingtheinputsandoutputs52對(duì)開發(fā)、應(yīng)用人工智能系統(tǒng)的法人主體的內(nèi)部流程或外部合規(guī)性54證明某個(gè)產(chǎn)品、服務(wù)或系統(tǒng)滿足特定要求,其包括測(cè)試、監(jiān)測(cè)、認(rèn)證等多個(gè)環(huán)節(jié)(Proenteringthemarket.Confor55對(duì)系統(tǒng)滿足預(yù)先確定的量化指標(biāo)的程度進(jìn)行評(píng)估(Usedtoassess56使用正式的統(tǒng)計(jì)學(xué)方法對(duì)系統(tǒng)滿足特定要求的程度進(jìn)行解釋說明(Establisheswhetherasystem57.uk/guidance/cdei-portfolio-of-ai-assuranc篇報(bào)告將算法審計(jì)總結(jié)為三種類型:治理審慮其具體影響,技術(shù)審計(jì)則進(jìn)一步切入系統(tǒng)內(nèi)部以發(fā)現(xiàn)啟動(dòng)條件(Statingwhenauditsshouldhappen)、確立算法審計(jì)的最佳示范58.uk/government/publications/findings-from-the-drcf-algorithmworkstream-spring-2022/auditing-algorithms-the-existing-landscape-role-of-r管者的重要職責(zé)并非是具體界定算法影響評(píng)估制度內(nèi)涵,而是要承擔(dān)“掌舵者”理念原則、體系框架、基礎(chǔ)方案等方面都已經(jīng)出臺(tái)了重要性政策文本?!兑?guī)劃》信息服務(wù)深度合成管理規(guī)定》、《生成式人工智能服務(wù)管理暫行辦法》智能算法影響評(píng)價(jià)究竟如何實(shí)現(xiàn)其治理邏輯,而何種因素又將影響其治理邏輯“市場(chǎng)-政府”的二分邊界,而將監(jiān)管觸手延伸至了市場(chǎng)主體內(nèi)部,并同時(shí)將聚協(xié)同治理理論往往是作為介于政府規(guī)制(regulation)和自規(guī)制(self-regulation)之間的第三條道路而出現(xiàn),試圖通過避免二者弱點(diǎn)以實(shí)現(xiàn)更大的監(jiān)同時(shí)要求從結(jié)果監(jiān)管轉(zhuǎn)向過程監(jiān)管乃至延伸至被監(jiān)管者的生產(chǎn)治理過程以回應(yīng)治理理論的理論假設(shè)能否成立的關(guān)鍵,這在具體機(jī)制層面則涉及“靈活性”它們都意味著僅僅依靠政府部門作為規(guī)制者已經(jīng)不能滿足日益復(fù)雜環(huán)境的治理),實(shí)現(xiàn)公開監(jiān)督,從而在為多元主體提供自主決策空間的同時(shí)也將其置于“陽光”61Ayres,I.,&Braithwaite,J.(1991).Tripartism:Regulatorycaptureandempowerment.Law&SocialInquiry,16(3),435-462Sabel,C.,&Simon,W.H.(2017).Democraticexperimentalism.SearchingforContemporaryLegalThought(CambridgeandNewYork,CambridgeUniversityPress,2017),ColumbiaPublicLawResearchPaper,(14-549).一方面,從本質(zhì)上講,協(xié)同治理在實(shí)踐中往往被視為一個(gè)程序性要求傾向在美國(guó)環(huán)境影響評(píng)價(jià)制度的實(shí)踐中被最高法明確地表達(dá)并被執(zhí)行了下去。63與行政權(quán)力分割邊界的尊重,美國(guó)司法機(jī)構(gòu)不愿意干涉行政決策過程65,因而其 并不對(duì)案件中聯(lián)邦機(jī)構(gòu)所開展環(huán)境影響評(píng)價(jià)工作能否實(shí)現(xiàn)環(huán)境保護(hù)目標(biāo)的實(shí)質(zhì)66,而這也構(gòu)成了我們對(duì)影響評(píng)估這一類制度究竟能否實(shí)現(xiàn)實(shí)質(zhì)性目標(biāo)的擔(dān)憂和 E.W.(2019).Reflexiveenvironmentallaw.En65在相關(guān)判決書中,最高法法官提出司法不能成為行政決策的一個(gè)環(huán)節(jié)(deEcosystemManagementandEnvironmentalAccounting.Nat.Resources&Env't.,14,185.體參與并發(fā)揮各自作用,協(xié)同治理認(rèn)為應(yīng)重視能夠平衡“靈活性”和“責(zé)任性”紀(jì)早期的社會(huì)危機(jī)引發(fā)了公眾對(duì)于“自由放任資本主義(laissezfaireHanlon,G.(2018).Thefirstneo-liberalscienc市場(chǎng)機(jī)制的價(jià)值以避免政府干涉扭曲市場(chǎng)行為同時(shí)也能實(shí)現(xiàn)集體生產(chǎn)的規(guī)模方面通過管理者作為精英的知識(shí)創(chuàng)造來設(shè)計(jì)出“常規(guī)性合作(routine為,并最終接受管理主義以形成新的社會(huì)聯(lián)系和社會(huì)框架。69與之相比,韋伯雖場(chǎng)競(jìng)爭(zhēng)的侵蝕70,而體現(xiàn)“克里斯馬權(quán)威”的官僚領(lǐng)導(dǎo)者正是平衡官僚制進(jìn)步與干涉、強(qiáng)調(diào)個(gè)體間競(jìng)爭(zhēng)、精英領(lǐng)導(dǎo)的必要性。71這三點(diǎn)特征與“新自由主義”的69Hanlon,G.(2018).Thefirstneo-libe70如其所指出,資本主義與國(guó)家官僚利益(2018).Thefirstneo-liberalscience:Ma71Hanlon,G.(2018).Thef會(huì)革命的集體行動(dòng)第三,精英作為管理者的領(lǐng)導(dǎo)與組織工作,對(duì)于實(shí)現(xiàn)前二利于后者的實(shí)現(xiàn)。73這一批評(píng)尤其在數(shù)字時(shí)代可能將更為凸顯。喬治敦大學(xué)法學(xué)者權(quán)益等議題卻幾乎被忽略。74在管理主義的理論視角下,這一分化幾乎是不可為前述三個(gè)管理主義核心特征之外的第四個(gè)關(guān)鍵機(jī)制。75基于后續(xù)理論的討論我72Hanlon,G.(2018).Th75/s/EkIGffk法影響評(píng)估的主要標(biāo)的仍然聚焦消費(fèi)者法定權(quán)益(包括隱私權(quán)、價(jià)格歧視等也逐漸發(fā)現(xiàn)人工智能倫理治理原則并沒有在事實(shí)上改變技術(shù)人員的開發(fā)與應(yīng)用更多資源來消除惡臭76;在隱私保護(hù)領(lǐng)域,我們同樣看到蘋果公司超出合規(guī)要求得到用戶的明確同意77。面對(duì)這些超出合規(guī)要求的治理行為,我們同樣需要解釋雙重約束條件下的理性選擇。78例如在針對(duì)卡車產(chǎn)業(yè)的環(huán)境影響治理行為研究中 規(guī)要求的環(huán)境治理投入。79不過這一解釋框架卻與算法影響評(píng)價(jià)制度的具體實(shí)踐 businessesgobeyondcompliance.Law&SocialInquiry,29(2),307-341.77/sites/kateoflahertyuk/2021/01/31/apples-stunning-ios-14-privacygame-changer-for-all-ipbusinessesgobeyondcompliance.Law&SocialInquiry,29(2),307-341.Environmentalperformanceinthetruckingindustry.Law&SocietyReview,43(2),405-436.議程的結(jié)果,而并不一定是企業(yè)自上而下的有組織行為。80正因?yàn)榇?,就組織管以制度同化理論為代表的非理性路徑同樣構(gòu)成了解釋制度形成及演化過程的重行為,而無論組織面臨的具體“成本-收益”結(jié)構(gòu)是否相同;第二,模仿機(jī)制是指當(dāng)組織面臨不確定環(huán)境而難以計(jì)算“成本-收益”結(jié)構(gòu)時(shí),其更多選擇模仿同維將同樣影響組織本身的同化進(jìn)程。81再次需要強(qiáng)調(diào)的是,這三類機(jī)制都與特定understandorganizationalchallengesandopportunitiesaroundfairnessinAI.InProceedingsofthe2020CHIconferenceonhumanfactorsincomputingsystems(pp.1-14).制度同化理論視角對(duì)于我們理解人工智能算法影響評(píng)價(jià)制度在各個(gè)企業(yè)的存在極大模糊空間,在此意義上一線主體事實(shí)上很難對(duì)評(píng)價(jià)行為本身的“成本-難以匹配,并因此需要開放面對(duì)所有可能性以作出調(diào)整應(yīng)對(duì)。2.2.3節(jié)所提到問傳統(tǒng)的“命令-控制”模式來實(shí)現(xiàn)治理目標(biāo)。被監(jiān)管者主動(dòng)尋找評(píng)價(jià)方案和風(fēng)險(xiǎn)責(zé)任性要求是指算法影響評(píng)價(jià)需要在一定程度上回應(yīng)實(shí)質(zhì)性治理目標(biāo)的實(shí)響評(píng)價(jià)制度具備了一定剛性——這也是為什么責(zé)任性要求僅包含最低限度合規(guī)第一,心理計(jì)量學(xué)在其長(zhǎng)期發(fā)展過程中已經(jīng)抽象出了一系列的一般/通用概乎語言邏輯的內(nèi)容,但這些內(nèi)容并不一定是現(xiàn)實(shí)本身。楊立昆則認(rèn)為,大型語言模型只大型語言模型是一條歧路(off-ramp)”。通過這三個(gè)一般/通用變量,心理計(jì)量學(xué)也能夠?qū)υ撊说膶W(xué)術(shù)潛力做出評(píng)價(jià),因套一般/通用概念(或“隱變量”)仍然是第二,基于對(duì)人類行為模式、規(guī)律的把握,心理計(jì)量學(xué)對(duì)一般/通用概念所繞這些概念/變量的測(cè)度也形成了具有內(nèi)在邏輯關(guān)聯(lián)、層次化、可供測(cè)度的指標(biāo)

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論