【人工智能時代算法歧視之法律問題探究21000字(論文)】_第1頁
【人工智能時代算法歧視之法律問題探究21000字(論文)】_第2頁
【人工智能時代算法歧視之法律問題探究21000字(論文)】_第3頁
【人工智能時代算法歧視之法律問題探究21000字(論文)】_第4頁
【人工智能時代算法歧視之法律問題探究21000字(論文)】_第5頁
已閱讀5頁,還剩23頁未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

人工智能時代算法歧視之法律問題研究目錄TOC\o"1-3"\h\u18819人工智能時代算法歧視之法律問題研究 131182摘要 25624關(guān)鍵詞:人工智能、算法歧視、法律規(guī)制、法律建議 21799引言 215649第一章人工智能時代算法歧視的現(xiàn)狀與法律問題 412592第一節(jié)大數(shù)據(jù)算法歧視的概念與現(xiàn)狀 415198一、算法歧視的概念 411629二、算法歧視的現(xiàn)狀 56760第二節(jié)算法歧視導(dǎo)致的法律問題 627444一、消費(fèi)者合法權(quán)益受到威脅 619978二、缺乏算法歧視行為問責(zé)機(jī)制 74232三、消費(fèi)者權(quán)利救濟(jì)困難 82049第二章算法歧視法律問題之成因分析 99454第一節(jié)隱私政策的不明確 917292一、運(yùn)營商刻意模糊隱私政策中的條款 918740二、格式條款存在固有缺陷 103751第二節(jié)算法歧視相關(guān)責(zé)任規(guī)范不完善 112623一、算法歧視行為法律界定模糊 111553二、現(xiàn)行法律體系難以兼容規(guī)制算法歧視的司法需要 123964第三節(jié)信息披露不充分與維權(quán)之困境 1425225一、算法披露制度存在缺失 1510665二、消費(fèi)者維權(quán)困難 1610468第三章域外對于算法歧視之法律規(guī)制 1711534第一節(jié)域外有關(guān)個人數(shù)據(jù)隱私保護(hù)的規(guī)制 1723535一、美國《關(guān)于算法透明度和責(zé)任的聲明》中對數(shù)據(jù)采集的規(guī)定 176753二、歐盟《一般數(shù)據(jù)保護(hù)法案》的特別規(guī)定 1817973第二節(jié)域外關(guān)于算法歧視問責(zé)制度的規(guī)范 1929676一、美國《算法責(zé)任法案》與一系列規(guī)定 1925377二、歐盟在《機(jī)器人民事責(zé)任法案》的補(bǔ)充規(guī)定 2018598第三節(jié)域外對于算法披露制度的構(gòu)建與權(quán)利保護(hù) 2027162一、美國《政府部門自動決策系統(tǒng)法案》設(shè)立專門工作組 213429二、歐盟統(tǒng)籌協(xié)調(diào)于數(shù)據(jù)保護(hù)整體框架之中的算法治理模式 2121381第四章治理算法歧視的法律建議 2223634第一節(jié) 構(gòu)建算法歧視行為預(yù)防體系 2211987一、加強(qiáng)隱私政策與格式條款的審查力度 2213636二、建構(gòu)事先預(yù)防與事后監(jiān)察的雙重監(jiān)管制度 236663第二節(jié)構(gòu)建合理的經(jīng)營者問責(zé)制度 2428079一、優(yōu)化責(zé)任內(nèi)容規(guī)范 2528242二、建全責(zé)任追究規(guī)范 2513639第三節(jié)優(yōu)化算法信息披露制度助力消費(fèi)者維權(quán) 264797一、完善算法披露制度 2631883二、健全受害者維權(quán)體系 27摘要 隨著人工智能技術(shù)的迅速發(fā)展,現(xiàn)今社會正逐步與作為其核心技術(shù)的算法發(fā)生著融合。算法技術(shù)在為人們的生活帶來巨大便利的同時也存在著種種風(fēng)險,其中一項較為突出的問題即是算法歧視。從網(wǎng)購個性推薦到自動定價,從簡歷篩選到種族歧視等等,算法歧視正從方方面面危害著我們的生活,本文將重點(diǎn)結(jié)合算法價格歧視的內(nèi)容進(jìn)行論述。 經(jīng)營者平臺通過算法搜集數(shù)據(jù)制作精準(zhǔn)的用戶畫像,被打上標(biāo)簽的用戶將永遠(yuǎn)生活在算法歧視的陰影之下而避無可避。問責(zé)機(jī)制與算法披露制度的缺失也導(dǎo)致消費(fèi)者在權(quán)利受到侵害后難以通過個人力量進(jìn)行維權(quán)。為此,根據(jù)算法歧視的基本特點(diǎn),從數(shù)據(jù)的源頭采取相應(yīng)的預(yù)防措施,在算法的運(yùn)行過程中保證其應(yīng)有的透明度,并結(jié)合域外先進(jìn)的監(jiān)管體系和治理經(jīng)驗與國內(nèi)的基本國情建立一套專業(yè)的針對算法歧視問題進(jìn)行事前事中監(jiān)督與事后問責(zé)的體系便十分有必要了。 本文將通過四個章節(jié)的內(nèi)容,詳細(xì)闡述算法歧視的概念以及現(xiàn)狀,列舉其存在的主要問題并進(jìn)一步分析成因,最后結(jié)合域外探索經(jīng)驗與我國立法現(xiàn)狀,運(yùn)用法學(xué)思維探討如何規(guī)避算法歧視引發(fā)的法律問題。關(guān)鍵詞:人工智能、算法歧視、法律規(guī)制、法律建議引言 人工智能技術(shù)的不斷突破發(fā)展使得人類社會發(fā)生了巨大的改變,算法作為人工智能的核心技術(shù)也逐漸從殿堂之內(nèi)走入尋常百姓家,人們在生活之中無時無刻不在使用算法,看待算法的方式也變得越來越積極。但技術(shù)總是具有兩面性,算法在發(fā)展過程中帶來的弊端也不容我們忽視,近些年算法引發(fā)的大大小小的事件更是屢見不鮮。因此,如何規(guī)范人工智能新技術(shù)的使用令其造福社會并規(guī)避風(fēng)險的問題便值得我們深思。 2020年10月21日,作為第一部專門規(guī)定個人信息保護(hù)的法律,為公開征求意見而公布的《中華人民共和國個人信息保護(hù)法(草案)》,在其正式施行后將成為個人信息保護(hù)領(lǐng)域的基本法,并正式構(gòu)建起我國算法自動化決策治理體系,初步建立完善平臺算法問責(zé)制。該草案確立了處理個人信息時應(yīng)當(dāng)遵循的合法、正當(dāng)性原則,要求平臺在處理個人信息之前要充分告知用戶并取得相應(yīng)的同意,明確了個人在個人信息處理過程中應(yīng)當(dāng)具有的如知情權(quán)、決定權(quán)、更正權(quán)、刪除權(quán)等各項權(quán)利,強(qiáng)化了個人信息處理者的安全保障義務(wù),完善了侵害個人信息權(quán)益的民事法律責(zé)任和行政法律責(zé)任。 在草案頒布之前,我國許多學(xué)者便已經(jīng)對算法歧視引發(fā)的相關(guān)法律問題做出了種種探討,并對立法活動提出了諸多建設(shè)性意見。有學(xué)者指出由于算法的特殊性,算法歧視具有一定的內(nèi)在必然性,對于算法歧視行為的規(guī)制不僅僅要從法律層面入手,更應(yīng)當(dāng)結(jié)合社會倫理道德規(guī)范和技術(shù)類原則規(guī)范進(jìn)行治理。算法本身作為技術(shù)性產(chǎn)物本不應(yīng)帶有歧視性因素,但在實際使用過程中必不可少地會接觸到社會倫理層面的因素,且設(shè)計者和使用者也會有意識或無意識地利用算法達(dá)成自己的目的,這便使得算法有時甚至?xí)破缫曅院蠊漠a(chǎn)生。 本文將明確算法歧視的概念和現(xiàn)狀,并結(jié)合其成因與域外制度架構(gòu)經(jīng)驗對相關(guān)問題的解決提供一些法律規(guī)制上的建議。

第一章人工智能時代算法歧視的現(xiàn)狀與法律問題人工智能作為一項新科技革命的引領(lǐng)性技術(shù)正逐漸大規(guī)模、大范圍的進(jìn)入我們的生活,算法自動決策在便利我們生活的同時也在引發(fā)一些更嚴(yán)重的問題,算法歧視便發(fā)生在自動化決策之中。在研究算法歧視帶來的法律問題之前,首先要明確算法歧視的概念,根據(jù)其表現(xiàn)形式和現(xiàn)狀來提出法律問題,才能據(jù)此進(jìn)行進(jìn)一步的分析。第一節(jié)大數(shù)據(jù)算法歧視的概念與現(xiàn)狀 在著手解決算法歧視所帶來的法律問題之前,首先最重要的問題是理解算法歧視的具體概念為何,再通過對其現(xiàn)狀進(jìn)行研究分析。只有在熟悉了這些基本概念之后,才能在應(yīng)對算法歧視所引發(fā)的問題上提出中肯的建議。一、算法歧視的概念目前,學(xué)界對于算法歧視還沒有形成一個科學(xué)通用的定義。因此,要分析算法歧視的概念,必須首先要分別明確算法和歧視的概念,再結(jié)合起來具體闡述。1、算法的概念算法,簡單而言是指一系列完成任務(wù)的指令。通過運(yùn)用算法,能夠使得一系列規(guī)范的輸入在有限的時間內(nèi)轉(zhuǎn)化為所需要的輸出。在不同的時間與空間等條件下,所需求的算法是不同的。同樣的,不同的算法也可能會用不同的時間與效率來完成相同的任務(wù)。隨著大數(shù)據(jù)的到來,算法決策開始越來越多的介入甚至開始主導(dǎo)社會事務(wù)。從廣告精準(zhǔn)投放、個性化推薦、貸款審批業(yè)務(wù)甚至到政治與司法評估,算法自動決策取代了更多的人類決策。參見韓乾:《大數(shù)據(jù)時代算法歧視的法律規(guī)制》,西南政法大學(xué)2019年3月碩士學(xué)位論文,第9頁。2、歧視的概念歧視,也即偏見,是指對于某一個體或一類群體不平等的對待。學(xué)界普遍認(rèn)為,歧視與平等是一對相對的概念,歧視是對平等權(quán)的侵犯。法律上歧視的含義是由于法律所禁止的理由而存在差別對待,并導(dǎo)致了損害性的后果。人類社會在發(fā)展的過程中出現(xiàn)了由固有偏見而導(dǎo)致的差別化對待,技術(shù)的發(fā)展并不能解決這種倫理價值問題,反而在某些情況下加劇了這種不平等現(xiàn)象。盡管從表象上來看大數(shù)據(jù)分析決策是通過客觀事實作出的較為理性的判斷,但由于算法的目標(biāo)是復(fù)刻人類的思維模式,其計算出的結(jié)果本質(zhì)上還是包含有較大的人類主觀能動性。此外,由于算法本身僅作為決策的工具,這種歧視在實際決策過程中將會多次重復(fù)地對不同個體進(jìn)行實質(zhì)上的差別對待。因此結(jié)合算法與歧視的概念,可以將算法歧視定義為由系統(tǒng)化的數(shù)據(jù)分析導(dǎo)致的對具體的個體進(jìn)行的可重復(fù)的、實質(zhì)性的不公正對待。參加章小杉:“人工智能算法歧視的法律規(guī)制:歐美經(jīng)驗與中國路徑”,載《華東理工大學(xué)學(xué)報(社會科學(xué)版)》2019年第6期。二、算法歧視的現(xiàn)狀數(shù)據(jù)作為客觀社會現(xiàn)實的體現(xiàn),反映了各種各樣的社會信息。而算法作為以代碼形式表現(xiàn)算法設(shè)計者的設(shè)計需求,是開發(fā)者主觀意識的外顯與創(chuàng)造。二者交互以一種新的形式反映出傳統(tǒng)的社會關(guān)系。算法與數(shù)據(jù)都是通過客觀的方式來進(jìn)行輸出與自動決策,從表象上來看是客觀公正的,但實際上從采樣到數(shù)據(jù)解讀,一旦產(chǎn)生些許的偏差就可能會造成算法作出有失偏頗的決策。例如在商業(yè)定價策略上,平臺通過大數(shù)據(jù)算法分析,用技術(shù)識別不同個體的消費(fèi)水準(zhǔn),進(jìn)行差異化定價,從而最大程度上掠奪消費(fèi)者剩余也即消費(fèi)者內(nèi)心感覺所獲得的額外利益。這種歧視往往是隱蔽的,由于消費(fèi)者被動地陷入了信息孤島,一般難以察覺到價格的差異和歧視的存在。在數(shù)據(jù)爆炸的時代下,每個人都有機(jī)會在網(wǎng)絡(luò)上接觸到各式各樣的消息,公眾在獲取消息時,會下意識地只接觸自己感興趣的消息。而算法決策系統(tǒng)在收集到這些數(shù)據(jù)后,會對個體進(jìn)行個性化的推薦,使得個體接觸到的信息面越來越狹窄,從而造成“信息繭房”效應(yīng),擴(kuò)大了算法歧視的影響??傊?,無論人們是否有意識地認(rèn)識到,算法已經(jīng)滲透到社會生活的方方面面。而算法歧視更是從個人隱私、商業(yè)貿(mào)易、司法行政等各種領(lǐng)域產(chǎn)生著消極的影響,危害到社會與公共利益。本文將重點(diǎn)從商業(yè)貿(mào)易領(lǐng)域入手,對算法歧視所造成的法律問題進(jìn)行分析。 第二節(jié)算法歧視導(dǎo)致的法律問題前述已經(jīng)對算法歧視的基本概念和現(xiàn)狀有了初步的認(rèn)識,在實踐中,算法歧視面臨著更多的法律問題。下文將重點(diǎn)介紹商業(yè)交易領(lǐng)域算法歧視所導(dǎo)致的法律問題。一、消費(fèi)者合法權(quán)益受到威脅算法作為一項決策工具大大強(qiáng)化了經(jīng)營者對于消費(fèi)者進(jìn)行個性化、定制化、精準(zhǔn)化投放廣告的能力,能夠最大限度的榨取消費(fèi)者的剩余消費(fèi)價值,嚴(yán)重?fù)p害消費(fèi)者的合法權(quán)益。消費(fèi)者在進(jìn)行網(wǎng)頁瀏覽時,無論是否刪除瀏覽記錄都將被網(wǎng)站的算法記錄下來。參見周先偉:“算法歧視:表現(xiàn)、影響及其法律規(guī)制”,載《棗莊學(xué)院學(xué)報》2020年第4期?;ヂ?lián)網(wǎng)公司根據(jù)這些數(shù)據(jù)對相同的產(chǎn)品或服務(wù)信息對不同的消費(fèi)者進(jìn)行差異定價,比如某以外賣為主營業(yè)務(wù)的APP對老用戶收取較高的價格,而給予新用戶較低的價格并發(fā)放大量優(yōu)惠券。又或者通過收集用戶信息,用算法分析消費(fèi)者的購買力,對于購買力更高的消費(fèi)者收取較高價,而對消費(fèi)能力更低的消費(fèi)者收取較低價,便于獲取最大利潤。此即價格歧視,又指通過算法收集并分析網(wǎng)絡(luò)用戶的相關(guān)消費(fèi)數(shù)據(jù),在獲得消費(fèi)者最大支付意愿后,商品經(jīng)營者或服務(wù)提供者針對不同消費(fèi)者對相同質(zhì)量、相同級別的商品或服務(wù)在相同的交易條件下確定不同價格的行為。參見葉明,郭江蘭:“數(shù)字經(jīng)濟(jì)時代算法價格歧視行為的法律規(guī)制”,載《價格月刊》2020年第3期。參見周先偉:“算法歧視:表現(xiàn)、影響及其法律規(guī)制”,載《棗莊學(xué)院學(xué)報》2020年第4期。參見葉明,郭江蘭:“數(shù)字經(jīng)濟(jì)時代算法價格歧視行為的法律規(guī)制”,載《價格月刊》2020年第3期。普通的交易環(huán)境下,盡管存在著一些差別化定價的規(guī)則,例如學(xué)生優(yōu)惠、新老用戶優(yōu)惠折扣、特定時段購買優(yōu)惠、批發(fā)折扣等等,但是由于規(guī)則是透明可見的,消費(fèi)者在進(jìn)行交易時是可以進(jìn)行選擇的。但算法歧視行為不同,這種差異化定價的規(guī)則是不可見的,僅經(jīng)營者可以通過算法收集的數(shù)據(jù)進(jìn)行自動決策,來實現(xiàn)自身的利益最大,并且隨著算法的學(xué)習(xí)和進(jìn)步,使得消費(fèi)者支付的價格越來越高,違背了商業(yè)道德,嚴(yán)重?fù)p害了消費(fèi)者的公平交易權(quán)與知情權(quán)。雖然《電子商務(wù)法》對于該類價格歧視行為進(jìn)行了明確的禁止,但是大數(shù)據(jù)算法殺熟行為在實際交易中仍然存在,并隨著技術(shù)的發(fā)展更難被消費(fèi)者感知。經(jīng)營者還會特地為消費(fèi)者營造“信息繭房”,在封閉的網(wǎng)絡(luò)消費(fèi)環(huán)境中,消費(fèi)者難以通過比較的方式察覺到經(jīng)營者進(jìn)行的差別定價。經(jīng)營者對消費(fèi)者進(jìn)行的所謂的個性化推薦,實際上是在逐漸剝奪消費(fèi)者選擇和知情的權(quán)利。除此之外,各個用戶的個人信息還會被不同的經(jīng)營平臺所共享,個人在互聯(lián)網(wǎng)上完全喪失了隱私權(quán)。在現(xiàn)行法律規(guī)范如《網(wǎng)絡(luò)安全法》等的規(guī)定下,經(jīng)營者收集用戶信息需要在得到用戶同意的基礎(chǔ)之上,明確告知用戶適用范圍和使用方法。若經(jīng)營者超出了用戶許可范圍,則構(gòu)成對數(shù)據(jù)的濫用。但事實上,經(jīng)營者為用戶設(shè)置的隱私政策往往條款不明確,重要事項更是做邊緣化處理,且由于信息量的巨大,用戶往往不會仔細(xì)閱讀經(jīng)營者提供的隱私政策。經(jīng)營者在合法收集到個人信息后,對個人數(shù)據(jù)進(jìn)行過度地分析,超出了原有的個性化服務(wù)使用目的,侵犯了公民的隱私權(quán)與個人信息權(quán)。參見涂操:《大數(shù)據(jù)算法歧視的危機(jī)及法律應(yīng)對》,天津師范大學(xué)2020年3月碩士學(xué)位論文,第17頁。參見涂操:《大數(shù)據(jù)算法歧視的危機(jī)及法律應(yīng)對》,天津師范大學(xué)2020年3月碩士學(xué)位論文,第17頁。二、缺乏算法歧視行為問責(zé)機(jī)制 算法作為經(jīng)營者進(jìn)行決策的工具,在如今的大數(shù)據(jù)時代,正在從被動的被使用的工具轉(zhuǎn)為自動化、主動化的決策者,這也導(dǎo)致了算法分析行為與經(jīng)營者的經(jīng)營行為產(chǎn)生了一定的重合。因此,學(xué)界對于算法歧視行為的責(zé)任承擔(dān)主體產(chǎn)生了一定的分歧,即算法設(shè)計責(zé)任和經(jīng)營者主體責(zé)任。我國目前缺失一部能夠同時解決算法責(zé)任分配和承擔(dān)問題的法律,規(guī)定了算法歧視行為的法律一般都具有片面性。大多數(shù)關(guān)于算法價格歧視行為責(zé)任承擔(dān)主體方面的法律規(guī)制都散見于多部法律之中,如《電子商務(wù)法》、《消費(fèi)者權(quán)益保護(hù)法》、《價格法》、《反壟斷法》等等。這些法律雖然在規(guī)制實體經(jīng)營者經(jīng)營行為時發(fā)揮著巨大的作用,但在面對無形的算法歧視行為時往往難以進(jìn)行相應(yīng)的規(guī)制。參見葉明,郭江蘭:“數(shù)字經(jīng)濟(jì)時代算法價格歧視行為的法律規(guī)制”,載《價格月刊》2020年第3期。參見葉明,郭江蘭:“數(shù)字經(jīng)濟(jì)時代算法價格歧視行為的法律規(guī)制”,載《價格月刊》2020年第3期。 除主體問題之外,算法歧視行為的法律性質(zhì)定義模糊也為責(zé)任追究造成了一定的阻礙。由于算法個性化推薦行為定性的不明確和技術(shù)的中立性,算法決策行為造成的價格歧視難以受制于傳統(tǒng)的違法構(gòu)成要件,經(jīng)營者也因此而免于被追責(zé)。三、消費(fèi)者權(quán)利救濟(jì)困難 由于算法的設(shè)計本身帶有一定的專業(yè)性,非專業(yè)人員因缺乏知識而難以從中發(fā)現(xiàn)問題,且部分經(jīng)營者會故意隱瞞算法決策的具體過程,社會公眾的知情權(quán)、參與權(quán)等往往因此難以得到有效的保障。算法技術(shù)的隱蔽性遮蓋了算法歧視行為,經(jīng)營者通過技術(shù)行為來規(guī)避法律風(fēng)險,消費(fèi)者在自身權(quán)利受到侵害時更是難以通過自身的力量來找到相關(guān)證據(jù)。 除此之外,即使消費(fèi)者通過各種渠道知悉了該種算法歧視行為嚴(yán)重?fù)p害了自身合法權(quán)益,由于我國相關(guān)法律制度不夠完備,社會組織往往難以通過一己之力來幫助消費(fèi)者維護(hù)其合法權(quán)益。而且我國在司法改革進(jìn)程中,正在將人工智能系統(tǒng)投入到法院的建設(shè)中,最高人民法院辦公廳發(fā)布的《關(guān)于做好2019年智慧法院建設(shè)的通知》中便明確的要求進(jìn)一步提高智能化服務(wù)水平,積極建設(shè)智慧法院,防治司法腐敗,推進(jìn)司法信息化,深化司法體制改革。參見李超:“人工智能算法歧視的法律規(guī)制研究”,載《重慶廣播電視大學(xué)學(xué)報》2020年第2期。但是在建設(shè)智能司法體系的同時,算法歧視也會不知不覺的影響到司法審判結(jié)果。如果算法歧視在司法審判中不被制約,將會嚴(yán)重?fù)p害司法權(quán)威,影響到司法審判的結(jié)果,從而使得消費(fèi)者難以尋求到公正的法律救濟(jì)。參見李超:“人工智能算法歧視的法律規(guī)制研究”,載《重慶廣播電視大學(xué)學(xué)報》2020年第2期。

第二章算法歧視法律問題之成因分析在上一章已經(jīng)明確了算法歧視行為在實踐中可能會發(fā)生的法律問題,下文將從各方面分析問題出現(xiàn)的原因。第一節(jié)隱私政策的不明確 由于目前我國各大互聯(lián)網(wǎng)運(yùn)營商在自己所研發(fā)的產(chǎn)品在設(shè)置的隱私政策一般為格式條款,且有時部分運(yùn)營商會故意在隱私政策中做手腳,導(dǎo)致用戶難以根據(jù)運(yùn)營商發(fā)布的隱私政策來明確和維護(hù)自身權(quán)益,進(jìn)而擴(kuò)大了算法歧視所帶來的一些負(fù)面影響。一、運(yùn)營商刻意模糊隱私政策中的條款互聯(lián)網(wǎng)的誕生標(biāo)志著信息時代的真正到來,傳播信息的媒介越來越輕便,信息復(fù)制傳播的成本無限接近于零,使得我們每個人都有機(jī)會接觸到爆炸性的信息量。但當(dāng)個人在瀏覽網(wǎng)絡(luò)上這些信息的同時,個人的信息也被不斷地記錄下來上傳到網(wǎng)絡(luò)上供他人瀏覽,隱私權(quán)越來越難以得到有效的保障。目前我國國內(nèi)的App一般可在征得用戶授權(quán)同意的前提下,向用戶收集個人信息。盡管我國法律對隱私政策中個人信息的收集與刪除做出了相關(guān)的規(guī)定,但是隱私政策中相關(guān)的規(guī)定卻良莠不齊,在特定的情況下,App卻可以未經(jīng)用戶授權(quán)同意而向用戶收集個人信息。例如,騰訊QQ在隱私政策中規(guī)定了10項收集用戶個人信息無需征得用戶授權(quán)同意的情形。而且部分App會在隱私政策中規(guī)定從第三方或者其他來源收集用戶個人信息。但這些恰恰使得用戶個人在刪除個人信息時將面臨重重困境。如若運(yùn)營商收集的個人信息是從第三方來源獲得,那么用戶在刪除自身在該運(yùn)營商處的信息時,第三方來源的個人信息是否同意會被刪除,如果未被刪除,將會嚴(yán)重地影響到用戶刪除個人信息行為的有效性。且獲取個人信息需通過多方授權(quán)的復(fù)雜關(guān)系可能會使得個人信息在互聯(lián)網(wǎng)上處于一種半公開的狀態(tài),用戶在刪除個人信息時將會更加困難。參見徐磊:“個人信息刪除權(quán)的實踐樣態(tài)與優(yōu)化策略——以移動應(yīng)用程序隱私政策文本為視角”,載《情報理論與實踐》2021年第4期。參見徐磊:“個人信息刪除權(quán)的實踐樣態(tài)與優(yōu)化策略——以移動應(yīng)用程序隱私政策文本為視角”,載《情報理論與實踐》2021年第4期。此外,大部分運(yùn)營商在隱私政策中沒有明確規(guī)定個人信息的保存期限,但卻在保存期限至后主動刪除用戶個人信息。這種行為侵害了用戶對個人信息的自治權(quán),也不利于維護(hù)個人信息安全。若運(yùn)營商停止運(yùn)營應(yīng)當(dāng)采取合理措施及時通知用戶,并且允許用戶對相關(guān)個人信息進(jìn)行備份。之后,運(yùn)營商才能在合理期限內(nèi)刪除用戶個人信息。而隱私政策中有過用戶個人信息備份的條款往往處于缺失的狀態(tài)。雖然有個別的運(yùn)營商會在隱私政策中對此做出相關(guān)的規(guī)定,但是卻表述得非?;\統(tǒng),無法指導(dǎo)用戶去備份個人信息。由于我國相關(guān)法律政策和監(jiān)管的缺失,各運(yùn)營商在制定隱私政策時往往只為自身利益考慮,而不會去重點(diǎn)保護(hù)用戶的個人信息,使得隱私政策條款混亂而模棱兩可。用戶在使用運(yùn)營商提供的服務(wù)時,也很少會有人在授權(quán)之前仔細(xì)研讀相關(guān)隱私政策,將自己的個人信息隨意交由他人處置。經(jīng)營者從網(wǎng)絡(luò)上可以低成本地獲取大量消費(fèi)者個人信息,從而利用算法進(jìn)行計算與決策,對個體進(jìn)行差別化定價。二、格式條款存在固有缺陷近十年以來,我國網(wǎng)絡(luò)技術(shù)經(jīng)過高速發(fā)展,推動了網(wǎng)絡(luò)購物的興起,而快遞業(yè)務(wù)的擴(kuò)張與改善也為網(wǎng)絡(luò)購物的繁盛提供了莫大的利好。網(wǎng)絡(luò)購物在帶給消費(fèi)者巨大生活便利的同時,也引發(fā)了更多新的法律問題。對于消費(fèi)者來說,通過網(wǎng)絡(luò)購物雖然具有高效便利的優(yōu)點(diǎn),但網(wǎng)絡(luò)購物也具有著一般購物所沒有的格式條款問題。由于對格式條款缺乏嚴(yán)格的限制,大量應(yīng)用格式條款是對消費(fèi)者公平交易權(quán)的限制。因非線下交易與先付款后交貨的交易方式,使得消費(fèi)者沒有太多與經(jīng)營者商議的余地。參見王威:“網(wǎng)絡(luò)購物合同中格式條款的法律規(guī)制與完善對策”,載《佳木斯大學(xué)社會科學(xué)學(xué)報》2011年第3期。一些經(jīng)營者制定的格式條款缺失對于消費(fèi)者的提示義務(wù),模糊的條款內(nèi)容和不合理的放置位置使得普通的消費(fèi)者一般難以找到并閱讀到格式條款,即便閱讀過也難以通過字面意思理解其具體想表達(dá)的意思,這便對消費(fèi)者的知情權(quán)等造成了一定的威脅。如果消費(fèi)者的知情權(quán)得不到保障,對格式條款的關(guān)鍵性內(nèi)容不能充分的理解,便會陷入信息不對稱的被動環(huán)境。消費(fèi)者在信息不對稱的情境下很容易接受經(jīng)營者私下制定的定價規(guī)則,以不合理的價格購入商品,嚴(yán)重?fù)p害了消費(fèi)者的公平交易權(quán)。參見王威:“網(wǎng)絡(luò)購物合同中格式條款的法律規(guī)制與完善對策”,載《佳木斯大學(xué)社會科學(xué)學(xué)報》2011年第3期。 此外,由于大部分隱私政策的表現(xiàn)形式為格式條款,經(jīng)營者在其中加入的各種有利于自身而有害于消費(fèi)者的各項條款難以被消費(fèi)者感知。經(jīng)營平臺通過各項用戶無意識下的胡亂授權(quán)獲得了海量數(shù)據(jù),此時平臺作為大數(shù)據(jù)時代的主要個人信息處理者,通過全鏈?zhǔn)綌?shù)據(jù)通路挖掘用戶信息,獲得更加精準(zhǔn)、完整的用戶畫像,并通過算法自動決策進(jìn)行網(wǎng)絡(luò)上的精準(zhǔn)化投放廣告,對個體差異化定價。以上所提到的種種行為明顯超越了數(shù)據(jù)商業(yè)化價值的發(fā)掘限度,在數(shù)據(jù)采集端侵犯了用戶的隱私權(quán),又在AI算法應(yīng)用決策層面實施算法價格歧視行為,侵犯了用戶的平等權(quán)。從保護(hù)用戶信賴?yán)娴慕嵌戎郑衫響?yīng)對諸如此類的“用戶協(xié)議”、“隱私政策”等等進(jìn)行一定的規(guī)制,并對經(jīng)營者平臺提出安全保障的義務(wù)。第二節(jié)算法歧視相關(guān)責(zé)任規(guī)范不完善 我國目前關(guān)于算法歧視方面的專門立法存在缺失,亟需結(jié)合國內(nèi)外相關(guān)研究立法經(jīng)驗制定一部專門的法律或?qū)ΜF(xiàn)存的一些法律進(jìn)行完善以應(yīng)對算法歧視行為。一、算法歧視行為法律界定模糊人工智能問題的相關(guān)法律規(guī)制問題雖然在近年來才被提出,但隨著人工智能技術(shù)逐漸滲透到社會生活中,原有的法律框架便難以解決新的社會問題。法律作為穩(wěn)定的調(diào)節(jié)社會關(guān)系的最后機(jī)制,在面對日新月異的人工智能技術(shù)時,必然會在時間上存在一定的滯后性。這種理論上的滯后性必然會影響到立法活動,再進(jìn)一步影響到司法實踐,出現(xiàn)理論與實踐上的脫節(jié)。目前存在的相關(guān)法律對于算法歧視行為的法律性質(zhì)的界定模棱兩可。首先,算法作為一種技術(shù),在外觀上天然具有中立的屬性。技術(shù)中立屬性雖然為科技的發(fā)展創(chuàng)新提供了良好的外部環(huán)境,但由于算法在設(shè)計的過程中常常會加入設(shè)計者的主觀因素,經(jīng)營者的價值需求和利益導(dǎo)向被算法開發(fā)者隨意嵌入定價程序,因此,外觀上表現(xiàn)有自動性和客觀性的算法價格決策程序,實際上蘊(yùn)含著經(jīng)營者不正當(dāng)?shù)哪康?。參見葉明,郭江蘭:“數(shù)字經(jīng)濟(jì)時代算法價格歧視行為的法律規(guī)制”,載《價格月刊》2020年第3期。而法律對于這種外部表現(xiàn)為技術(shù)中立實際則不合法的行為卻沒有作出明確的法律判斷。參見葉明,郭江蘭:“數(shù)字經(jīng)濟(jì)時代算法價格歧視行為的法律規(guī)制”,載《價格月刊》2020年第3期。其次,價格歧視作為一個經(jīng)濟(jì)學(xué)概念,在經(jīng)濟(jì)學(xué)中通常被認(rèn)為是一種正當(dāng)?shù)氖袌鲂袨椤T谶M(jìn)入大數(shù)據(jù)時代之前,經(jīng)濟(jì)學(xué)家主要研究的是二三級價格歧視,即根據(jù)數(shù)量或根據(jù)人口統(tǒng)計類別進(jìn)行差別定價。由于經(jīng)濟(jì)學(xué)家認(rèn)為一級價格歧視即根據(jù)每個人定價只在理論上存在,所以對此幾乎沒有進(jìn)行過研究。但隨著大數(shù)據(jù)時代的來臨,經(jīng)營者通過大數(shù)據(jù)來攫取市場上可用的消費(fèi)者剩余,價格歧視因此而更加個性化,已逐漸接近于完美的一級價格歧視,且具體表現(xiàn)為算法價格歧視行為可能涉及到識別不同價格的個體消費(fèi)者,或者根據(jù)可觀察到的特點(diǎn)向不同類型客戶提供不同的價格。參見葉明,郭江蘭:“數(shù)字經(jīng)濟(jì)時代算法價格歧視行為的法律規(guī)制”,載《價格月刊》2020年第3期。因為個性化定價與差異化定價的合法界限定義不明確,經(jīng)營者往往會將自己對消費(fèi)者進(jìn)行的違法的價格歧視行為稱為合法的自主定價行為,鉆法律的漏洞,逃避法律責(zé)任的追究。參見葉明,郭江蘭:“數(shù)字經(jīng)濟(jì)時代算法價格歧視行為的法律規(guī)制”,載《價格月刊》2020年第3期。最后,根據(jù)現(xiàn)行法律關(guān)于價格歧視的認(rèn)定問題也存在重重困難。算法個性化推薦的商品往往不盡相同,根據(jù)不同的時間空間進(jìn)行定價本身就具有一定的合理性,且對于相同的商品與服務(wù)以及條件的認(rèn)定也十分困難。因此經(jīng)營者通過算法決策差異化定價的行為本身就難以受制于傳統(tǒng)的違法性構(gòu)成要件。算法社會下的法律爭議相較于之前提升了一個維度,一味遵循法律規(guī)范的傳統(tǒng)做法已經(jīng)嚴(yán)重過時,將理論與實踐相結(jié)合尋求各界共識才是解決當(dāng)前社會算法問題的上上之策。算法歧視的產(chǎn)生是基于信息獲取的不完整,雖然人工智能技術(shù)在獲取信息與處理數(shù)據(jù)的能力是人類所無法比肩的,并且在大多數(shù)不考慮輸入性歧視的情況下,由算法自動作出的決策是很少會出現(xiàn)歧視問題的。但是,隨著技術(shù)的發(fā)展,便利性的增強(qiáng),人類會不可避免的去更加信任和依賴算法進(jìn)行決策,于是哪怕算法作出的決策從表象上來看是公正的,事實上卻構(gòu)成了歧視。因此尋求界定算法歧視行為的標(biāo)準(zhǔn)便變得非常重要了。二、現(xiàn)行法律體系難以兼容規(guī)制算法歧視的司法需要我國現(xiàn)有關(guān)于算法歧視行為規(guī)制的法律極其不完整,很多如算法歧視認(rèn)定的標(biāo)準(zhǔn)、責(zé)任追究等相關(guān)法律規(guī)定缺失。因此目前大部分學(xué)者在研究算法歧視行為時,往往會以傳統(tǒng)的法律為判斷標(biāo)準(zhǔn),即參考國內(nèi)外關(guān)于反不正當(dāng)競爭法、反歧視法等法律規(guī)范來認(rèn)定相關(guān)行為是否正當(dāng)。該種認(rèn)定方法雖然簡便,但難免會出現(xiàn)一刀切的僵化后果。參考傳統(tǒng)法律雖保守而穩(wěn)定,但因其不具有如算法般深度學(xué)習(xí)的特點(diǎn),無法及時更新與修復(fù)相關(guān)的理念,在實踐中往往會引發(fā)更多的矛盾與問題。目前,我國現(xiàn)行法律體系下,除《電子商務(wù)法》專門制定了算法條款以外,對于算法歧視的規(guī)制問題,并沒有專門的法律進(jìn)行了規(guī)定,相關(guān)法律規(guī)制大多散見于《消費(fèi)者權(quán)益保護(hù)法》《反壟斷法》《價格法》以及相關(guān)政策、行業(yè)標(biāo)準(zhǔn)等。如《電子商務(wù)法》雖然在條款中明確否定了經(jīng)營者利用消費(fèi)者數(shù)據(jù)提供搜索結(jié)果的行為,但由于相關(guān)“搜索結(jié)果”的解釋不夠清晰,便難以將經(jīng)營者的算法價格歧視行為納入規(guī)制。在《消費(fèi)者權(quán)益保護(hù)法》中,消費(fèi)者可以通過主張知情權(quán)與公平交易權(quán)受到侵害為由來獲得相應(yīng)的救濟(jì),但司法實踐中,因算法決策行為更多被法律定性為企業(yè)之間正常的商業(yè)競爭行為而非商品,跳脫了消費(fèi)者知情的范圍,且經(jīng)營者還以商業(yè)秘密為由進(jìn)行抗辯,因此通過《消費(fèi)者權(quán)益保護(hù)法》來進(jìn)行規(guī)制并不現(xiàn)實。在《反壟斷法》中,法律對價格歧視行為進(jìn)行規(guī)制的對象條件是具有市場支配地位的經(jīng)營者,但實踐中實施算法歧視行為的經(jīng)營者并不一定會具有市場支配地位,因此也難以對相關(guān)行為進(jìn)行規(guī)制。在《價格法》中,法律僅僅對經(jīng)營者相互之間的價格歧視行為作出了規(guī)定,而未對經(jīng)營者對消費(fèi)者作出的價格歧視行為進(jìn)行規(guī)制。這些法律規(guī)范的適用范圍受到了現(xiàn)有違法構(gòu)成要件的束縛與限制,算法價格歧視行為無法完美契合相關(guān)法律規(guī)范的適用條件,難以為遭受算法價格歧視行為損害的消費(fèi)者一方提供相應(yīng)的法律救濟(jì)。除了算法價格歧視行為的法律適用方面外,有關(guān)法律對于算法責(zé)任的規(guī)定也并不非常明確,算法歧視行為的責(zé)任分配和承擔(dān)問題一直是一項熱門的議題。我國法律對于算法歧視行為的責(zé)任規(guī)范存在片面性,例如《電子商務(wù)法》第十八條明確規(guī)定了算法應(yīng)該“尊重和平等保護(hù)消費(fèi)者合法權(quán)益”責(zé)任內(nèi)容,對算法價格歧視行為進(jìn)行針對性的規(guī)制,尤其是對算法的設(shè)計和部署提出了一定的要求,將其直接納入了責(zé)任規(guī)范范圍。但該條款并沒有涵蓋算法價格歧視行為所涉及的其他責(zé)任內(nèi)容,僅僅涉及到了平臺算法責(zé)任。轉(zhuǎn)引自葉明,郭江蘭:“數(shù)字經(jīng)濟(jì)時代算法價格歧視行為的法律規(guī)制”,載《價格月刊》2020年第3期。《最高人民法院關(guān)于審理利用信息網(wǎng)絡(luò)侵害人身權(quán)益民事糾紛案件適用法律若干問題的規(guī)定》第九條規(guī)定,人民法院依據(jù)侵權(quán)責(zé)任法第三十六條第三款認(rèn)定網(wǎng)絡(luò)服務(wù)提供者是否“知道”,應(yīng)當(dāng)綜合考慮下列因素:(一)網(wǎng)絡(luò)服務(wù)提供者是否以人工或者自動方式對侵權(quán)網(wǎng)絡(luò)信息以推薦、排名、選擇、編輯、整理、修改等方式作出處理。參見最高人民法院:“最高人民法院關(guān)于審理利用信息網(wǎng)絡(luò)侵害人身權(quán)益民事糾紛案件適用法律若干問題的規(guī)定”若經(jīng)營者對消費(fèi)者進(jìn)行的個性推薦行為是由算法自動作出,則不屬于法律中的“知道”情形,企業(yè)不需要承擔(dān)責(zé)任,因此這在一定程度上也體現(xiàn)了算法的難以問責(zé)性。參見姜野:《算法的法律規(guī)制研究》,吉林大學(xué)2020年6月博士學(xué)位論文轉(zhuǎn)引自葉明,郭江蘭:“數(shù)字經(jīng)濟(jì)時代算法價格歧視行為的法律規(guī)制”,載《價格月刊》2020年第3期。參見最高人民法院:“最高人民法院關(guān)于審理利用信息網(wǎng)絡(luò)侵害人身權(quán)益民事糾紛案件適用法律若干問題的規(guī)定”參見姜野:《算法的法律規(guī)制研究》,吉林大學(xué)2020年6月博士學(xué)位論文,第63頁。除以上已生效的法律法規(guī)之外,我國2020年9月公布的《中華人民共和國個人信息保護(hù)法(草案)》雖然已經(jīng)算是基本建立了算法問責(zé)制度框架,在一定程度上擺脫了傳統(tǒng)平臺追責(zé)之困境,但在具體的制度上仍需要進(jìn)行進(jìn)一步的細(xì)化。該草案針對個人信息數(shù)據(jù)處理提供了一整套的處理方案,從數(shù)據(jù)搜集源頭、平臺處理規(guī)則、對個人信息處理者規(guī)定義務(wù)、強(qiáng)化個人在個人信息處理活動中的權(quán)利再到增設(shè)政府部門對個人信息保護(hù)的職責(zé)以及法律責(zé)任的追究,整體而言將保護(hù)個人信息權(quán)益作為核心,以嚴(yán)格規(guī)制個人信息處理活動為重點(diǎn),將為預(yù)防和規(guī)制違法收集、使用個人信息的行為提供強(qiáng)力的法律支持與保障。但該部草案涉及的內(nèi)容主要為個人信息保護(hù)和算法自動化決策層面的問題,對算法歧視行為沒有進(jìn)行具體的分析和提供相應(yīng)的解決措施,在未來出現(xiàn)相關(guān)案件時司法機(jī)關(guān)仍缺乏裁判依據(jù)。總體而言,我國目前算法自身的特性與立法理念尚未進(jìn)行良好的融合,因此構(gòu)建一部新的專門的法律仍存在著重重困難,現(xiàn)階段更需要重視的是完善現(xiàn)有的法律法律,架構(gòu)合理的法律體系,使得其能兼容算法在各個場景下的實際應(yīng)用,并強(qiáng)化數(shù)據(jù)與信息部門在法院司法決策中的地位。 第三節(jié)信息披露不充分與維權(quán)之困境 算法信息披露制度的缺陷使得即使消費(fèi)者收到了侵害也難以搜集證據(jù)并通過司法渠道進(jìn)行權(quán)利之維護(hù)。一、算法披露制度存在缺失算法歧視本身是具有違法性的,應(yīng)當(dāng)適用相應(yīng)的手段進(jìn)行規(guī)制,但在現(xiàn)有的法律框架下證明算法歧視行為的存在卻非常困難。算法系統(tǒng)的歧視性、隱蔽性、復(fù)雜性等特征使得一般公眾難以察覺到算法歧視行為的存在,算法決策行為無法做到完全的公開透明,也為經(jīng)營者進(jìn)行算法歧視行為創(chuàng)造了便利條件。算法是否透明常常被認(rèn)為是對算法進(jìn)行有效追責(zé)的關(guān)鍵性組成部分,相關(guān)機(jī)構(gòu)進(jìn)行追責(zé)必須要對算法行為進(jìn)行充分的了解,以此來判斷該項行為是否具有合法性。因此算法的透明性要求確保算法程序能夠從外部進(jìn)行充分的監(jiān)督,公開具體的算法決策步驟。作為有效規(guī)制算法行為的機(jī)制,算法披露制度要求算法在處理個人數(shù)據(jù)時要時刻保持公開,采用容易被公眾獲取信息并理解的數(shù)據(jù)處理方式,并且以一種較為清晰明練的語言進(jìn)行保存活動。算法黑箱是形成算法不透明的主要原因,“黑箱”指的是那些不為人知的無法打開、不能從外部直接窺視到其內(nèi)部狀態(tài)的系統(tǒng)。參見徐鳳:“人工智能算法黑箱的法律規(guī)制——以智能投顧為例展開”,載《東方法學(xué)》2019年第6期。算法不透明性主要表現(xiàn)為三種形式:一是涉及商業(yè)秘密或個人隱私;二是由于非專業(yè)人員的技術(shù)認(rèn)知障礙;三是算法適用測量中產(chǎn)生的不透明。參見徐鳳:“人工智能算法黑箱的法律規(guī)制——以智能投顧為例展開”,載《東方法學(xué)》2019年第6期。轉(zhuǎn)引自李超:“人工智能算法歧視的法律規(guī)制研究”,載《重慶廣播電視大學(xué)學(xué)報》2020年第2期。但是對于是否應(yīng)當(dāng)對算法進(jìn)行披露,保持算法公開性和透明性存在著一定的爭議。有學(xué)者認(rèn)為算法披露制度所涉及的主要內(nèi)容為系統(tǒng)的源代碼,但事實上即使是專業(yè)人員對于理解這些源代碼也會存在一定的困難,更何況是非專業(yè)人員,因此難以通過披露算法源代碼的方式對算法歧視行為進(jìn)行規(guī)避。且僅僅分析算法背后的源代碼會忽視掉算法決策的環(huán)境因素如算法目的或者算法功能,無法充分理解到其背后的決策邏輯,算法的決策規(guī)則一般只有控制者能夠完全操控,要求控制者完全放棄相關(guān)利益進(jìn)行相應(yīng)的算法披露是不可能也不現(xiàn)實的。例如,在某些涉及國家和社會安全的領(lǐng)域,部分程序的不透明性是必須的;此外,在涉及商業(yè)行為的方面,由于存在商業(yè)秘密這一限制,算法的完全透明也是不可能存在的。還有觀點(diǎn)指出,因歧視行為是通過長期的訓(xùn)練或?qū)?shù)據(jù)進(jìn)行操縱而非通過算法本身產(chǎn)生的,對處于中立地位的算法進(jìn)行披露甚至起不到理想的作用,反而會助長經(jīng)營者借助“技術(shù)中立”的理由來逃避算法歧視行為的責(zé)任。另外,在建立算法披露制度后對算法進(jìn)行審查也是無可避免的,但算法審查也同樣面臨著重重困境。在社會生活中,人們?nèi)绻麑φ畬嵤┑墓袨?、平等民事主體之間的私行為不滿,可以采取調(diào)解、仲裁、訴訟等多種方式進(jìn)行權(quán)利的維護(hù),且國家法律對于這些正當(dāng)程序進(jìn)行了嚴(yán)格的規(guī)定,可以確保這些決策程序得到嚴(yán)格的審查。但如果人們對于算法程序決策的結(jié)果不滿意,是很難在現(xiàn)有法律的框架下得到公正合理的審查的。在算法決策愈發(fā)普遍化的社會大環(huán)境下,對算法進(jìn)行審查顯然是極為必要的,但是目前看來學(xué)術(shù)界對于算法審查的內(nèi)容尚未明確,且根據(jù)現(xiàn)有法律來對算法的合法性進(jìn)行審查顯然也存在較多問題,在算法普遍缺乏透明度的大環(huán)境下更是使得算法審查難以為繼。從成本和效益的方面來看,對算法進(jìn)行解密并公開需要的成本非常之大,而且可能遠(yuǎn)遠(yuǎn)超出所能獲得的效益,此時如果只對不透明的算法進(jìn)行審查是很難獲得一個公平的結(jié)果的。如前所述,算法披露機(jī)制的不完善引發(fā)了從決策到審查方面的種種問題,更是使得算法歧視行為變得難以規(guī)制。因此,為更有成效地解決上文所提到的一些問題,建立健全合理的算法披露機(jī)制是至關(guān)重要的。二、消費(fèi)者維權(quán)困難 算法歧視因具有隱蔽性,決策輸出過程復(fù)雜而緩慢,在程序運(yùn)行過程中會有很多種因素對最終輸出結(jié)果產(chǎn)生影響。而且算法系統(tǒng)在設(shè)計的過程中不可避免地會帶有程序設(shè)計者個人的價值取向與主觀因素,因此不同開發(fā)者所設(shè)計的算法邏輯過程也不盡相同,更有甚者,算法運(yùn)行的各個階段也是不盡相同的。 因此對于權(quán)利被侵害之人而言,在舉證過程中會遇到重重的困難。首先是技術(shù)門檻層面的限制,對于非專業(yè)人員來說,是很難從專業(yè)人員設(shè)計的復(fù)雜算法中察覺到存在的算法歧視行為的。算法的運(yùn)作流程和決策機(jī)制一般都是處于一種非公開狀態(tài),侵害者更是會以商業(yè)秘密等理由進(jìn)行抗辯,妨礙權(quán)力被侵害者舉證。按照傳統(tǒng)的“誰主張誰舉證”證明規(guī)則,被侵害人舉證失敗將會承擔(dān)敗訴風(fēng)險,現(xiàn)有證明責(zé)任無法滿足相關(guān)糾紛處理的要求。參見李超:“人工智能算法歧視的法律規(guī)制研究”,載《重慶廣播電視大學(xué)學(xué)報》2020年第2期。在實踐中,由于消費(fèi)者與經(jīng)營者在獲取信息的能力和渠道上是不對稱的,消費(fèi)者舉證經(jīng)營者實施算法歧視行為所需要的材料、數(shù)據(jù)等都被牢牢掌握在經(jīng)營者手中,消費(fèi)者很難獲取。即使權(quán)利被侵害人成功舉證,往往也是要花費(fèi)巨大的財力和精力進(jìn)行調(diào)查,但勝訴后獲得的補(bǔ)償卻無以填補(bǔ)龐大的訴訟成本,遑論其被侵害的利益。參見李超:“人工智能算法歧視的法律規(guī)制研究”,載《重慶廣播電視大學(xué)學(xué)報》2020年第2期。 此外,由于算法的終端運(yùn)作存在著網(wǎng)絡(luò)用戶分化使用的特征,個體陷入了信息孤島,即使確實存在著侵害行為消費(fèi)者也很難發(fā)現(xiàn),且在面對證據(jù)收集時也會存在著孤立無援的現(xiàn)象。當(dāng)真正出現(xiàn)算法價格歧視問題時,經(jīng)營者往往會以商品服務(wù)種類不同、時間地域因素、新老顧客優(yōu)惠等托辭來進(jìn)行解釋。對于消費(fèi)者而言,由于經(jīng)營者的定價規(guī)則是隱蔽的,在遇到問題后,往往不能判斷出經(jīng)營者所做出的解釋是否合理真實。而算法價格歧視行為針對的一般不只是單一個體,而是針對整個消費(fèi)者群體作出的違反誠實信用原則的行為,因此僅僅靠個別案例是很難完善相關(guān)的權(quán)益保護(hù)體系,消費(fèi)者又面臨著舉證困難的各種困境,在維權(quán)時力不從心。第三章域外對于算法歧視之法律規(guī)制了解歐美國家對規(guī)制算法歧視行為做出對應(yīng)的保護(hù)措施,我國可以在域外各國算法歧視行為的規(guī)制措施以及權(quán)益保護(hù)措施相關(guān)立法的基礎(chǔ)上,結(jié)合我國國情,以更好的維護(hù)消費(fèi)者們的權(quán)益。第一節(jié)域外有關(guān)個人數(shù)據(jù)隱私保護(hù)的規(guī)制 我國互聯(lián)網(wǎng)大數(shù)據(jù)發(fā)展的時間較短,在個人隱私數(shù)據(jù)保護(hù)方面,需要借鑒和學(xué)習(xí)發(fā)達(dá)國家的相關(guān)制度和經(jīng)驗。一、美國《關(guān)于算法透明度和責(zé)任的聲明》中對數(shù)據(jù)采集的規(guī)定2017年1月12日,美國計算機(jī)協(xié)會下屬美國公共政策委員會發(fā)布的《關(guān)于算法透明度和責(zé)任的聲明》指出:“生活中無處不在的算法促使我們應(yīng)該專注于解決與算法的設(shè)計和技術(shù)方面相關(guān)的挑戰(zhàn),并從一開始就防止偏見”。參見孫逸嘯,鄭浩然:“算法治理的域外經(jīng)驗與中國進(jìn)路”,載《信息安全研究》2021年第1期。其中提出了七項關(guān)于提升算法透明度和可靠性的原則,以此來確保算法在決策過程中輸出的結(jié)果更加公平合理。這其中便包括了反歧視意識、獲取和救濟(jì)、算法責(zé)任制、解釋、數(shù)據(jù)來源、可審計性、驗證和檢測。參見孫逸嘯,鄭浩然:“算法治理的域外經(jīng)驗與中國進(jìn)路”,載《信息安全研究》2021年第1期。參見章小杉:“人工智能算法歧視的法律規(guī)制:歐美經(jīng)驗與中國路徑”,載《華東理工大學(xué)學(xué)報(社會科學(xué)版)》2019年第6期。該聲明從主體、制度設(shè)計、責(zé)任分配等方面進(jìn)行原則性政策規(guī)定,不僅提示算法系統(tǒng)影響到的相關(guān)主體注意到算法運(yùn)用過程中可能遇到的問題,也較以往法案相對明確了責(zé)任主體,并從數(shù)據(jù)收集的源頭預(yù)防最后歧視結(jié)果的發(fā)生,明確了算法的可審查性。該聲明不僅將算法所引發(fā)的種種如算法歧視等問題引向社會探討,更是將算法透明度缺失導(dǎo)致的如算法黑箱、信息繭房等問題推到了公眾面前,為后續(xù)出臺相關(guān)法案和算法治理提供了理論指導(dǎo)。二、歐盟《一般數(shù)據(jù)保護(hù)法案》的特別規(guī)定歐盟議會于2016年4月14日通過《通用數(shù)據(jù)保護(hù)條例(GeneralDataProtectionRegulations)》(“GDPR”)并于2018年5月25日在歐盟成員國內(nèi)正式生效實施。轉(zhuǎn)引自中國存儲網(wǎng):“GDPR通用數(shù)據(jù)保護(hù)條例——中文版全文”,該條例對數(shù)據(jù)處理原則、數(shù)據(jù)主體之權(quán)利、控制處理者的義務(wù)、獨(dú)立監(jiān)管機(jī)構(gòu)、合作與一致性、責(zé)任救濟(jì)和處罰規(guī)則等一系列內(nèi)容作出詳細(xì)規(guī)定,重點(diǎn)強(qiáng)調(diào)對算法治理的規(guī)制構(gòu)建。參見孫逸嘯,鄭浩然:“算法治理的域外經(jīng)驗與中國進(jìn)路”,載《信息安全研究》2021年第1期。條例以增益用戶權(quán)利為中心,從數(shù)據(jù)收集到數(shù)據(jù)處理,在各個階段構(gòu)建起以數(shù)據(jù)控制者和處理者責(zé)任義務(wù)為核心的問責(zé)機(jī)制,架構(gòu)了較為完備的數(shù)據(jù)保護(hù)體系。正文體現(xiàn)了算法歧視的具體規(guī)制措施,其主要原則為在數(shù)據(jù)自動化決策中移除特定種類的個人數(shù)據(jù),以此防止基于敏感數(shù)據(jù)而對特定數(shù)據(jù)主體作出歧視性決策行為。參見章小杉:“人工智能算法歧視的法律規(guī)制:歐美經(jīng)驗與中國路徑”,載《華東理工大學(xué)學(xué)報(社會科學(xué)版)》2019年第6期。例如條例第9條規(guī)定“對揭示種族或民族出身,政治觀點(diǎn)、宗教或哲學(xué)信仰,工會成員的個人數(shù)據(jù),以及以唯一識別自然人為目的的基因數(shù)據(jù)、生物特征數(shù)據(jù),健康、自然人的性生活或性取向的數(shù)據(jù)的處理應(yīng)當(dāng)被禁止。”轉(zhuǎn)引自中國存儲網(wǎng):“GDPR通用數(shù)據(jù)保護(hù)條例——中文版全文”,也列出了一些除外情形。條例第三章規(guī)定還賦予了數(shù)據(jù)主體對數(shù)據(jù)的訪問權(quán)、糾正權(quán)、被遺忘權(quán)、拒絕權(quán)、限制處理權(quán)、反對權(quán)和自主決定權(quán)等,從各個階段增強(qiáng)了數(shù)據(jù)主體對個人數(shù)據(jù)的控制,進(jìn)而對抗算法決策過程中可能對數(shù)據(jù)主體產(chǎn)生的危害。轉(zhuǎn)引自中國存儲網(wǎng):“GDPR通用數(shù)據(jù)保護(hù)條例——中文版全文”,參見孫逸嘯,鄭浩然:“算法治理的域外經(jīng)驗與中國進(jìn)路”,載《信息安全研究》2021年第1期。參見章小杉:“人工智能算法歧視的法律規(guī)制:歐美經(jīng)驗與中國路徑”,載《華東理工大學(xué)學(xué)報(社會科學(xué)版)》2019年第6期。轉(zhuǎn)引自中國存儲網(wǎng):“GDPR通用數(shù)據(jù)保護(hù)條例——中文版全文”,該條例雖然仍存在一定的缺陷,但其從根源出發(fā),以個人對數(shù)據(jù)擁有的自主決定權(quán)為基礎(chǔ)構(gòu)建數(shù)據(jù)權(quán)利保護(hù)體系,從源頭上對算法歧視等算法危害行為進(jìn)行預(yù)防,不失為目前對于算法開發(fā)設(shè)計和進(jìn)行監(jiān)督管理的標(biāo)桿。第二節(jié)域外關(guān)于算法歧視問責(zé)制度的規(guī)范 目前,域外各個國家對于算法歧視行為的問責(zé)已累積一定的相關(guān)經(jīng)驗,這些都十分值得我國立法研究進(jìn)行借鑒。一、美國《算法責(zé)任法案》與一系列規(guī)定2019年4月,美國眾議院和參議院的民主黨議員提出《算法責(zé)任法案》,其目的在于進(jìn)一步規(guī)范人工智能算法,從更大的范圍內(nèi)對用戶數(shù)據(jù)隱私安全作出保護(hù),對算法歧視行為進(jìn)行立法監(jiān)管。該法案從市場規(guī)范層面對企業(yè)行為進(jìn)行規(guī)制,授權(quán)聯(lián)邦貿(mào)易委員會要求使用、儲存、分享個人信息的企業(yè)作出自動化決策系統(tǒng)及數(shù)據(jù)保護(hù)影響評估,要求企業(yè)對其算法系統(tǒng)的“公平性、準(zhǔn)確性、歧視、偏見、隱私和安全性”等問題進(jìn)行自我審查。參見章小杉:“人工智能算法歧視的法律規(guī)制:歐美經(jīng)驗與中國路徑”,載《華東理工大學(xué)學(xué)報(社會科學(xué)版)》2019年第6期。其側(cè)重點(diǎn)在于以結(jié)果為重點(diǎn)進(jìn)行算法審查而非對算法的透明度進(jìn)行一定的要求,這也是因為算法黑箱的存在而使得算法審查具有了一定的局限性,一般難以通過審查來揭示算法過程種存在的因果關(guān)系等因素,進(jìn)而使算法審查轉(zhuǎn)為結(jié)果導(dǎo)向。參見章小杉:“人工智能算法歧視的法律規(guī)制:歐美經(jīng)驗與中國路徑”,載《華東理工大學(xué)學(xué)報(社會科學(xué)版)》2019年第6期。法案規(guī)制的主體一般為獲取信息數(shù)量較大或主營業(yè)為個人數(shù)據(jù)買賣的科技公司,要求這些主體對算法自動決策系統(tǒng)作出影響評估,對可能出現(xiàn)的不公正不準(zhǔn)確的偏見與歧視性決策作出風(fēng)險評估與審查,并及時進(jìn)行更正。該法案以美國先前算法違法行為方面司法實踐的經(jīng)驗為基礎(chǔ),為進(jìn)一步探索算法的規(guī)范應(yīng)用,保護(hù)公眾權(quán)益免遭違法的算法行為危害,在聯(lián)邦層面進(jìn)行立法之探索,從制度層面為美國算法治理助力。除該法案外,美國以算法問責(zé)為核心的專門監(jiān)管模式下還有其他法律作出制度補(bǔ)充。例如,2017年1月12日美國計算機(jī)協(xié)會下屬美國公共政策委員會發(fā)布的《關(guān)于算法透明度和責(zé)任的聲明》,提出了七項原則,其中一項便是責(zé)任制原則,機(jī)構(gòu)應(yīng)當(dāng)對其所使用的算法決策負(fù)責(zé),即便其無法詳細(xì)解釋算法決策程序如何產(chǎn)生結(jié)果。美國紐約市議會于2017年12月通過的《政府部門自動決策系統(tǒng)法案》設(shè)立專門工作組對政府算法自動化決策程序進(jìn)行監(jiān)督,進(jìn)一步完善了算法規(guī)制的法律框架。二、歐盟在《機(jī)器人民事責(zé)任法案》的補(bǔ)充規(guī)定2017年2月歐盟通過《機(jī)器人民事責(zé)任法案》,該法案提出,進(jìn)一步發(fā)展和增加使用的自動化和算法決策無疑會影響個人的選擇和行政、司法或其他公共機(jī)關(guān)的權(quán)威,需要現(xiàn)有的法律框架針對這些問題予以回應(yīng),從業(yè)務(wù)視角模型和人員設(shè)計模式兩方面明確當(dāng)這些問題造成危害后果時的法律責(zé)任。參見孫逸嘯,鄭浩然:“算法治理的域外經(jīng)驗與中國進(jìn)路”,載《信息安全研究》2021年第1期。該法案探討了人工智能是否具備責(zé)任主體資格并將其責(zé)任主要?dú)w于制造者和使用者,同時提出應(yīng)當(dāng)在算法的自動化決策過程中納入安全保障以及人工監(jiān)察的可能性,以實現(xiàn)對算法技術(shù)的合理限制。該法案還提出了關(guān)于算法的倫理道德規(guī)定,設(shè)定嚴(yán)格、明確有效的道德框架來補(bǔ)充法律層面具有的缺陷,強(qiáng)調(diào)透明度原則,即在任何情況下,對人們的生活會產(chǎn)生實質(zhì)性影響的智能化決策背后的決策依據(jù)與決策之原則必須能夠被人們所了解與知悉。參見張帆:《人工智能時代下算法歧視的法理分析和法律規(guī)制》,廣州大學(xué)2019年5月碩士學(xué)位論文參見孫逸嘯,鄭浩然:“算法治理的域外經(jīng)驗與中國進(jìn)路”,載《信息安全研究》2021年第1期。參見張帆:《人工智能時代下算法歧視的法理分析和法律規(guī)制》,廣州大學(xué)2019年5月碩士學(xué)位論文,第2頁。第三節(jié)域外對于算法披露制度的構(gòu)建與權(quán)利保護(hù) 由于算法的特殊性,算法歧視往往具有一定的隱蔽性,權(quán)利受侵害者在維權(quán)時若缺乏相關(guān)制度的輔助往往力不從心。域外便針對這一點(diǎn)建立了較為完備的算法披露制度,力求最大程度上保護(hù)權(quán)利受侵害者的合法權(quán)益。一、美國《政府部門自動決策系統(tǒng)法案》設(shè)立專門工作組根據(jù)美國現(xiàn)行法律規(guī)范與司法判例,算法程序應(yīng)屬于處于被保護(hù)狀態(tài)下的商業(yè)秘密。如果公權(quán)力強(qiáng)行要求公開算法將可能侵犯到企業(yè)的商業(yè)秘密,也會嚴(yán)重打擊算法設(shè)計者的積極性,難以推進(jìn)算法技術(shù)的進(jìn)步。此外,算法公開可能會導(dǎo)致關(guān)鍵數(shù)據(jù)和代碼曝光,將算法的內(nèi)在邏輯交由危險分子了解學(xué)習(xí),算法風(fēng)險控制難度增強(qiáng),進(jìn)而給社會帶來更多危險因素。因此,學(xué)界推薦的算法歧視規(guī)制重點(diǎn)對策由算法透明轉(zhuǎn)為算法審查。參見章小杉.:“工智能算法歧視的法律規(guī)制:歐美經(jīng)驗與中國路徑“,載《華東理工大學(xué)學(xué)報(社會科學(xué)版)》2019年第6期。該法案要求成立一個由自動化決策系統(tǒng)專家和受自動化決策系統(tǒng)影響的公民組織代表組成的工作組,以就市政機(jī)構(gòu)使用自動決策算法的公平性、問責(zé)性和透明度等問題進(jìn)行專門監(jiān)督。法案明確規(guī)定,政府機(jī)構(gòu)的自動化決策系統(tǒng)需要受到規(guī)制,受其決策結(jié)果影響的個人可以要求機(jī)構(gòu)提供解釋和證據(jù),規(guī)定了相應(yīng)的救濟(jì)程序,要求自動化決策系統(tǒng)的信息公開化透明化。參見孫逸嘯,鄭浩然:“算法治理的域外經(jīng)驗與中國進(jìn)路”,載《信息安全研究》2021年第1期。.該法案從政府層面出發(fā),進(jìn)一步預(yù)防了算法技術(shù)在政府機(jī)構(gòu)權(quán)力運(yùn)行過程中可能會產(chǎn)生的偏見與歧視問題。參見章小杉.:“工智能算法歧視的法律規(guī)制:歐美經(jīng)驗與中國路徑“,載《華東理工大學(xué)學(xué)報(社會科學(xué)版)》2019年第6期。參見孫逸嘯,鄭浩然:“算法治理的域外經(jīng)驗與中國進(jìn)路”,載《信息安全研究》2021年第1期。.二、歐盟統(tǒng)籌協(xié)調(diào)于數(shù)據(jù)保護(hù)整體框架之中的算法治理模式由于歐盟內(nèi)部本身存在的成員差異,很難構(gòu)建一套適合所有國家所有地區(qū)的數(shù)字經(jīng)濟(jì)治理體系,整個體系的建設(shè)過程緩慢而艱難。相較于美國靈活的數(shù)字經(jīng)濟(jì)治理體系,歐盟的重點(diǎn)在于打破不同成員國之間的數(shù)字壁壘,以保障人權(quán)為目的,從數(shù)據(jù)保護(hù)出發(fā)以嚴(yán)格的立法形式構(gòu)建數(shù)據(jù)保護(hù)規(guī)制體系。從2000年的《歐盟基本權(quán)利憲章》規(guī)定的“人人有權(quán)要求個人數(shù)據(jù)被保護(hù)”到《通用數(shù)據(jù)保護(hù)條例》的出臺,歐盟制定了一系列強(qiáng)而有力的法律規(guī)范,其內(nèi)容包括了數(shù)據(jù)保護(hù)、網(wǎng)絡(luò)安全和個人數(shù)據(jù)權(quán)利等多個方面,以詳細(xì)具體的規(guī)范構(gòu)建優(yōu)良的數(shù)據(jù)治理體系,例如《網(wǎng)絡(luò)安全法》、《非個人數(shù)據(jù)自由流動條例》、《數(shù)據(jù)保護(hù)指令》、《數(shù)字單一市場戰(zhàn)略》等多項法律法規(guī)。歐盟通過這種統(tǒng)籌協(xié)調(diào)于數(shù)據(jù)保護(hù)的整體框架種的治理模式增強(qiáng)個人數(shù)據(jù)權(quán)利,從源頭對抗算法歧視與算法偏見等算法危害行為。第四章治理算法歧視的法律建議 在了解了其他國家對于算法歧視相關(guān)問題的規(guī)制方式之后,不免在其中受到了一些啟發(fā),接下來本文將以具體問題和其成因為對應(yīng)給出相應(yīng)的完善和解決建議。第一節(jié) 構(gòu)建算法歧視行為預(yù)防體系 算法由于其本身所具有的特性,當(dāng)算法歧視行為發(fā)生并造成影響后,為消除其帶來的負(fù)面影響將耗費(fèi)巨大人力物力。因此若能建立起一套從源頭出發(fā)對算法歧視行為進(jìn)行規(guī)避的體系將大有裨益。一、加強(qiáng)隱私政策與格式條款的審查力度隱私政策作為一項個人信息保護(hù)的有力措施,由于我國有關(guān)隱私和數(shù)據(jù)保護(hù)的規(guī)定分散于各個法律中,沒有詳細(xì)且完整的法律體系,在很大程度上限制了其對數(shù)據(jù)隱私保護(hù)所能發(fā)揮的作用。因此,我國需要制定綜合性的隱私保護(hù)政策法律,明確政策的內(nèi)容、程序、透明度和可操作性,用具體化的內(nèi)容構(gòu)建明晰的政策框架和內(nèi)容要點(diǎn)。在制定政策時,還可以借鑒國外制定隱私保護(hù)政策的成果經(jīng)驗,并結(jié)合我國具體實踐要求,使政策更加完備合理。在隱私政策的內(nèi)容方面,應(yīng)當(dāng)要求其強(qiáng)化用戶的權(quán)利保障。當(dāng)前隱私政策中經(jīng)營平臺獲取用戶數(shù)據(jù)信息主要采用同意授權(quán)方式,更偏向于保護(hù)經(jīng)營平臺自身的利益而忽視了用戶的權(quán)益保護(hù),對用戶的對數(shù)據(jù)的訪問權(quán)、糾正權(quán)、被遺忘權(quán)、拒絕權(quán)、限制處理權(quán)、反對權(quán)和自主決定權(quán)等權(quán)利不夠重視。當(dāng)侵害行為發(fā)生時,隱私政策保護(hù)的對象偏向于經(jīng)營平臺而不是用戶個體。因此,在政策內(nèi)容中應(yīng)當(dāng)遵守相關(guān)法律法規(guī),豐富用戶個人信息數(shù)據(jù)權(quán)利,平衡經(jīng)營平臺與用戶之間的權(quán)利義務(wù)關(guān)系。針對這一點(diǎn),《中華人民共和國個人信息保護(hù)法(草案)》(二審稿)第二章關(guān)于個人信息處理規(guī)則的部分增加了個人信息處理者方面的義務(wù),并平臺的自動化決策結(jié)果設(shè)定了相關(guān)義務(wù)。其中第25條特別針對平臺“技術(shù)中立”的抗辯理由進(jìn)行了規(guī)定,要求平臺保證算法自動化決策結(jié)果公平合理;同時也擴(kuò)張了用戶的知情權(quán),為平臺附加了信息披露義務(wù),禁止平臺提供針對個人特征的選項,大大有利于打破用戶與平臺之間信息不對稱的地位。參見張凌寒:“《個人信息保護(hù)法(草案)》中的平臺算法問責(zé)制及其完善”,載《經(jīng)貿(mào)法律評論》2021年第1期。參見張凌寒:“《個人信息保護(hù)法(草案)》中的平臺算法問責(zé)制及其完善”,載《經(jīng)貿(mào)法律評論》2021年第1期。此外,在實踐中,有些經(jīng)營平臺的隱私政策僅能在安裝注冊時看到,而實際使用時用戶進(jìn)行查找則存在很多困難,這更是嚴(yán)重妨礙了用戶合理行駛個人信息數(shù)據(jù)權(quán)利和排除權(quán)利所受的危害。因此在相關(guān)法律法規(guī)中應(yīng)當(dāng)要求經(jīng)營平臺保證用戶能夠簡便查找隱私政策并知悉隱私政策內(nèi)容。除網(wǎng)絡(luò)隱私政策外,加強(qiáng)對網(wǎng)絡(luò)購物合同中格式條款的規(guī)制也能有效的預(yù)防算法價格歧視行為。在修補(bǔ)格式條款法律漏洞,完備相關(guān)規(guī)制內(nèi)容的同時加強(qiáng)經(jīng)營者的提示義務(wù),完善格式條款的外在表現(xiàn)形式,切實保障消費(fèi)者的知情權(quán)和審查權(quán)。首先,法律應(yīng)當(dāng)要求經(jīng)營者對一些不利于消費(fèi)者的條款進(jìn)行醒目提示,在合同的開頭提醒消費(fèi)者注意格式條款中的一些免責(zé)和限制責(zé)任的條款。如果網(wǎng)絡(luò)經(jīng)營者未曾對消費(fèi)者履行提示義務(wù),則應(yīng)當(dāng)認(rèn)為這些條款并未納入合同之中。參見王利明:《電子商務(wù)法研究》,中國法制出版社2003年版。另外,也應(yīng)當(dāng)設(shè)置消費(fèi)者在每一次訂立購物合同前都能再次審查和確認(rèn)全部格式條款。參見王利明:《電子商務(wù)法研究》,中國法制出版社2003年版。參見王威:“網(wǎng)絡(luò)購物合同中格式條款的法律規(guī)制與完善對策“,載《佳木斯大學(xué)社會科學(xué)學(xué)報》2011年第3期。二、建構(gòu)事先預(yù)防與事后監(jiān)察的雙重監(jiān)管制度因算法價格歧視行為一般難以察覺,且消費(fèi)者受到侵害也難以查證并取得相應(yīng)的救濟(jì),所有對于算法歧視行為的規(guī)制,其重點(diǎn)應(yīng)當(dāng)放在事先預(yù)防方面,再結(jié)合事后的監(jiān)察來共同構(gòu)建制度框架。在算法投入應(yīng)用之前應(yīng)當(dāng)施以必要的監(jiān)督,首先,可以對不同領(lǐng)域中的算法進(jìn)行分級分類,再采取不同的措施進(jìn)行規(guī)制。例如不涉及個人利益與公共利益場景中的算法可以放寬要求,使其能自由發(fā)揮作用;在搜索引擎與人臉識別等系統(tǒng)中發(fā)揮作用的算法極有可能影響到個人信息獲取與決策行為,因此便需要對算法作出程序合理性、內(nèi)容合規(guī)性、結(jié)果合法性要求;對于一些可能產(chǎn)生中高風(fēng)險的算法來說,例如電子商務(wù)定價、金融領(lǐng)域決策、個人信用評估等只需要算法進(jìn)行的自動化決策,而不需要人的主觀意志直接介入,將會對個人的權(quán)利尤其是自主選擇的權(quán)利產(chǎn)生極大的影響,因此這類算法將成為監(jiān)督管制的核心。其次,相關(guān)法律法規(guī)也應(yīng)當(dāng)對算法的透明度作出規(guī)定,由于涉及算法黑箱以及商業(yè)秘密等種種原因,算法不可能向公眾完全公開,因此在面向國家監(jiān)管組織和個人時要采用不同的透明度規(guī)則,加強(qiáng)對算法的審查監(jiān)督,以有效規(guī)制算法。另外,在算法的事后監(jiān)察方面,要注意完善算法審查監(jiān)管體系。一方面,我國可以參考美國設(shè)立專門的算法審查機(jī)構(gòu),負(fù)責(zé)算法的審批報備、監(jiān)管以及權(quán)利的救濟(jì),其中包括事前由決策者、專家和公民對算法進(jìn)行合理性與合法性的審查與評估,確認(rèn)其中不含顯性的或是隱性的歧視性因素,避免決策過程中如種族、性別、年齡等敏感屬性會造成歧視,并糾正部分隱蔽性更高的其他歧視性因素,從一定程度上保證最后決策結(jié)果的公正性;事中通過隨機(jī)抽檢監(jiān)督監(jiān)測算法系統(tǒng)的運(yùn)行,評估算法運(yùn)行的風(fēng)險,及時糾正錯誤的決策,這一步可以從政府和行業(yè)監(jiān)管兩方面來進(jìn)行,政府依靠強(qiáng)制性手段進(jìn)行監(jiān)管,企業(yè)依靠自律性進(jìn)行自我約束;最后要為受到算法歧視行為危害的主體提供相應(yīng)的申訴和救濟(jì)渠道,接受公眾對算法產(chǎn)生的質(zhì)疑,并要求算法的設(shè)計者對算法作出必要的解釋說明并進(jìn)行公示,若經(jīng)營者運(yùn)用算法擾亂秩序,可作出相應(yīng)的行政處罰,并以此來震懾潛在的問題經(jīng)營者。參見韓乾:《大數(shù)據(jù)時代算法歧視的法律規(guī)制》,西南政法大學(xué)2019年碩士學(xué)位論文,第51頁。參見韓乾:《大數(shù)據(jù)時代算法歧視的法律規(guī)制》,西南政法大學(xué)2019年碩士學(xué)位論文,第51頁。第二節(jié)構(gòu)建合理的經(jīng)營者問責(zé)制度 為了更加有效的預(yù)防經(jīng)營者和算法設(shè)計者利用算法實施價格歧視行為,從中謀取不當(dāng)利潤,進(jìn)而損害消費(fèi)者合法權(quán)益,有必要從責(zé)任的內(nèi)容和責(zé)任的追究方面進(jìn)行詳細(xì)的規(guī)定,督促經(jīng)營者和算法設(shè)計者主動規(guī)避違法行為。一、優(yōu)化責(zé)任內(nèi)容規(guī)范算法技術(shù)作為經(jīng)營者盈利的工具,從表面上看確屬技術(shù)問題,但由于算法的開發(fā)設(shè)計使用過程是非透明的,極易被人類主觀當(dāng)作實施不法行

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論