版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領
文檔簡介
數據保護權的多維視角
一、引言:數字覆蓋、結構轉換以及權利創(chuàng)新
2013年首先由德國提出的“產業(yè)革命4.0
版”概念,有一個非常重要的屬性,這就是通
過數字化的信息溝通技術(ICT),使物聯網、
大數據、人工智能形成一個有效互補的支撐關
系。2015年國務院頒布《中國制造2025》規(guī)
劃,同樣也是以數據驅動、智能生產、萬物聯
通為基本目標。根據IHSTechnology(芯智訊)
的統(tǒng)計和推測,2015年全球通過互聯網連接在
一起的裝置共有154億個,到2020年將增至
304億個。在這里,裝置不僅指電腦和智能手
機,而且包括汽車、家用電器、產業(yè)設備等不
具備通信功能的機器。不言而喻,網絡空間中
的各種活動和感應會不斷產生大量的數據,這
類大數據的分析和應用需要借助人工智能;反
之,人工智能本身又使物聯網能夠進一步發(fā)展,
同時不斷產生大數據和提高大數據的質量一
—這就是數字空間里普遍存在的“三位一體”
關系。這種互動過程使社會逐步形成一個信息
和實體交融的系統(tǒng),也就是智能融入物理世界
的狀態(tài)。
在物聯網的世界,物品借助感應器自動收
集的信息也可以通過互聯網加以利用,這意味
著人工智能將不通過人類而直接影響現實環(huán)
境。目前,人工智能從機器學習到深度學習,
實現了從量變到質變的飛躍,導致了新一波的
人工智能熱。人工智能在過去十幾年、二十年
左右的時間里飛速發(fā)展,正在引起產業(yè)模式乃
至社會結構的大轉型。2000年時人工智能還屬
于一種他律系統(tǒng),強調的是邏輯演算;但2012
年之后,深度學習功能出現和加強之后,人工
智能逐步演變成一種自律系統(tǒng)一一從事實、數
據中進行歸納,而不僅僅按照人類給出的指令
或程序運算。這就勢必帶來失控的風險。此外,
經濟和社會的許多方面都在使用人工智能,各
種人工智能系統(tǒng)的目標卻并不一樣,有時甚至
互相矛盾,在智能物聯網(AIoT)中也可能引
起混沌現象。伴隨著人工智能的發(fā)達,人們所
面對的當今社會呈現以下特征。
首先,傳感器無所不在,特別是二維碼移
動支付和刷臉通關的普及,使得當今生活世界
的幾乎每一個角落都被轉化成數字化表現形
式,積累為各種形態(tài)的大數據。疫情防控進一
步提升了社會的數字覆蓋程度,在很多城市甚
至達到了數字全覆蓋,不只是行蹤信息、社交
信息,連體內生理信息和醫(yī)療病歷信息都可以
通過“健康碼”等系統(tǒng)或網絡式治理平臺進行
分析、監(jiān)控以及預測。通過對大數據的人工智
能分析,社會的透明度大大提高了,幾乎再無
真正的隱私可言。然而,對大數據進行處理、
分析以及預測的人工智能運作卻越來越復雜,
特別是機器學習算法以及具有深度學習功能
的算法越來越讓人難以理解、難以說明。這就
是所謂“算法的黑箱化“,使人工智能實際上
變得不可解釋、難以控制,當人工智能系統(tǒng)用
于決策時也因而會使問責機制變得名存實亡。
由此可見,社會的透明化與算法的黑箱化,是
考慮經濟和社會的智能化轉型時必須注意的
一對基本矛盾。
其次,大數據能產生經濟價值,甚至成為
企業(yè)和社會的驅動力量。阿里巴巴之所以強有
力,一個重要原因就是通過電商掌握了近十億
人口在各種應用場景的行蹤數據、消費取向數
據,使得生產和銷售的計劃和實施都變得更加
精準,在相當程度上可以預測和影響人們的未
來。因此,馬云曾經說數據就是21世紀的石
油。這意味著數據是能源、是生產資料、是交
易通貨、是企業(yè)的利器,數據會產生利潤和效
益。值得注意的是,中國在數據收集和利用方
面具有獨特的優(yōu)勢。例如,中國公民的價值觀
和權利意識與歐美人有顯著的不同,對人工智
能持比較樂觀和友好的態(tài)度,也沒有很強的隱
私觀念;為了生活的便捷、社區(qū)的安全以及防
疫的需要,對各種數據的采集大都持支持的態(tài)
度,至少沒有特別明顯的抵觸情緒。因此,大
數據產業(yè)在中國更容易發(fā)達,人工智能也因富
有數據養(yǎng)料而迅速提升水平。在當前體制下,
中國優(yōu)質數據的百分之七十到百分之八十都
是由國有企業(yè)或者國家機構掌握的。其好處是
可以打破不同行業(yè)、不同利益集團的壁壘,使
數據的多維度利用得到充分實現。也就是說,
中國的數字空間沒有碎片化,沒有導致人工智
能的發(fā)展遭遇太多的人為障礙。不過,這種狀
態(tài)也存在數據安全和數據倫理上的隱患,如果
缺乏相應的規(guī)范制約就有可能極大地削減個
人自由度。
再次,數據的本質是信息,而信息的特點
是流動性。因而數據主體的界定、數據權利的
保護也就比較難,尤其很難以某種絕對化的方
式進行界定和保護。歐盟曾經制定過關于數據
庫權利的法律,試圖加強對數據的排他性保護,
結果失敗了。失敗的證據之一就是在歐洲沒有
出現大規(guī)模的數據產業(yè)、沒有出現在國際社會
具有影響力的巨型網絡公司或數字經濟平臺。
物聯網、大數據及人工智能結合起來導致社會
發(fā)生的一種也與流動性相關的深刻變化,是市
場交易的形態(tài)從物品轉向服務。人們都知道,
現代法律體系的本質是物品的所有、利用、處
分以及交易,其基礎是物權,在意識形態(tài)中還
表現為所有制。的確,迄今為止對個人或企業(yè)
而言,財富或物品的占有具有非常重要的意義。
然而,進入智能網絡化時代后,服務變成了更
重要的交易形態(tài)。例如,現在擁有光碟及其播
放機變得不再那么重要,因為可以隨時上網付
費下載和收聽收看有關的音樂或影視劇,質量
更好,也更方便。
最后,以智能物聯網為基礎的數據空間對
法與社會的影響不限于改變了作為秩序基石
的物權的結構和功能,而是還改變了規(guī)范形態(tài)
本身。二十世紀九十年代中期以來,很多專家
已經指出代碼取代法律、代碼即法律的趨勢。
本來法律上已經明文規(guī)定的權利,技術性規(guī)格
和代碼的設置就有可能導致它們沒有辦法行
使,或者不得不改變行使的方式和內容。比如
說DVD復制是很方便、很常見的行為,但是為
了保護知識產權,避免人們不斷對某個作品進
行DVD復制乃至牟利,有關行業(yè)制定了新的技
術標準,通過代碼使DVD的復制次數只限于兩
次到三次,即限于家庭內的消費。不言而喻,
在這里,技術代碼實際上取代法律發(fā)揮了行為
規(guī)范的作用。在這個意義上可以說,人工智能
可謂一種規(guī)制嵌入系統(tǒng),有利于約束效力的剛
性化,也有利于借助技術手段加強社會的守法
精神。然而,也要注意,沒有立法權的機構或
企業(yè)可以通過代碼框架或算法的設計繞開民
主程序來修改法律、創(chuàng)制法律,或多或少有可
能在數據空間里開拓出一片自由的飛地,帶來
潛在的不確定性。因此,法律還應該反過來規(guī)
制代碼,這樣就形成一種法律與代碼雙行的格
局,導致規(guī)范多元化。
從上述社會特征中可以發(fā)現法制變遷、權
利創(chuàng)新的一些重要契機。例如,社會透明化與
算法黑箱化的基本矛盾,意味著有必要從制度
層面加強對個人數據安全和隱私的保護,防止
監(jiān)控過度,并且應該從公民基本權利的高度來
理解個人信息的收集、分析和應用。與此同時,
要強調算法的公開透明、可解釋性、可理解性,
使個人享有抵御算法歧視的權利,并確保對現
代法治至關重要的問責機制不因人工智能輔
助決策而遭到瓦解。例如,數據的經濟價值,
意味著數據權屬關系的明晰化、利益分配的合
理性和公正性都應提上議事日程,并考慮適當
的制度設計方案和權利認定程序,還要在數字
經濟發(fā)展與個人權利保障之間達成適當的平
衡,并為數據的商業(yè)利用劃出一條清楚的倫理
底線。另外,隨著民商事法律體系的基石從物
品轉向服務,權利觀當然也從所有者的視角轉
向消費者的視角,能否確立消費者主權的理念、
能否使服務評價產生規(guī)范效力就成為重要的
法學課題。在代碼即法律的狀況下,如何防止
機器官僚主義或技術至上主義壓抑個人權利、
公民怎樣才能切實維護自己的合法權益、在代
碼框架下能否適當進行權利的創(chuàng)造和認定、如
何對代碼進行監(jiān)控等一系列問題也應納入探
討的范圍。
二、關于數據保護權及其價值前提的國際共識
在人工智能用于數據分析而導致社會結
構轉型的過程中,有兩種法律現象值得關注和
深入研究。
一種是大數據預測式警務系統(tǒng)。通過對大
數據的機器學習,人工智能可以精準把握行為
方式及其趨勢,有助于刑事案件的偵查和證明,
也有助于對城市犯罪進行預防。5G通信系統(tǒng)使
大數據和人工智能的應用范圍更廣,技術安裝
和操作更便捷。這種預測式警務起源于洛杉磯,
然后普及到美國、歐洲、亞洲的一些城市,在
中國也有廣泛的應用。預測式警務的根據是過
去的行蹤以及社會狀況的大數據,在數據處理
之際必須按照一定指標對個人進行分類,實際
上就是給各個公民貼上標簽進行區(qū)別對待。在
分類、貼標簽以及重點監(jiān)控的操作中很容易受
到大數據內在的系統(tǒng)性偏誤的影響,出現算法
歧視的問題。一旦根據某些指標和標簽預測某
部分人存在較強的犯罪傾向,人工智能系統(tǒng)就
會促使警察部門加強對他們的監(jiān)控,實際上就
給予了不同的法律待遇,有違法律面前人人平
等的原則?,F代法治國家在刑事領域特別強調
無罪推定原則以防止冤枉無辜,但預測式警務
針對特定人群提前采取監(jiān)控和防范的舉措,容
易產生疑人偷斧的效應,造成故入人罪的錯誤,
在一定意義上也可以說,對他們的刑事追責其
實是以有罪推定為前提的。
另一種是聯合信用懲戒系統(tǒng)。為了改進社
會信任度、懲戒各種失信行為,近年來中國興
起了信用評價活動。其中一個有代表性的實例
就是芝麻信用的打分和等級化,由螞蟻金服根
據身份地位、信用履歷、履約能力、行為偏好、
人脈關系等因素和淘寶、天貓、支付寶等平臺
積累的大數據綜合計算,以350分為下限、950
分為上限。具體的等級劃分如下:350分到550
分屬于信用較差,550分到650分屬于信用一
般,650分到750分為信用良好,750分以上
是信用優(yōu)秀。在芝麻信用系統(tǒng)里,信用分是與
個人享有的權利掛鉤的,例如信用較差的只能
使用支付寶的快捷支付轉賬、繳納水電費等初
步功能,信用良好的則可以享有免租車押金、
免租房押金等優(yōu)惠。一般而言,芝麻信用分超
過800分的屬于信用極好的群體,可以享受信
用醫(yī)療、快速退稅、無抵押借貸等特權,還可
以在申請部分國家簽證時不必提交資產證明、
在職證明、戶口本等各種資料。類似的信用評
分做法在歐美金融界也已悄然流行了一段時
間。這種信用評分本來以激勵為宗旨,但換個
角度來看也有懲戒效果。所以中國的行政執(zhí)法
部門和司法機關為了提升債權回收、債務履行
的效率,開始與芝麻信用評分系統(tǒng)開展合作。
例如最高人民法院系統(tǒng)在2015年與芝麻信用
簽署了對失信被執(zhí)行人信用懲戒備忘錄,全面
限制相關人員的消費,以解決長期以來的“執(zhí)
行難”問題。然而,從正義和法律的角度來看,
各種信用打分(特別是聯合信用懲戒系統(tǒng))也
存在一些隱患,其中最大的問題是把人分類并
貼上標簽,容易造成一個差別化、等級化的“打
分社會”,助長某些權利上的歧視,甚至形成
所謂“自動不平等”和“數字濟貧院”的事態(tài)。
上述兩種常見的現象說明,人工智能的算
法公正以及數據倫理的確是當今法學正面臨
的重大課題。在人工智能治理方面,2016年構
成一個重要的界標。對于從那時起國際社會形
成相關原則和規(guī)則的主要動向,筆者曾經在一
篇論文中做過如下概述。2016年4月,歐洲議
會法務委員會召開了關于機器人和人工智能
的法律和倫理問題的聽證會,并在5月公布了
與機器人相關的民事法律規(guī)則的報告書草案。
2017年2月歐洲議會通過《向歐洲委員會提出
的關于涉及機器人民事法律規(guī)則的提案》,建
議設立專門的歐盟機構、采納智慧機器人登記
制、明確嚴格的損害賠償責任、保障知識產權
等,要求歐洲委員會制定相關的歐盟法律。這
個提案還建議確立機器人研發(fā)者的倫理行動
規(guī)范,其中包括尊重基本人權、預防原則、包
容性、問責、安全性、可追溯性、隱私權保護、
效益最大化和危害最小化等內容。2018年5
月25日歐盟開始施行一般數據保護條例
(GDPR),要求人工智能研發(fā)涉及個人信息處
理時要通知本人,受到影響的個人有權獲得解
釋。其中有些舉措比美國更加嚴格,對違反該
法規(guī)的企業(yè)采取重罰政策。這項法律對數據向
其他國家的轉移業(yè)務也生效。2018年12月歐
盟委員會AI高級專家組發(fā)布了《人工智能開
發(fā)和適用倫理指南(草案)》,以《歐盟基本
權利憲章》為基準,力爭形成值得信賴的、負
責任并沒有偏見的人工智能,為此提出了七條
關鍵要求。歐盟人工智能倫理指南的七條關鍵
要求是人的管理和監(jiān)督、穩(wěn)健性和安全性、隱
私和數據管理、透明度、多樣性和公平性以及
非歧視性、社會和環(huán)境福祉、問責制。這個倫
理指南將從2019年夏季開始進入試行,所有
企業(yè)、政府部門以及社會團體都可以參加歐洲
人工智能聯盟(EuropeanAIAl1iance),通
過共同遵循倫理指南在數據、算法、技術等方
面推進伙伴關系。筆者于本文中補充的新信息
是,2019年4月歐盟高級專家組發(fā)布《可信任
人工智能指南》,把合法性、倫理性、魯棒性
作為可信任人工智能的構成元素,并提出了根
據基本原則、主要要求而制作的評估項目清單,
2020年開始對GDPR的某些過時的內容進行重
新審視并起草了新的法案。
與歐盟幾乎同步,美國政府從2016年5
月開始正式研討人工智能的法律、倫理以及政
策等方面的問題,為決策進行準備。當年10
月白宮發(fā)表了題為《為人工智能的未來做準備》
的報告書,提出人工智能的相關系統(tǒng)必須可控、
公開透明可理解、有效發(fā)揮功能、與人類的價
值和愿望一致等原則。與此同時,國家科學技
術會議網絡和信息技術研究開發(fā)小委員會還
發(fā)表了關于運用聯邦政府預算研究人工智能
的方針《美國人工智能研究開發(fā)戰(zhàn)略計劃》,
提出了副作用最小化的要求。2019年6月,美
國國家科學技術理事會發(fā)布了這項戰(zhàn)略計劃,
特別強調要提高人工智能系統(tǒng)的公平、透明度
以及問責制。然而,在立法方面,美國沒有采
取統(tǒng)一方案,由各州酌情自行其是,為立法的
社會實驗以及企業(yè)、行業(yè)的自治和創(chuàng)新留下了
較大空間。由亞馬遜、DeepMmd.谷歌、臉書、
IBM、微軟等巨型網絡平臺公司發(fā)起,歐美產
業(yè)界在2016年9月還締結了關于人工智能的
伙伴關系,旨在構建一個研究和討論人工智能
技術改進和社會影響的開放性平臺,并發(fā)表了
關于確保社會責任、采取防護措施等八項信條。
來自不同機構和學科的專家也按照人工智能
“可接受、負責任AcceptableIntelligence
withResponsibi1ity)的理念結成倫理專題
社群,進行關于失控風險的腳本分析并提出對
策建議。
日本總務省信息通訊政策研究所通過系
列研討會,在2016年10月制定了《人工智能
開發(fā)指針方案(征求意見稿)》,經過討論修
改,在2017年7月正式公布《為國際討論而
作的人工智能開發(fā)指針方案》。日本方案的基
本宗旨是:盡管人工智能的技術創(chuàng)新和互聯網
化有望給經濟和社會生活帶來各種各樣的效
益,但也存在黑箱化和失控的風險。人工智能
是跨越國界互聯互通的,因此相關的效益和風
險也勢必跨越國界產生連鎖反應。在這個意義
上,智網社會的治理不可能局限在一國范圍內,
而應該形成全球化的治理框架。為此,有必要
通過開放式討論在利益相關者中凝聚國際共
識。在人工智能研發(fā)的初期階段,通過立法來
進行規(guī)制有可能導致創(chuàng)新活動的萎縮,因此對
剛性規(guī)范的制定應持慎重態(tài)度,不妨更多地借
助“軟法”等非正式的有序化機制。日本的人
工智能開發(fā)指針方案提出了五大理念:(1)
人通過與人工智能網絡共生而享受其恩惠,并
建立一個尊重人的尊嚴和個體自主性的,,以人
為本”的社會;(2)利益相關者應該對作為
非約束性軟法的指針及其最佳實踐經驗進行
國際共享;(3)應該通過創(chuàng)新的、開放式的
研發(fā)活動和公平競爭增進社會效益,在尊重學
術自由等民主主義社會價值的同時防范風險,
確保效益和風險的適當平衡;(4)堅持技術
的中立性,注意不給開發(fā)者造成過度負擔;(5)
對指針方案的內容不斷斟酌,根據需要靈活進
行修改。
在中國,從2017年國務院頒布的《中國
新一代人工智能發(fā)展規(guī)劃》可以看出,關于數
字化社會秩序構建的基本理念、主要方法、立
法重點,有關表述都是非常清晰的。該規(guī)劃指
出有必要積極參與人工智能全球治理,加強機
器人異化和安全監(jiān)管等人工智能重大國際共
性問題研究,深化在人工智能法律法規(guī)、國際
規(guī)則等方面的國際合作,共同應對全球性挑戰(zhàn),
并且在全球范圍內優(yōu)化配置創(chuàng)新資源。特別是
該規(guī)劃關于人工智能治理的九條原則,即共享
互信原則、個體尊嚴原則、民主參與原則、國
際合作原則、相機治理原則、公開透明原則、
雙重規(guī)制原則、追蹤制裁原則、預防響應原則,
都是與國際接軌的。該規(guī)劃也有一些中國特色,
比如,第五條關于相機而動的治理,與網絡社
會的特征相吻合,也反映了中國傳統(tǒng)治理方式
的影響;又如,其中的雙重規(guī)制原則,也體現
了中國行政主導、綜合治理的特色。2019年,
國家新一代人工智能治理專業(yè)委員會制定了
《新一代人工智能治理原則——發(fā)展負責任
的人工智能》,明確提出了八條基本原則,即
和諧友好、公平公正、包容共享、尊重隱私、
安全可控、共擔責任、開放協(xié)作、敏捷治理。
其中特別值得注意的是責任分擔和共擔的方
式以及對敏捷治理的要求。實際上,無論是數
據治理,還是算法治理,都包括制度治理與技
術治理這兩種不同的方式或者層面。制度治理
主要表現為法律、法規(guī)、標準、指南、政策以
及倫理規(guī)則等,既有硬法又有軟法。有必要指
出,2019年世界人工智能大會法治論壇上提出
的法治導則,把算法納入專利保護的范圍,這
體現了中國制度治理的重要成果;另外,關于
人工智能侵權的責任,強調根據過錯程度進行
分擔,也具有鮮明的中國特色。技術治理則主
要表現為人工智能操作中的技術細則以及系
統(tǒng)日志、記錄軟硬件的情況、監(jiān)督數據的收集
等,還包括同態(tài)加密、安全多方計算、聯邦學
習、可信計算等隱私增強技術(PETs)的采用。
制度治理和技術治理的這種耦合是理解人工
智能治理規(guī)則體系的重要視角。
綜上所述,2016年以后的國際社會,就人
工智能治理以及數字權利保護達成的基本共
識如下。(1)對國際通用的指針、標準等采
取合作態(tài)度。其包括確保數據空間互聯互通,
必須共有相關信息,參照國際標準和規(guī)格進行
人工智能系統(tǒng)及算法的設計,實現數據格式的
標準化,公開應用程序編程接口以及協(xié)議、揭
示知識產權的特許合同條件等。(2)實現技
術的中立性以及透明性。為此需要實現人工智
能系統(tǒng)輸入和輸出的檢驗可能性,對演算結果
要履行說明義務。(3)實現人工智能的可控
性。應該由其他人工智能系統(tǒng)進行監(jiān)視和警告,
實現技術與技術的制衡,并為人工智能系統(tǒng)的
停止、網絡的切斷和修理預先做好充分的準備。
(4)優(yōu)先保護人的安全。算法設計應該堅持
的價值優(yōu)先順位為生命、身體、財產。對于數
據和算法的安全性要對利用者和利益相關者
履行充分說明的義務。這種共識也反映于2019
年5月公布的《OECD關于人工智能的政府間政
策指導方針》和同年6月公布的《G20人工智
能原則》之中,其倡導以人類為中心、以負責
任的態(tài)度開發(fā)人工智能和培養(yǎng)數字生態(tài)系統(tǒng)。
新興權利的形成和發(fā)展正是以這樣的共識為
前提條件。如果把人工智能治理分為數據治理、
算法治理以及應用系統(tǒng)治理這三個不同層面,
來具體考察國際社會已經達成的共識,還可以
發(fā)現其中存在不同的原則和規(guī)制,或者各有其
重點內容。在數據治理層面,特別強調審慎處
理個人敏感信息,側重保護隱私以及個人信息
安全,并要求消除數據噪音、提高其質量和規(guī)
格化程度。在算法治理層面,以透明性、準確
性、可靠性、可解釋性、可驗證性、可追溯性
作為衡量的標準。在應用系統(tǒng)治理層面,追求
向善性和無偏性等目標。仔細推敲又可以發(fā)現,
在人工智能治理方面似乎若隱若現地存在歐
盟和美國這兩種不同的模式。歐盟始終側重統(tǒng)
一立法,特別強調數據安全和算法公正,并傾
向于事先規(guī)制。例如,GDPR嚴格限制數據跨
境流轉,降低數據跨境傳輸的風險,并且要求
企業(yè)履行事前審批手續(xù)。與此形成對照的是美
國,其采取逐步立法的漸進路線,針對人工智
能典型應用場景分別制定特殊法規(guī),更強調數
字經濟的開放性和競爭性,鼓勵數據有條件的
自由流通,傾向于事后救濟,例如建立數據泄
密通知機制。對不同層次、不同模式的問題狀
況進行梳理,有利于新興權利群的體系化,特
別是從憲法與民法、基本權利與一般權利、道
德與商務等不同維度進行分類。
三、歐盟關于隱私和數據安全的憲法視角和司法救濟
在現代啟蒙精神的影響下,歐洲各國歷來
重視人權和公民基本權利的保障。關于數據和
算法的有關原則和規(guī)則,也以《歐洲人權公約》
(1953年生效)、《歐盟基本權利憲章》(2009
年生效)作為高階法律根據,特別是后者明確
把個人數據保護納入憲法規(guī)范。從1995年的
數據保護指令到2018年的GDPR,再到2020
年11月提上議事日程的數據治理條例建議稿、
數字市場法草案以及數字服務法草案,始終從
憲法規(guī)范的視角來強調信息自決和個人隱私
保護的基本權利,對數據畫像和自動化決策采
取斷然拒絕的態(tài)度。與此同時,歐盟也非常重
視數據主權問題。眾所周知,中國在人工智能
研發(fā)和數字經濟轉型方面進展非常迅猛,以致
讓歐盟不得不采取“高筑墻”的對策,把防范
美國和中國的數字優(yōu)勢地位作為制定法律的
基本指針。這就勢必更進一步強調信息安全和
算法公正,通過法律和審批程序嚴格限制數據
跨境流轉,使人工智能治理的相關制度宛如一
座堅固的城堡。
2018年5月25日起實施的GDPR號稱人工
智能時代的人權宣言。該法以個人尊嚴和基本
權利保障為宗旨,直接約束各加盟國的立法,
并對歐盟各國的數據向其他國家的轉移業(yè)務
也產生效力oGDPR還規(guī)定了一些新型的基本權
利,例如,第5條強調限定數據收集和處理的
目的、在一定目的范圍內最大限度地減少對數
據的處理和保存、讓數據保持完整、正確、更
新以及匿名的狀態(tài)(信息安全保障權);第13
條第2款則從另一個角度強調了透明性原則
(信息公開請求權),要求數據管理者必須對
數據權利主體履行信息公開的義務,且所提供
的信息必須能為數據權利主體所理解。GDPR
第20條還特別規(guī)定個人享有自我數據便攜式
獲取權;第21條承認數據主體的異議權,如
果數據管理者不能出示正當性根據,必須中止
電腦化處理;第22條宣布數據主體享有不服
從那種僅根據人工智能而自動化做出的決定
的權利,并且明確指出數據管理者不得通過假
裝有人介入的方式來規(guī)避第22條的約束。這
些權利條款分別涉及數據獲取、數據權屬、數
據保護、信息隱私、倫理問題等不同的法律維
度。有關權利的保障和具體事項的權衡主要依
賴各國法院以及歐盟普通法院、歐洲法院、歐
洲人權法院。
從GDPR上述條款中可以發(fā)現,僅就數據
治理而言,首先應該充分讓公民享有兩項最基
本的權利:一項是捍衛(wèi)隱私,因為這是意思自
治的基礎;另一項是信息安全的保障,因為這
是通信自由的基礎。這些基本權利在歐洲過去
的憲法規(guī)范中都已有明文規(guī)定,在數字化時代
需要刷新的是怎樣界定隱私和信息安全的范
圍、在什么情況下允許干涉隱私權的判斷標準
以及正當化根據。從相關原則和規(guī)則中其實還
可以歸納出一種新型的基本權利,這就是數據
保護權,直接影響到數據處理的范圍和意義。
在歐盟的語境中,數據保護權包括公民個人有
權接觸和更正其個人數據,對數據保護權進行
限制的條件、程序以及標準,對數據的收集、
處理、應用進行監(jiān)管的獨立機構等具體內容。
如果把數據保護權適用于大數據的收集一分
析一應用流程,在法律上必須考慮的問題還包
括個人數據的概念和類型、公共空間獲得的個
人信息的私生活寧靜的意義、不同場景中的個
人可識別性、應該告知的事項或權利清單、對
風險進行監(jiān)控的方式、算法透明度以及例外情
形、各種利益權衡的尺度、公共利益的界定等。
在歐洲數據權認定的司法實踐中,當然堅持基
本權利優(yōu)先、賦予個人自由較高權重的立場。
因為GDPR和相應的司法實踐主要著眼于
個人數據以及相應的憲法性權利保障,不能在
私人主體之間的糾紛中強制執(zhí)行,也就不能完
全適應數字經濟的發(fā)展,所以在歐盟內部也出
現修改法律框架的議論和動向,試圖把數據保
護的范圍擴大到所有數據(不限于個人可識別
數據)。在司法實踐中,有些判例已開始將消
費者保護法、競爭法的相關規(guī)定及集團訴訟方
式適用于大數據流程,以提升個人與強勢的網
絡大公司進行博弈的地位。在行政實踐中,各
國政府也開始加強對數據行業(yè)的監(jiān)管和算法
審計,并強調大數據倫理的意義。與這種新趨
勢相關聯,法學界開始討論創(chuàng)設數據財產權的
議題,以充分實現數據的商業(yè)價值并加強個人
數據主體的議價能力??傊瑲W盟開始調整過
強的憲法指向,探索針對大數據特征的綜合治
理方案,試圖實現個人信息安全和隱私保護的
多層多樣性和整合化。
四、中國關于智能物聯網治理的民法視角和行政救濟
中國的現實與歐盟形成鮮明的對照,不是
側重憲法,而是主要從民法以及行政舉措的視
角來加強對隱私、信息安全及人格利益的綜合
保護。因此,關于數據和隱私的中國法律規(guī)范
主要在公民個人、集體以及企業(yè)之間強制執(zhí)行,
很少針對政府。從2016年底開始,中國通過
一些單行的法律、法規(guī)、規(guī)章來對數字化時代
的新興權利進行認定和保護,并明確了相應的
義務和責任。例如,我國《網絡安全法》(2016
年11月)規(guī)定了公民對個人信息的刪除權和
訂正權、《個人信息安全規(guī)范》(2017年12
月)加強了對網絡平臺的規(guī)制、我國《電子商
務法》(2018年8月)使網絡平臺經營者的監(jiān)
管責任具體化、《網絡信息內容生態(tài)治理規(guī)定》
(2020年3月)著手整頓個人信息交易和調整
算法推薦邏輯。我國《數據安全法》已經在2021
年6月10日通過、同年9月1日起實施;我
國《個人信息保護法》也于2021年11月施行。
我國《民法典》專設人格權編,清楚地界
定隱私和個人信息的權利范圍,以加強對新興
權利的保護,具有補充憲法的基本權利清單的
意義,但主要是適應了數字化時代經濟社會的
需要。例如,我國《民法典》第1034條規(guī)定
受這項基本法律保護的個人信息包括健康信
息、行蹤信息,還規(guī)定了處理虛擬身份(第1017
條)、數字肖像(第1019條)、數字聲音(第
1023條)等個人信息時必須遵循的原則、條件
以及義務。我國《民法典》第1035條規(guī)定了
大數據收集和應用之際應該堅持的合法、正當、
必要、適度的原則;第1033條、第1038條、
第1039條還分別明確了信息安全保障義務,
包括不得泄露、不得篡改以及不得非法提供;
第1037條進一步完善了個人信息主體的權利
構成,確立了查閱權、復制權、更正權、刪除
權以及網絡侵權的責任、網絡服務提供者的注
意義務,將數據和虛擬財產都納入法律保護范
圍。
我國《民法典》并沒有創(chuàng)設數據財產權,
但我國《數據安全法》第7條表明“國家保護
個人、組織與數據有關的權益,鼓勵數據依法
合理有效利用,保障數據依法有序自由流動,
促進以數據為關鍵要素的數字經濟發(fā)展該
法第19條規(guī)定“國家建立健全數據交易管理
制度,規(guī)范數據交易行為,培育數據交易市場
第33條還指出:“從事數據交易中介服務的
機構提供服務,應當要求數據提供方說明數據
來源,審核交易雙方的身份,并留存審核、交
易記錄”。這意味著中國通過對數據進行評價
和共享的程序來確保數據交易的順利進行,并
把合法、同意以及通過契約之鏈確認的正當來
歷作為數據處理合法性的基礎,對個人數據的
人格利益和財產利益進行債權式的保護----
例如對違約及侵權行為的損害賠償請求權,權
利人可以借助反不正當競爭法和消費者權益
保護法的規(guī)定進行維權。
根據我國《民事訴訟法》,還存在非營利
機構或公益機構代表分散的數據主體進行民
事集團訴訟的可能性。例如我國《個人信息保
護法》就規(guī)定對于違法處理個人信息、侵害眾
多個人的權益的,人民檢察院、法律規(guī)定的消
費者組織和由國家網信部門確定的組織可以
依法向人民法院提起訴訟。另外,《未成年人
網絡保護條例(草案征求意見稿)》也規(guī)定如
果未成年人的網絡合法權益收到侵犯,且相關
組織和個人未代為提起訴訟的,人民檢察院可
以督促、支持其提起訴訟;涉及公共利益的,
人民檢察有權提起公益訴訟。然而,在這樣的
狀況下,實體法上的數據財產權關系不清晰,
也很容易引起糾紛。多明戈指出:“控制好數
據,控制好算法掌握的模型的所有權,這就是
21世紀戰(zhàn)爭的內容?!边@已經暗示了數據財產
權以及學習后模型的知識產權之爭的必然性。
與這種“21世紀戰(zhàn)爭”相關,中國大數據產業(yè)
和人工智能產業(yè)在走出去的過程中反復遭到
歐美各國的質疑和制裁,主要理由就是涉及數
據安全和算法倫理的基本權利保障不充分。因
此,完善數據財產權的實體規(guī)范,進而將之提
升至基本權利的高度,是一項很重要并具有迫
切性的立法課題。
然而,如果完全按照歐盟那樣的根本規(guī)范
行事,又難免遏制數字經濟高速增長的勢頭。
鑒于上述問題,筆者曾經揭示了數據的規(guī)模和
質量與人工智能的預測能力之間的正比例關
系,指出中國在數據收集和應用方面的獨特優(yōu)
勢正是機器學習算法提高精密度的重要條件。
何況數據的本質是信息,以流動性為特征,很
難進行排他化、絕對化的處理;如果采取過度
保護的立法政策,反而有可能使數據的經濟價
值無法實現。例如歐盟設立數據庫權利并進行
嚴格的保護,最終導致沒有一家大型的數字經
濟平臺和企業(yè)在歐洲崛起。實際上,歐盟也開
始對以GDPR為核心的數據法制框架進行反思,
試圖兼顧數字經濟發(fā)展的需求,在厘清數據產
權關系的基礎上充分發(fā)掘數據的商業(yè)價值。在
這里,中國可以與歐盟相向而行、互相借鑒。
五、數據合理使用原則與個人基本權利的保障
首先,對于中國而言,應該認識到片面強
調數字經濟發(fā)展和對數據權利偏重民法救濟
的弊端,結合中國的實際情況適當借鑒歐盟保
護數據權利的憲法方法。因為對隱私和個人信
息的保護是自由的基礎,涉及個人意思自治、
言論自由、信息處分權以及反歧視,所以必須
把隱私和個人信息保護提升至基本權利的高
度,進而強調數字人權的保障。結合大數據和
人工智能應用場景可以看到,預測式警察系統(tǒng)
和信用評分系統(tǒng)的初衷雖然很好,但會導致標
簽主義、身份原理的復活和大規(guī)模監(jiān)控,導致
社會的區(qū)塊分化和階層固化,這與黨的十八大
以來強調的國家治理體系和治理能力現代化
的目標是不相符的。另外,缺乏倫理制約的機
器學習會導致算法黑箱化,在決策自動化的同
時導致問責機制分崩離析,形成機器官僚主義
支配的格局。因此,人工智能時代的數據權利
保障不僅需要民法的視角,而且非常需要憲法
的視角,包括對基于數據畫像而復活的身份原
理、基于遺傳信息而抬頭的血統(tǒng)主義、基于算
法偏見而加強的差別對待等現象的預防或糾
正。一旦保障數據基本權利的憲法框架得以確
立,數字經濟立法的空間就有可能適當拓展。
其次,為了在人工智能時代有效地落實基
本權利保障,有必要特別關注區(qū)塊鏈技術在社
會治理方面的應用,因為區(qū)塊鏈的本質在于隱
私的黑箱化、個人
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
- 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
- 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2025年度綠色有機水果批發(fā)采購合作協(xié)議書范本3篇
- 二零二五年度生態(tài)農業(yè)觀光園租賃合作協(xié)議3篇
- 企業(yè)成長之路的報告藝術
- 專職裝載機司機2024年度勞動協(xié)議一
- 家教中獨立性格的培養(yǎng)技巧
- 專用管材及配件購銷合同模板2024版一
- 個人承包合同協(xié)議個人承包合同
- 小學生語言表達能力培養(yǎng)策略
- 如何運用系統(tǒng)化方法進行安全生產計劃的改進
- 二零二五年度電纜電線生產線智能化改造合同范本及升級方案
- 安徽省阜陽市2022-2023學年高三上學期期末考試 數學試題 附答案
- 四川雅安文化旅游集團有限責任公司招聘考試試卷及答案
- 醫(yī)務人員職業(yè)暴露預防及處理課件(完整版)
- 2024-2024學年度第一學期九年級道德與法治教學工作總結
- 中考數學真題試題(含解析)
- 26個字母復習(專項訓練)-2024-2025學年人教PEP版(2024)英語三年級上冊
- 七年級英語閱讀理解55篇(含答案)
- 2025屆上海市閔行區(qū)閔行中學數學高一上期末經典試題含解析
- 企業(yè)級員工心理健康輔導服務合同
- 業(yè)務辦理授權委托書移動手機號碼業(yè)務變更
- 2023年二輪復習解答題專題四:一次函數的應用圖象型(原卷版+解析)
評論
0/150
提交評論