斯坦福:反思人工智能時代的隱私問題(中文版)_第1頁
斯坦福:反思人工智能時代的隱私問題(中文版)_第2頁
斯坦福:反思人工智能時代的隱私問題(中文版)_第3頁
斯坦福:反思人工智能時代的隱私問題(中文版)_第4頁
斯坦福:反思人工智能時代的隱私問題(中文版)_第5頁
已閱讀5頁,還剩72頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

反思人工智能時代),致謝JeaninaCasusi、JoeHinman、Nanc和MichiTurner準(zhǔn)備出版物。免責(zé)聲明2作者作者2致謝2執(zhí)行摘要.4第一章:導(dǎo)言5第2章:數(shù)據(jù)保護和隱私:關(guān)鍵概念和監(jiān)管環(huán)境7數(shù)據(jù)保護和隱私背后的框架9數(shù)據(jù)保護的第三章挑釁與預(yù)言17社會隱私需要對條例采取新辦法將對人工智能發(fā)展產(chǎn)生隱含但有限的影響22現(xiàn)有法律不足以解決隱私風(fēng)險25第4章:減輕AI隱私危害的建議31改善隱私和數(shù)據(jù)保護36第五章:結(jié)論45尾注464采集競賽以及由此產(chǎn)生的個人和系統(tǒng)性隱私傷害。1.默認(rèn)情況下,通過從選擇退出數(shù)據(jù)收集轉(zhuǎn)變?yōu)檫x擇加入數(shù)據(jù)收集,使數(shù)據(jù)收集非規(guī)范化數(shù)據(jù)收集者必須何解決數(shù)據(jù)隱私問題的監(jiān)管體系的重點。),5對人工智能的監(jiān)管。2能至少部分地受到隱私和數(shù)據(jù)保護法規(guī)的約束。處,整個數(shù)據(jù)供應(yīng)管道和生命周期更普遍。3我們繼續(xù)研究人工智能),方向。風(fēng)險察質(zhì)量與數(shù)量的權(quán)衡6擬議中的隱私和數(shù)據(jù)保護法將對人工智能產(chǎn)生影響,但它們不會進(jìn)行充分的監(jiān)管。隨著人工智能的發(fā)展而保護其數(shù)據(jù)隱私所需的工具;范圍,以解決這些弱點,并在人工智能日益占主導(dǎo)地位的世界中加強數(shù)據(jù)隱私。簡而言之,隨著我們走向人工智能發(fā)展繼續(xù)增加對數(shù)據(jù)需求的未來,最多維持現(xiàn)狀的數(shù)據(jù)保護法規(guī)并不能激本文件重點討論我們認(rèn)為應(yīng)對這一事態(tài)需要最多關(guān)注的核7境生成式人工智能工具變得廣泛可用,激勵和警告了世界各地數(shù)百萬人大型語言模型(LLM),如GPT-4、PaLM和Llama,以及以驚人的速度發(fā)展6例如,我們考感識別工具,內(nèi)容作為其輸出?,F(xiàn)行法律,如公民權(quán)利和消費者保護法規(guī)。9美國的幾個州和市也解決了人工智能系統(tǒng)的一般消費者監(jiān)管問題108們將在本文后面到下一章。數(shù)據(jù)隱私和數(shù)據(jù)保護有時在日常對話中互換使用雖然這些術(shù)語是相關(guān)的,上不同。帖子)或可以揭示生物聯(lián)系和種族身份的數(shù)據(jù)(例如,基因數(shù)據(jù))繼續(xù)增長。9的。),限制,即使這種處理被認(rèn)為不侵犯隱私。12護和隱私背后的框架),人了解所收集的關(guān)于他們的信息,防止這些信息被用于其他用途,并糾正這些信息。15正如政策專家馬克·麥卡錫(MarkMacCarthy)所描述的,16聯(lián)合國《世界人權(quán)宣言》和《世界人權(quán)宣言》都沒有將信息隱私作為一項基本人權(quán),國際社會就如何處理盡管在商業(yè)互聯(lián)網(wǎng)出現(xiàn)之前很久就已經(jīng)構(gòu)想出來了,的核心組件,如數(shù)據(jù)最小化和目的限制,通過可以在多大程度上在隱私控制方面的應(yīng)用進(jìn)一步揭示了隱私監(jiān)管對人工智能的影響。b.《通用數(shù)據(jù)保護條例》:數(shù)據(jù)保護的《通用數(shù)據(jù)保護條例》于2016年通過,并于2018年生效,歐盟試圖更新1995年的《數(shù)據(jù)保護指令》,并協(xié)調(diào)歐盟成員國之前零散的22GDPR的核心是以個人數(shù)據(jù)為歐盟第24章供奉個人有權(quán)不受行政決定的約束,因為這些決定可能對他使用,因為它涉及到健康,貸款審批,工作申請,執(zhí)法的關(guān)鍵數(shù)據(jù)保護原則(見表)。最值得注意的是,目的個人數(shù)據(jù)收集(或數(shù)據(jù)挖掘)。盡管人們普遍認(rèn)為,更至可取的。25最后,它介紹了數(shù)據(jù)保護影響評估(DPIA施,要求收集組織在進(jìn)行數(shù)據(jù)處理活動之前評估數(shù)據(jù)處理能造成社會層面的危害)27c.美國州隱私法:填補聯(lián)邦隱私真空和保護法案(ADPPA),該法案已在眾議院提出很常見的。在缺乏針對消費者的聯(lián)邦立法的情況下,幾十年來,一些部門法律已經(jīng)制定了一系列隱私保護措施,例如[30]因此,我們將集中討論CCPA。廣泛的消費者隱私保護的最重要的州一級努力。雖然一些學(xué)者認(rèn)為,CCPA有意識地為加州創(chuàng)造了一個與GDPR),者行使這些權(quán)利。并且可以通過發(fā)布的指南進(jìn)行主動執(zhí)法,并解決人工智能和個人數(shù)據(jù)交叉點的復(fù)雜和緊急問題。超越歐盟和美國:中國的數(shù)據(jù)保護35贊3738d.預(yù)測AI與生成AI:數(shù)據(jù)保護監(jiān)管的轉(zhuǎn)折點在要涉及算法審計39和影響評估40,透明度的情況一樣,將是一項半成品。44到底是什么數(shù)據(jù)以及誰的數(shù)據(jù)在驅(qū)動這些系統(tǒng)。45這些面部識別軟件公司ClearviewAI已經(jīng)引起了隱私用于執(zhí)法機構(gòu))和有針對性的影響(用于識別犯罪嫌疑人盡管《紐約時報》的克什米爾山對該公司進(jìn)行了廣泛報道,但他們的數(shù)據(jù)使用并未得到廣泛討論。46Clearview與此同時,隨著人工智能系統(tǒng)的曝光率越來越高,世界各處理個人信息(特別是與兒童有關(guān)的信息)方面可能具有的法律權(quán)威;生成系統(tǒng)被用于攻擊以提取個人信息的可能性;以及需要制作有關(guān)生命周期的合規(guī)文件。司認(rèn)為(盡管在這種情況下沒有成功),他們不需要對公意大利審查意大利審查ChatGPT5657在整個4月份,OpenAI實施了一些變化來滿足Garante不準(zhǔn)確的個人信息。然而,OpenAI表示,58在美國,關(guān)于用于構(gòu)建生成人工智能的數(shù)據(jù)所需許可的討論往往轉(zhuǎn)向版權(quán),因為在沒有聯(lián)邦消費者隱私法的情況下,版權(quán)為內(nèi)容創(chuàng)作者提供了最清晰的路徑。要求公司從訓(xùn)練數(shù)據(jù)集中刪除他們的數(shù)據(jù)。52這種方法對系統(tǒng)訓(xùn)練數(shù)據(jù)中存在的特定內(nèi)容項進(jìn)行逆向工程是一項挑戰(zhàn)。2023年7月,聯(lián)邦貿(mào)易委員會(FTC)向OpenAI發(fā)出因為用于訓(xùn)練它的數(shù)據(jù)是不正確獲取的。54聯(lián)邦貿(mào)易委員會主席LinaKhan在《紐約時報》的一篇專欄文章中指出,“剝削性收集或使用個人數(shù)據(jù)”屬于該機構(gòu)禁止“不公平或欺騙性貿(mào)易行為”的權(quán)限范圍55其對算法系統(tǒng)的監(jiān)督,并可能擴大其范圍,專注于人工智能特定的問題,如訓(xùn)練數(shù)據(jù)。些挑釁和預(yù)測突出了我們在繼續(xù)監(jiān)管隱私和人工智能時必須面對的關(guān)鍵問題。個人數(shù)據(jù)單獨處理。在此,我們認(rèn)為,現(xiàn)有的和擬議的義地監(jiān)管人工智能系統(tǒng)中使用的數(shù)據(jù)所需的數(shù)據(jù)治理措施。a.數(shù)據(jù)是人工智能系統(tǒng)的基礎(chǔ),這將需要越來越多的數(shù)據(jù)擴張到群體和社會層面,增加從消費者收集的數(shù)據(jù)的數(shù)量和類型,并激勵公司在追求更多數(shù)據(jù)時違反數(shù)據(jù)最小化和目的限制無論是數(shù)據(jù)的嵌入式傳感器,智能家電和公共空間中的生物識別攝像頭,都將繼續(xù)擴大。發(fā)的更強大的計算機、處理能力和云存儲,過去十年取得的人工智能進(jìn)步就不會發(fā)生。正如馬克61性化的服務(wù),一個任務(wù),需要數(shù)據(jù)收集用于分析目的,即可能是輸入和輸出之間然而,越來越多的研究越來越多地挑戰(zhàn)數(shù)據(jù)越多越好的假設(shè),因為它們表明,當(dāng)以更大的意圖和具體性選擇數(shù)據(jù)時,可以使用相對較少的數(shù)據(jù)來實現(xiàn)類似的性能水平63部分原因是他們可以隨時訪問這些巨大的數(shù)據(jù)集。像其他數(shù)據(jù)源來獲取數(shù)據(jù)來構(gòu)建和訓(xùn)練他們的系統(tǒng)。64高度個性化的服務(wù)。),統(tǒng),如StableDiffusion或Midjourney,以其實用和目前沒有透明度要求要求公司詳細(xì)說明他們在歐盟人工多地被迫在美國和歐盟以及其他遵循GDPR模式的國家之間解決領(lǐng)土問題。b.人工智能系統(tǒng)對個人和社會隱私構(gòu)成獨特的風(fēng)險,需要新的監(jiān)管術(shù)變革和對我們個人數(shù)據(jù)隱私日益增長的威脅的回顧性外,除了記錄在案的對個人的傷害外,人工智能系統(tǒng)還術(shù)發(fā)展有關(guān)。用戶的人。當(dāng)訓(xùn)練數(shù)據(jù)集中包含個人數(shù)據(jù)時,研究表明給其他用戶。雖然大多數(shù)生成式人工智能系統(tǒng)建議個人不要在提示或其他輸入中包含個人數(shù)據(jù),但許多人仍然練,或?qū)⑵渥鳛橄到y(tǒng)輸出的一部分上購物的最初范圍今天,如果不是不可能的話,生活中大多數(shù)方面的個人數(shù)據(jù)的收集不僅發(fā)生在個人選擇直接與應(yīng)用程序或服務(wù)互動的情況下;在許多情況下,為了擴大范圍的上下文,而不僅僅是提供廣過去的五年里,新興的人工智能系統(tǒng)也越來越多地被部署在這些環(huán)境中,因為由于人工智能的計算能力,它們自動化系統(tǒng)的運作方式也缺乏透明度,這使得個人難以改變或限制其影響。AI系統(tǒng)可以自動化許多形式的決策和分類,加劇了我們僅以精細(xì)的精確度為您量身定制廣告,但在某些情況下,地使用FIP來保護自己免受這種形式的數(shù)據(jù)收集,特別是數(shù)據(jù),例如從社交媒體或照片共享網(wǎng)站)。77隨著我們生活的幾乎所有方面都越來越多地通過技術(shù)進(jìn)危害的監(jiān)管或透明度措施的情況下。我們與直接收集我們數(shù)據(jù)的公司(第一方)和間接收集我們數(shù)據(jù)的公司(第三方)的“數(shù)據(jù)關(guān)系”的范圍和規(guī)模已經(jīng)根據(jù)現(xiàn)有或擬議中的隱私法,公司收集盡可能多的數(shù)據(jù)的動機不太可能減少。隨著人工智能系統(tǒng)的不斷發(fā)展,或刪除權(quán)利來解決這些隱私風(fēng)險。過其他方式實現(xiàn)的聯(lián)系和預(yù)測。這種能力可能導(dǎo)致根據(jù)群體歸屬對決策結(jié)果進(jìn)行分類并將其應(yīng)用于大部分人口,榮所必需的自主權(quán)的發(fā)展。79相有助于廣泛侵蝕隱私規(guī)范和期望。期望你的數(shù)據(jù)會在每該有權(quán)在公共場所存在的感覺,無論是數(shù)字媒介空間還是物理空間,都有任何程度的隱私或匿名。c.現(xiàn)有隱私法中的數(shù)據(jù)保護原則將對人工智能發(fā)展產(chǎn)生求生成系統(tǒng)創(chuàng)造奇妙輸出的這些原則足以應(yīng)對人工智能帶來的隱私風(fēng)險和危害在美國,立法者越來越多地認(rèn)為,通過類似于GDPR的聯(lián)邦界定和執(zhí)行,應(yīng)該限制收集多少個人信息以及如何使用和重復(fù)使用人工智能 90取或處理個人數(shù)據(jù),或根據(jù)收集到的數(shù)據(jù)對個人進(jìn)行預(yù)充分考慮了個人面臨的風(fēng)險91數(shù)據(jù)最小化和目的限制理論上,數(shù)據(jù)最小化和目的限制原隱私自我管理的局限性競爭因素隱私法專家DanielSolove將個人管理和行使其數(shù)字產(chǎn)品和服務(wù)的使用增加,隱私自我管理未能給個人提供他們需要的工具,如果他們想要阻止,或至少減少收集的關(guān)于他們的數(shù)據(jù)量94個人被假定擁有一定程度的控制權(quán),默認(rèn)數(shù)據(jù)收集:選擇加入還是選擇退出?1970年代初,金融基礎(chǔ)設(shè)施項目從最初的政府?dāng)?shù)據(jù)收集應(yīng)用擴展到私營部門,加強了默認(rèn)允許數(shù)據(jù)收集的做法有正95GDPR在總是要求同意和允98辦公室建議,合法利益可能是適當(dāng)?shù)?,?dāng)處理提供了一個明確要求Facebook和Instagram用戶提交一份在線表格,登記他們對使用其行為產(chǎn)品用途進(jìn)行定位的反對;除非他們反對,在數(shù)據(jù)收集之后可以行使的權(quán)利,將管理個人隱私的負(fù)d.現(xiàn)有法律中明確的算法和基于人工智能的規(guī)定不足以解決隱私風(fēng)險包括對其客戶的風(fēng)險,而不僅僅是對我們將在第4章討論。追溯到20世紀(jì)70年代初FIP的起源,105盡管FIP本身并決策的過程。這些決定可以基于事實數(shù)據(jù),也可以基于107處將對個人的關(guān)注而108于規(guī)則的算法以及AI形式(如預(yù)測AI)來完成的過程。109 ),ProtectionAgency)管理企業(yè) 據(jù)保護影響評估(DPIA)120中(或者在初創(chuàng)企業(yè)的情況下,迫使他們采用此類流),這些明確的規(guī)定是如何不足的?么以及為什么他們可能希望選擇退出。何在食品上貼上轉(zhuǎn)基因成分標(biāo)簽的做法;在沒有明確的科學(xué)負(fù)擔(dān)。做出可能對他們有利或有害的不知情的選擇這并不是說標(biāo)記或提供ADM的使用通知沒有好處;當(dāng)然,在某種為了行使不受ADM約束的權(quán)利,這種選擇退出的權(quán)利至否可以以消費者可能不知道AI正在被使用但不受通知要求的方式實現(xiàn)。止組織由于其識別的風(fēng)險而選擇推出產(chǎn)品或服務(wù)。但事實上,這些工具目前并沒有指導(dǎo)組織在產(chǎn)品創(chuàng)建之前制(我們將在第4章中更深入地討論這些措施125§7154規(guī)定,處理個人信息以訓(xùn)練ADM系統(tǒng)或AI的企業(yè)有披露義務(wù),要求他們向下游用戶披露脅,監(jiān)管機構(gòu)需要不斷完善和擴展這些條款,等等。工智能系統(tǒng)或生成式人工智能等變體的增長。盡管大數(shù)的,因此不會成功地保護個人隱私。也不能解決人口問題或社會層面的風(fēng)險和對隱私的傷害正如法律理論家系統(tǒng)帶來的個人隱私挑戰(zhàn)或系統(tǒng)性風(fēng)險。即使美國通過有解決社會層面的隱私傷害。而且它們也沒有提供一個框架來解決人工智能訓(xùn)練所引發(fā)的隱私問題數(shù)據(jù),無論它們來自專有數(shù)據(jù)集、開源或公共數(shù)據(jù)集,如果-只有當(dāng)-人工智能系統(tǒng)被設(shè)計為以人類需求中心。好嗎?何生活在一個利用一些人質(zhì)疑政府是否應(yīng)該采取明確的規(guī)則,完全禁止人工智能的特定應(yīng)用129我們建議,在評估這些問題時,政正如我們在引言中所指出的那樣,在我們的問題框架中有一個重要的假設(shè),特別是在美國,但也在歐),人們還必須有資源來支付管理和標(biāo)記數(shù)據(jù)的費用,將其轉(zhuǎn)化為訓(xùn)練人工智能系統(tǒng)的優(yōu)質(zhì)資源。雖然倡導(dǎo)數(shù)據(jù)質(zhì)高質(zhì)量數(shù)據(jù)在這些辯論中,我們也在反對一種技術(shù)決定論。就像那不考慮數(shù)據(jù)所在的社會技術(shù)背景。正如我們在第3章中方式是唯一有用的,句名言:136任何關(guān)于人工智能影響的問題解決方案注重社會影響和人權(quán)。建議1:默認(rèn)情況下如前所述,F(xiàn)IP為我們收集的數(shù)據(jù)提供了一個關(guān)鍵的權(quán)2000年代出現(xiàn)的數(shù)字網(wǎng)絡(luò)和移動設(shè)備使數(shù)據(jù)收集成為守原則的做法。個主要例子。隨著歐盟2002年《電子隱私指令》的通過,歐洲監(jiān)管機構(gòu)將網(wǎng)站收集數(shù)據(jù)的同意置于首位和中心,存在問題:這種方法在消費者與許多不同的在線提供商隨其所愿,隨其所愿。聯(lián)邦貿(mào)易委員會最近加強了對不),快的度的數(shù)據(jù)收集,而不增加過多的同意請求的摩擦。數(shù)字是我們需要實施數(shù)據(jù)最小化原則,以防止收集過多數(shù)據(jù)。?)行使其選擇不出售其個人信息的權(quán)利時不得使用暗模式,147置提供,但iOS14.5更新將該選項直接放在用戶面前。托是由iOS管理的我們需要通過讓消費者可以委托他們的數(shù)據(jù)偏好來擴展這種方法施,使消費者能夠參與數(shù)字產(chǎn)品和服務(wù),至少在有限的基礎(chǔ)上,而不放棄他們的數(shù)據(jù)或依賴于迫使他們做出持續(xù)的一次性,逐案決定的同意范式。人機交互領(lǐng)域有大量的研究說明了為什么這種方法是無效和繁瑣的。151), 我們將在下面討論。覽器,并非所有瀏覽器都支持它們。155《消費者保護法》費者身上考慮到這樣做的負(fù)擔(dān),很少有人可能這樣做如今,當(dāng)對數(shù)據(jù)收集和使用沒有限制時,公司將使用任何可能的手段這是美國的教訓(xùn)。這是數(shù)據(jù)經(jīng)濟自我監(jiān)且不提供拒絕或減少數(shù)據(jù)收集的權(quán)利,特別是第三方收集者,我們就有可能在隱私和任何其他方面失去更多的基礎(chǔ)。在人工智能需求不斷增長的情況下,對我們個人數(shù)據(jù)的控有些人會回應(yīng)這種觀點,即采取這些措施將對數(shù)據(jù)經(jīng)出了異議,并對安全性提出了相當(dāng)大的擔(dān)憂。雖然數(shù)據(jù)建議二:關(guān)注AI數(shù)據(jù)供應(yīng)鏈,人工智能的出現(xiàn),特別是生成式人工智能,對基于FIPs太明確。當(dāng)公司從其他企業(yè)采購AI“模型即服務(wù)”時,理解數(shù)據(jù)開和模型之間的關(guān)系是一個步驟。但作為美國。美國聯(lián)邦貿(mào)程序權(quán)利?培訓(xùn)數(shù)據(jù)為何重要質(zhì)量和大小不一定有直接的關(guān)系,這意味著大型數(shù)據(jù)集并不能保證更高或更低的輸出質(zhì)量。然而,考慮到創(chuàng)建高質(zhì)量數(shù)據(jù)集所需的時間和費用,特別是使用大型數(shù)據(jù)集的生成系統(tǒng)可能存在更多的質(zhì)量問題。167對于非常大的模型,數(shù)據(jù)集管道的隱私問題Khan和Hanna在他們的論道其數(shù)據(jù)被包括在內(nèi)?培訓(xùn)數(shù)據(jù)集為監(jiān)管機構(gòu)提出了新的挑戰(zhàn)?;贔IP的權(quán)利處理者同意收集數(shù)據(jù)的原始目的,但不同意收集數(shù)據(jù)的目的。可以提供歐盟數(shù)據(jù),擔(dān)。其隱私所需的大量勞動。數(shù)據(jù)開發(fā)供應(yīng)鏈,創(chuàng)建和授權(quán)數(shù)據(jù)集文檔和聚焦數(shù)據(jù)供應(yīng)鏈治理而爭論,而是在處理構(gòu)建用于訓(xùn)練人工智能的數(shù)據(jù)集的過程。第177章必須強調(diào)的是,仍然不成熟,政策制定者不應(yīng)該在沒有更多研究和實178明確答案的階段當(dāng)然,通過要求數(shù)據(jù)集創(chuàng)建者采取控制措施和負(fù)責(zé)任的收集實踐來創(chuàng)建有意義的數(shù)據(jù)合規(guī)措施是有價值的。個領(lǐng)域,監(jiān)管沙箱是一種適當(dāng)?shù)姆椒?,可以幫助確定將道德來源的數(shù)據(jù)比收集的數(shù)據(jù)更便宜,風(fēng)險更低,質(zhì)量進(jìn)行投資,以支持合乎道德的數(shù)據(jù)來源。這意味著為的方式共享或訪問數(shù)據(jù)。經(jīng)濟發(fā)展和人類繁榮的寶貴資源,就像我們的自然資源一樣;因此,對數(shù)據(jù)資源的公共投資可以帶來社會效益,并為數(shù)據(jù)的道德使用創(chuàng)造條件建議三:改變個人資料管理的模式有研究人員和更有影響力的私人公司在過去十年中獲得的迅速和明顯。驗已經(jīng)造成并可能繼續(xù)造成重大傷害。即使這些擔(dān)憂這是不確定的。如果你已經(jīng)失去了人工智能自動化的生計,免費的人工智能服務(wù)可能沒有什么價值。正如我們究和開發(fā),我們就不太可能看到公共的、非營利的人工應(yīng)是透過受規(guī)管的數(shù)據(jù)中介人,為個人184下面,我們將詳細(xì)介紹有助于實現(xiàn)這一目標(biāo)的兩個組件消費者數(shù)據(jù)空間的一個關(guān)鍵目標(biāo)是創(chuàng)建一個中介,可以),許個人保護其數(shù)據(jù)隱私和知識產(chǎn)權(quán)數(shù)據(jù)集的價值就不僅僅掌握在私人行為者手中數(shù)據(jù)權(quán)利解決的數(shù)據(jù)隱私問題。我們的目標(biāo)是為政策制定者和其他利益相關(guān)者提供足夠全解決這些問題,并為保護和維護隱私的短期和長期行動提供建議,同時確保人工智能數(shù)據(jù)開發(fā)生命周期中更大的透明度和問責(zé)制。理由,說明如果我們要讓隱私和人工智能都向前發(fā)展,為什么必須解決這些問題。461放大圖片作者:ChristieM.作者:LindseyA.Gailmard,CarolineMeinhardt等人,“/news/decoding-white-house-ai-executive-orders-解碼白宮AI行政命令的成就”,斯坦福大學(xué)以人為中心的人工智能研究所,2023年11月2日,成就。2參見LinaM.Khan,/legal-library/browse/cases-proceedings/public-statements/joint-statement-enforcement-efforts-against-/faces/billTextClient。xhtml?bill_id=201920200AB730,第493章;/LegislationDetail。aspx?ID=4344524&=B051915D-A9AC-451E-81F8-6596032FA3F9&選項=高級&搜索,子章節(jié)25。3當(dāng)我們使用“出處”一詞這與ContentCredentials(/)等組的用途不同,后者旨在確保創(chuàng)建值得信賴的數(shù)據(jù)像這樣的努力最終可能會包含更廣泛的出處概念,包括元數(shù)據(jù),以便跟蹤為供應(yīng)目的創(chuàng)建的數(shù)據(jù)的來源。/internet/2023/10/18/how-americans-view-data-privacy/5JenniferKing,/uc/item/5hw5w5c16美國國家標(biāo)準(zhǔn)與技術(shù)研究所,/“人工智能風(fēng)險管理框架(AIRMF1.0)?,2023年1月26日,nistpubs/ai/NIST.AI.100-1.pdf。7信息專員.uk/for-organisations/uk-gdpr-guidance-and-resources/individual-rights/automated-decision-making-and-profiling/what-is-automated-individual-decision-making-and-profiling/.8NingyMaslej,LoredanaFattorini,ErikBrynjolfsson,JohnEtchemendyetal.,“/report/人工智能指數(shù)2023年度報告”,斯坦福大學(xué)以10KatrinaZhu,/the-state-of-state-ai-laws-2023/./10.1016/j.clsr.2013.07.005,522-530。13有關(guān)一般背景,請參見RobertGellman,/10.2139/“FairInformationPractices:ABasicHistory-Version2.22”,SSRN,2022年4月,ssrn.2415020。14ChrisJayHoofnagle,/10.2139/ssrn.2466418。/reports/records-computers-rights-citizens最初的FIP是:AB)必須有一種方法讓個人了解記錄中有哪些關(guān)于他的信息以及這些信息是如何使用的;C)必須有一種方法讓個人防止為一個目的而獲得的關(guān)于他的信息在未經(jīng)他同意的情況下被用于或提供給其他目的;D)必須有一種方法讓個人糾正或修改關(guān)于他自己的可識別信息的記錄;E)任何創(chuàng)建、維護、使用或傳播可識別保數(shù)據(jù)的可靠性,并必須采取合理的預(yù)防措施防止數(shù)據(jù)的濫用18私人行為者在開發(fā)金融信息平臺時基本上被忽視,部分原因是在20/en/instruments/OECD-LEGAL-0188https://eur-lex.europa.eu/eli/reg/2016/679/oj,第5(1)(b)條。22ChrisJayHoofnagle,BartvanderSloot和FrederikZuiderveenBorgesius,&/doi/full/10.1080/13600834.2019.1573501“歐盟求意見的回應(yīng)”,斯坦福大學(xué)以人為中心的人工智能研究所,2022年11月21日,files/2022-12/HAI%20-%20FTC%20ANPR%20Comments.pdf。26Barros和GabrielaZanfir-Bara,/blog/fpf-report-automated-decision-making-under-the-gdpr-a-comprehensive-case-l29卡梅隆F.Kerry,https://www.brookin31GeorgeP.Slefo,/article/digital/california-“營銷人員和科技公司面對加州版本的GDPR”,passed-version-gdpr/314079。33加州隱私保護局,/announcements/2023/20231127.htm“消費者控制其個人信息的新里程碑:CPPA提出自動決策技術(shù)的監(jiān)管框架”,2023年11月27日,l。republic-of-china-”斯坦福數(shù)字中國項目,2021年8月20日,effective-nov-1-2021/.35李明莉,施明麗,陳啟恒,杰米P.霍斯利等人,《/work/seven-major-changes-in-cprotection-law/。36在2021年8月的IPO申請中,人工智能巨頭商湯科技將參見JaneLi,/2053040/chinas-new-data-laws-are-a-risk-factor-in-sensetimes-ipo-37GrahamWebster,/work/translation-chinese-authorities-announce-2b-fine-in-didi-case-describe-despicable-data-abuses/.July22,2022,work/forum-unpacking-the-didi-decision/.41BrentMittelstadt,http據(jù)隱私和保護法案,第207(c)條。44GopalRatnam,/2023/09/26/data-privacy-law-“DataprivacylawseenasneededprecursortoAIregulation”,RollCall,2023年9月26日,seen-as-neededed-precursor-to-ai-regulation/。/blog/how-data-protection-authorities-are-de-facto-regulating-generative-ai/.括個人信息的準(zhǔn)確性),微調(diào)在多大程度上用于解決這些問題,以及系統(tǒng)如何攝取個人信息。見人工智能和數(shù)字政策中心,https:/54TonyaRiley,迫使公司刪除他們的算法,/ftc-”Cyberscoop,2023年7月5日,algorithm-disgorgement-ai-regulation/。55LinaM.莉娜·Here/2023/05/03/opinion/ai-lina-khan-ftc-technology.html.56LucaBertuzzi,/section/artificial-“意大利數(shù)據(jù)保護機構(gòu)以侵犯隱私為由禁止ChatGPT”,Euractiv,2023年3月31日,intelligence/news/italian-data-protection-authority-bans-chatgpt-citing-privacy-violations/。display/“Artificialintelligence:stoptoChatGPTbytheItalianSA,Personaldataiscollectedunlawfully,noageverificationsystemisinplaceforchildren,”March31,2023,docweb/9870847#english.59Garante,https://garanteprivacy.it/home/docweb/-/docweb-display/“ChatGPT:ItalianDPAnoticesviolationsofprivacylawtoOpenAI,”January29,2024,docweb/9978020#english.60數(shù)字策展中心,三邊研究,信息學(xué)院,愛丁堡大學(xué),https://gpai.ai/projects/data-governance/role-of-data-in-ai.pdf。64根據(jù)OpenAI的技術(shù)報告,GPT-4是“EvaluationsforClaudeModels,”July8,2023,https:///paper/model-card-and-evaluations-for-claude-models.65克里斯汀·EBusch,/“生成式人工智能和數(shù)據(jù)隱私:入門”,國會研究服務(wù),2023年5月23日,product/pdf/R/R47569?!?abs/2310.12941/technology/2023/07/13/ftc-openai-chatgpt-sam-altman-lina-khan/.MartinVechev,/“BeyondQuesti73隱私論壇的未來,/blog/unfairness-by-“harms-of-automated-decision-making/。world,”Brookings,F(xiàn)ebruary10,2020,ai-driven-world/;OfficeoftheVictoriaInformationCommissioner,“ArtificialIntelligenceandPrivacy-IssuesandChallenges,”August2018,privacy/resources-for-organizations/artificial-intelligence-and-privacy-issues-and-challenges/./sol3/papers.cfm?abstract_id=4431048。77KateCrawford和JasonSchultz,/abstract=232578410月10日,us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-83AndrewLeePark,/injustice-ex-machina-predictive-algorithms-in-criminal-sentencing.88ReubenBinns和ValeriaGallo,.uk/about-the-ico/media-centre/ai-blog-data-minimisation-and-privacy-preserving-techniques-in-ai-systems/。89Biega等人,90Shanmugam等人,data/grounds-processing/what-does-grounds-legitimate-interest-mean_en.98自Brexit以來,英國已經(jīng)觀察到了自己的(盡管幾乎相同的)GDPR版本參見信息專員。uk/for-organizations/data-pdetail/the-uk-gdpr/.99信息專員.uk/for-organisations/uk-gdpr-guidance-and-resources/lawful-basis/legitimate-interests/when-can-we-relieve-on-legitimate-interests/.100SamSchechner和JeffHorwitz,/articles/meta-to-let-users-opt-out-of-some-targeted-ads-but-only-in-europe-44b20b6d。101Noyb,https://noyb.eu/en/meta-facebook-instagram-switching-“Meta(Facebook,Instagram)switchingto“LegitimateInterest”forAds,”March30,2023,legitimate-interest-ads.102MetaNewsroom,/news/2023/10/facebook-“Facebook和Instagram將在歐洲提供無廣告訂閱服務(wù)”,2023年10月30日,和-instagram-to-offer-subscription-for-no-ads-in-europe。107歐洲議會和歐洲理事會,GDPR,第22條,第1節(jié)。敘文71對特征分析和自動化處理作了定義:“數(shù)據(jù)主體應(yīng)有權(quán)不受決定的約束,該決定可能包括一項措施,評估與他或她有關(guān)的個人方面,該措施完全基于自動化處理,并對他或她產(chǎn)生法律效力或類似地對他或她產(chǎn)生重大影響,例如自動拒絕在線信貸申請或在沒有任何人為干預(yù)的情況下和透明度會議記錄,2023年6月,https:///10.1145/3593013.3594030,626.google-“TheUnlikelyActiviststhatTookOnSiliconValley-AndWon,”TheNewYorkTimesMagazine,August14,2018,privacy-data.html.112NatashaSinger,https://www.nytimes。com/2019/09/24/technology/group-behind-california-privacy-law-aims-to-strengen-it.html./meetings/materials/20231208_item2_addendum.pdf。118歐盟委員會,https://commission.europa.eu/law/law-topic/data-protection/reform/rules-business-and-organizations/obligations/when-data-protection-impact-assessment-dpia-required_en./meetings/materials/20231208_item2_draft_clean.pdf。/2023/12/05/technology/ai-chatgpt-google-meta.htm”TheNewYorkTimes,December5,2023,l./sol3/papers.cfm?abstract_id=4217148。128SaloméViljoen,/feature/a-relational-“數(shù)據(jù)治理的關(guān)系理論”,耶魯法學(xué)雜志131(2),202theory-of-data-governance。134IveyDyson,/“人工智能如何威脅公民權(quán)利和經(jīng)濟機會”,布倫南司法中心,2023年11月16日,our-work/analysis-opinion/how-ai-profitens-civil-rights-and-economic-opportunities。work/subjects/eprivacy-directive_en。在沒有合理保障的情況下部署技術(shù)后,RiteAid被禁止使用AI面部識別”,2023年12月19日,ftc-says-retailer-deployed-technology-without。regulation-rule-on-commercial-surveillance-and-data-security。https://www.europarl.europa.eu/legislative-train/theme-a-europe-fit-for-the-digital-age/file-jd-e-privacy-reform。143歐盟委員會,https://commission.europa.eu/law/law-topic/data-pr

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論