深度學(xué)習(xí)中的隱私保護(hù)技術(shù)綜述_第1頁
深度學(xué)習(xí)中的隱私保護(hù)技術(shù)綜述_第2頁
深度學(xué)習(xí)中的隱私保護(hù)技術(shù)綜述_第3頁
深度學(xué)習(xí)中的隱私保護(hù)技術(shù)綜述_第4頁
深度學(xué)習(xí)中的隱私保護(hù)技術(shù)綜述_第5頁
已閱讀5頁,還剩4頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

01研究背景1.1隱私泄露風(fēng)險目前,在人工智能的幾乎所有領(lǐng)域,深度學(xué)習(xí)技術(shù)已經(jīng)遠(yuǎn)遠(yuǎn)超過了傳統(tǒng)方法的性能,包括計算機(jī)視覺、音頻處理、自然語言處理、大數(shù)據(jù)分析等。推動深度在各個領(lǐng)域取得巨大成功主要有以下幾個因素:(1)數(shù)據(jù)井噴,全球數(shù)據(jù)中心數(shù)據(jù)量在未來幾年年均增速40%。(2)計算能力突破,基于大型GPU集群的強(qiáng)大計算能力,使得訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)的速度從2006年到2016年提升了255倍。(3)算法突破,算法突破推動AI技術(shù)成熟和實用化。對于一些大型的網(wǎng)絡(luò)企業(yè),用戶的照片、語音、視頻、文本等數(shù)據(jù)可以被收集和保存,以備將來使用。正因為如此,深度學(xué)習(xí)領(lǐng)域中大部分成功的應(yīng)用都是大型組織,它們既有大量有價值的數(shù)據(jù),又有足夠的計算能力來訓(xùn)練深度模型,以改進(jìn)其產(chǎn)品和服務(wù)。雖然深度學(xué)習(xí)帶來了巨大的好處,但它需要收集大量的數(shù)據(jù),這些數(shù)據(jù)涉及用戶的隱私信息,例如用戶興趣、愛好、個人信息等,這些隱私數(shù)據(jù)的泄露會導(dǎo)致不可預(yù)估的財產(chǎn)以及生命安全問題。1.2隱私保護(hù)相關(guān)法律隨著互聯(lián)網(wǎng)的快速發(fā)展以及隱私泄露問題日益嚴(yán)重,為減輕隱私泄露帶來的負(fù)面影響,美國、歐盟、中國等國家正在不斷的通過完善數(shù)據(jù)安全和隱私保護(hù)法律法規(guī)對企業(yè)以及個人進(jìn)行監(jiān)管。美國是最早通過法律法規(guī)對隱私進(jìn)行保護(hù)的國家,其在1974年通過并發(fā)布的《隱私法案》是美國最重要的一部保護(hù)個人隱私的法律法規(guī),到20世紀(jì)80年代又先后制定和頒布了《電子通訊隱私法案》《電腦匹配與隱私權(quán)法》以及《網(wǎng)上兒童隱私權(quán)保護(hù)法》。1980年,經(jīng)濟(jì)合作與發(fā)展組織(OECD)在《關(guān)于保護(hù)隱私和個人信息跨國流通指導(dǎo)原則》中揭示了個人信息保護(hù)八大原則,即收集限制原則、數(shù)據(jù)質(zhì)量原則、目的明確原則、使用限制原則、安全保障原則、公開性原則、個人參與原則和問責(zé)制原則。這些指導(dǎo)原則對全球各國的立法產(chǎn)生了巨大的影響,有“已經(jīng)成為制定個人信息保護(hù)文件的國際標(biāo)準(zhǔn)”之稱。我國也在多部法律中對隱私權(quán)進(jìn)行保護(hù),比如在《侵權(quán)責(zé)任法》中規(guī)定了若干種承擔(dān)侵權(quán)責(zé)任的方式;《中華人民共和國憲法》第三十八條規(guī)定:“中華人民共和國公民的人格尊嚴(yán)不受侵犯?!钡鹊?。同時我國還在制定專門的《個人信息保護(hù)法》《中華人民共和國網(wǎng)絡(luò)安全法》等法律對網(wǎng)絡(luò)數(shù)據(jù)以及用戶隱私進(jìn)行保護(hù)。本文總結(jié)了在使用深度學(xué)習(xí)的同時保護(hù)用戶隱私信息的方法,主要包括同態(tài)加密隱私保護(hù)技術(shù)、差分隱私保護(hù)技術(shù)。同態(tài)加密和差分隱私是密碼學(xué)中常見的隱私保護(hù)手段,這兩種方法被運用于深度學(xué)習(xí)過程中的隱私保護(hù),具有顯而易見的效果。02同態(tài)加密隱私保護(hù)技術(shù)2.1同態(tài)加密技術(shù)假設(shè)存在加密函數(shù)f,使得明文M加密后變成密文M’,明文N加密后變成密文N’,即f(M)=M’,f(N)=N’,存在f的解密函數(shù)f-1能夠?qū)加密后的密文解密成加密前的明文。將M’與N’相加得到P’,如果解密函數(shù)f-1對P’解密后的結(jié)果等于M和N相加的結(jié)果,即f-1(P’)=f-1(M’+N’)=M+N,則f是可以進(jìn)行同態(tài)加密的加密函數(shù)。同態(tài)加密可以分為加法同態(tài)、乘法同態(tài)以及全同態(tài)。加法同態(tài)指的是加密算法滿足f(M)+f(N)=f(M+N),乘法同態(tài)指的是加密算法滿足f(M)*f(N)=f(M*N)。而全同態(tài)加密指的是一個加密函數(shù)同時滿足加法同態(tài)和乘法同態(tài),全同態(tài)加密函數(shù)可以完成加減乘除、多項式求值、指數(shù)、對數(shù)、三角函數(shù)等運算。常見的RSA算法對于乘法操作是同態(tài)的,Paillier算法則是對加法同態(tài)的,Gentry算法則是全同態(tài)的。2.2同態(tài)加密技術(shù)應(yīng)用2.2.1數(shù)據(jù)處理與隱私保護(hù)大數(shù)據(jù)時代下的海量個人信息存儲與處理是隱私保護(hù)面臨的關(guān)鍵問題,用戶往往不希望將個人資料、保密文件、隱私信息存儲在服務(wù)提供商中,而人工智能時代又需要對這些用戶信息進(jìn)行挖掘分析。同態(tài)加密是解決這一矛盾的新技術(shù),用戶可以將個人敏感信息加密后存儲在服務(wù)提供商或者云端服務(wù)中,服務(wù)器可以對密文進(jìn)行處理以及分析,并將密文結(jié)果返回給用戶,只有用戶能夠解密密文結(jié)果。2.2.2密文檢索當(dāng)越來越多的加密數(shù)據(jù)存儲在服務(wù)器或者云端時,對加密數(shù)據(jù)的檢索成為了一個急需解決的問題。現(xiàn)有的密文檢索算法包括線性搜索、公鑰搜索和安全索引可以解決對服務(wù)端的加密數(shù)據(jù)進(jìn)行檢索問題,然而這些方法需要花費較高代價并且只能運用于小規(guī)模數(shù)據(jù)集中?;谌瑧B(tài)加密的密文檢索方法可以直接對加密數(shù)據(jù)進(jìn)行檢索,對密文做基本的加法和乘法能夠有效降低運算復(fù)雜度,同時也不改變相應(yīng)的明文順序,既保護(hù)了用戶的數(shù)據(jù)安全,又提高了密文的檢索效率。2.2.3數(shù)字水印目前數(shù)字水印技術(shù)已經(jīng)成熟地運用在數(shù)字產(chǎn)品的版權(quán)保護(hù)中,然而數(shù)字水印系統(tǒng)也存在安全挑戰(zhàn),例如對水印算法、水印密鑰的惡意攻擊,從而破譯水印并且偽造水印。使用同態(tài)加密技術(shù)對數(shù)字水印進(jìn)行加密后嵌入,在檢測水印時首先需要對水印進(jìn)行同態(tài)解密,該方法能夠有效抵抗數(shù)字水印的非授權(quán)攻擊。2.3

基于同態(tài)加密的深度學(xué)習(xí)中隱私保護(hù)技術(shù)同態(tài)加密的核心是能夠直接在密文上做運算,運算結(jié)果解密后與明文運算結(jié)果相同,這是對用戶隱私的最直接和有效的保護(hù)手段。在機(jī)器學(xué)習(xí)和深度學(xué)習(xí)過程中使用同態(tài)加密對數(shù)據(jù)加密然后分析計算,能夠很好地解決許多領(lǐng)域要求數(shù)據(jù)保密、安全的問題。同態(tài)加密可以確保在密文上進(jìn)行計算而不進(jìn)行解密,從而解密的結(jié)果與對明文執(zhí)行相同計算得到的結(jié)果相同。由于目前的同態(tài)加密方案仍然存在許多局限,如只支持整數(shù)數(shù)據(jù),需要固定的乘法深度,不能無限期地進(jìn)行加法和乘法運算,全同態(tài)加密不支持比較和取最大值等操作。因此,現(xiàn)有的同態(tài)加密方案不能簡單地應(yīng)用于機(jī)器學(xué)習(xí)以及深度學(xué)習(xí)中。目前常用的解決策略有兩種:①通過安全的多方計算來構(gòu)造一種適合于基于同態(tài)加密的機(jī)器學(xué)習(xí)算法的協(xié)議,并通過執(zhí)行該協(xié)議來完成該算法;②尋求原始機(jī)器學(xué)習(xí)算法的近似算法,使其仍然可以使用同時不依賴交互方案,并且滿足同態(tài)加密方案的數(shù)據(jù)和操作要求。在機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的預(yù)測過程中,利用同態(tài)加密算法的性質(zhì)對數(shù)據(jù)進(jìn)行加密,然后在加密訓(xùn)練集上進(jìn)行機(jī)器學(xué)習(xí)以及深度學(xué)習(xí)的建模訓(xùn)練,同樣使用訓(xùn)練好的模型對加密的測試集進(jìn)行預(yù)測,返回的預(yù)測結(jié)果也是密文,從而有效地保護(hù)用戶隱私數(shù)據(jù)。在2007年,Orlandi就提出了利用同態(tài)加密技術(shù)結(jié)合多方安全計算使神經(jīng)網(wǎng)絡(luò)具有處理加密數(shù)據(jù)的能力,并且考慮到了神經(jīng)網(wǎng)絡(luò)本身的安全性。2011年,將基于同態(tài)加密的神經(jīng)網(wǎng)絡(luò)應(yīng)用于心電圖分類中,可以實現(xiàn)遠(yuǎn)程服務(wù)器對客戶提供的生物醫(yī)學(xué)信號進(jìn)行分類,而不獲取任何有關(guān)信號本身的信息和分類的最終結(jié)果。2016年,提出一種可以應(yīng)用于加密數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)CryptoNets,同時作者證明云服務(wù)能夠?qū)⑸窠?jīng)網(wǎng)絡(luò)應(yīng)用于加密數(shù)據(jù)以進(jìn)行加密預(yù)測,并以加密的形式返回這些預(yù)測。這些加密的預(yù)測可以發(fā)送回能夠解密它們的密鑰所有者。該網(wǎng)絡(luò)對minist數(shù)據(jù)集的識別精度達(dá)到了99%。在2017年,在訓(xùn)練階段使用Chebyshef多項式來近似模擬激活函數(shù),從而證明了利用加密數(shù)據(jù)訓(xùn)練神經(jīng)網(wǎng)絡(luò),進(jìn)行加密預(yù)測,并以加密形式返回預(yù)測是可行的和實用的,該方法比CryptoNets在MNIST數(shù)據(jù)集上的精度提高了0.52%。為了解決基于全同態(tài)加密技術(shù)的機(jī)器學(xué)習(xí)巨大的計算開銷問題,提出了一種非共謀雙云模型(CloudA,CloudB),該模型使用Paillier密碼系統(tǒng)提高運算速度,減少運算開銷。在訓(xùn)練階段,加密也可以用來保護(hù)敏感數(shù)據(jù)集。利用Stone—Weierstrass理論,提出crypto-nets在密文上做預(yù)測,利用同態(tài)加密和對激活函數(shù)的修改以及對神經(jīng)網(wǎng)絡(luò)的激活函數(shù)和訓(xùn)練算法的修改,并證明了所提出的加密網(wǎng)絡(luò)的構(gòu)造是可行的。該方法為在不侵犯用戶隱私的情況下建立基于云的安全神經(jīng)網(wǎng)絡(luò)預(yù)測服務(wù)奠定了基礎(chǔ)。提出了一種基于BGV加密方案的保密雙投影深度計算模型(PPDPDCM),給出直接在密文上訓(xùn)練神經(jīng)網(wǎng)絡(luò)的解決方案。目前,利用加密技術(shù)來保護(hù)機(jī)器學(xué)習(xí)以及深度學(xué)習(xí)中的用戶敏感數(shù)據(jù)已經(jīng)取得較大進(jìn)展,包括在預(yù)測階段以及訓(xùn)練階段的數(shù)據(jù)加密。但是在使用同態(tài)加密的過程中存在資源消耗的問題,深度學(xué)習(xí)本身已經(jīng)消耗了大量的計算資源,結(jié)合同態(tài)加密技術(shù)將大大增加深度學(xué)習(xí)的計算量。如何在結(jié)合同態(tài)加密算法而盡量減少對深度學(xué)習(xí)性能的影響將是未來主要的研究方向。03差分隱私保護(hù)技術(shù)3.1差分隱私保護(hù)技術(shù)差分隱私的任務(wù)是提供一種關(guān)于輸出的概率分布的機(jī)制或者協(xié)議,允許用戶對數(shù)據(jù)進(jìn)行一定程度的修改,但不影響總體輸出,從而使得攻擊者無法知道數(shù)據(jù)集中關(guān)于個人的信息,達(dá)到隱私保護(hù)的作用。差分隱私指的是存在兩個之間至多相差一條記錄的數(shù)據(jù)集D和D’以及一個隱私算法A,Range(A)為A的取值范圍,若算法A在數(shù)據(jù)集D和D’上任意輸出結(jié)果O(O∈Range(A))滿足不等Pr[A(D)=O]≤eε×Pr[A(D')=O]時,A滿足ε-差分隱私。差分隱私最主要的方法是在數(shù)據(jù)集中添加噪聲來實現(xiàn)的,常用的噪音機(jī)制包括Laplace機(jī)制和指數(shù)機(jī)制,Laplace機(jī)制適用于連續(xù)型數(shù)據(jù)集,而指數(shù)機(jī)制適用于離散型數(shù)據(jù)集。3.2深度學(xué)習(xí)中的差分隱私保護(hù)技術(shù)差分隱私(differentialprivacy)是一種基于差分隱私機(jī)制的隱私保護(hù)技術(shù),這個概念是Dwork在2006年提出來的,通過在原始數(shù)據(jù)中引入噪聲,達(dá)到使至多相差1個數(shù)據(jù)的2個數(shù)據(jù)集查詢結(jié)果概率不可分的目的。差分隱私保護(hù)分為集中式學(xué)習(xí)和分布式學(xué)習(xí)兩大類,Abadi于2016年提出的基于差分隱私的深度學(xué)習(xí)算法基于集中式學(xué)習(xí),該方法在梯度下降的過程中利用梯度增大擾動方法來報敏感數(shù)據(jù),并詳細(xì)分析了差異化隱私的框架下的隱私成本。實驗已經(jīng)證實了可以在適度的隱私預(yù)算下,以可管理的軟件復(fù)雜性、訓(xùn)練效率和模型質(zhì)量成本,訓(xùn)練具有非凸目標(biāo)的深度神經(jīng)網(wǎng)絡(luò)。2017年,提出用半監(jiān)督知識遷移方法來解決深度學(xué)習(xí)中訓(xùn)練數(shù)據(jù)隱私泄露問題,以黑盒的方式將多個模型與不相交的數(shù)據(jù)集(例如來自不同用戶子集的記錄)相結(jié)合。由于改進(jìn)了隱私分析和半監(jiān)督學(xué)習(xí),作者在mnist和svhn上實現(xiàn)了最先進(jìn)的隱私/效用權(quán)衡。2018年提出了一種對本地數(shù)據(jù)進(jìn)行擾動變換的機(jī)制,該機(jī)制基于差分隱私計算方法,同時使用噪聲訓(xùn)練方法增加云端深度神經(jīng)網(wǎng)絡(luò)對移動設(shè)備提交的擾動數(shù)據(jù)的魯棒性,該機(jī)制解決了將數(shù)據(jù)從移動設(shè)備傳輸?shù)皆浦行臅r的隱私泄露問題。在聯(lián)合分布式學(xué)習(xí)環(huán)境中,數(shù)據(jù)所有者分布式訓(xùn)練具有相同目標(biāo)的神經(jīng)網(wǎng)絡(luò)模型,根據(jù)自己的數(shù)據(jù)集獨立訓(xùn)練,但共享訓(xùn)練結(jié)果。在2015年提出了一個共同分布式深度學(xué)習(xí)方案來保護(hù)隱私,首次將隱私保護(hù)的概念引入深度學(xué)習(xí)。同時利用現(xiàn)代深度學(xué)習(xí)中使用的優(yōu)化算法,即基于隨機(jī)梯度下降的優(yōu)化算法,可以實現(xiàn)異步并行和執(zhí)行,在引入噪聲后,每個參與者將一小部分局部梯度參數(shù)上傳到中心參數(shù)服務(wù)器。每次更新本地參數(shù)時,都會從服務(wù)器下載最新的漸變參數(shù)進(jìn)行更新,這樣就允許參與者在自己的數(shù)據(jù)集上獨立訓(xùn)練,并在訓(xùn)練期間有選擇地共享模型關(guān)鍵參數(shù)的小子集。參與者在保留各自數(shù)據(jù)的隱私的同時,仍然受益于其他參與者的模型,從而提高他們的學(xué)習(xí)準(zhǔn)確性,而不僅僅是通過自己的輸入實現(xiàn)的。作者同時證明了在基準(zhǔn)數(shù)據(jù)集上的隱私保護(hù)深度學(xué)習(xí)的準(zhǔn)確性。在此基礎(chǔ)上,Mohassel采用隨機(jī)梯度下降法,提出了一種新的高效的線性回歸、邏輯回歸和神經(jīng)網(wǎng)絡(luò)訓(xùn)練保密機(jī)器學(xué)習(xí)協(xié)議。該協(xié)議屬于雙服務(wù)器模型,數(shù)據(jù)所有者將其私有數(shù)據(jù)分配給兩個非協(xié)作服務(wù)器,這些服務(wù)器使用安全的雙方計算(2PC)對聯(lián)合數(shù)據(jù)上的各種模型進(jìn)行訓(xùn)練。04前景展望隨著深度學(xué)習(xí)的興起,人工智能在各個領(lǐng)域迎來新的一波發(fā)展熱潮,然而在人工智能迅速發(fā)展的同時,其安全與隱私問題也引起了人們的關(guān)注,人工智能的安全和隱私的威脅已經(jīng)阻礙了人工智能的發(fā)展。保護(hù)用戶隱私成為人

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論