《生成式對(duì)抗網(wǎng)絡(luò)》課件_第1頁
《生成式對(duì)抗網(wǎng)絡(luò)》課件_第2頁
《生成式對(duì)抗網(wǎng)絡(luò)》課件_第3頁
《生成式對(duì)抗網(wǎng)絡(luò)》課件_第4頁
《生成式對(duì)抗網(wǎng)絡(luò)》課件_第5頁
已閱讀5頁,還剩19頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

1、生成式對(duì)抗網(wǎng)絡(luò)PPT課件 本課件僅供大家學(xué)習(xí)學(xué)習(xí) 學(xué)習(xí)完畢請(qǐng)自覺刪除 謝謝 本課件僅供大家學(xué)習(xí)學(xué)習(xí) 學(xué)習(xí)完畢請(qǐng)自覺刪除 謝謝 June 1,2018早期理論積累GAN的理論及衍生模型GAN的應(yīng)用介紹早期理論積累生成式對(duì)抗網(wǎng)絡(luò)GAN起源于博弈論中的二人零和博弈(two-player game)博弈方a:生成式模型(generative model)博弈方b:判別式模型(discriminative model) 生成模型G: 捕捉樣本數(shù)據(jù)的分布,用服從某一分不(均勻分布,高斯分布)的噪聲z生成一個(gè)類似真實(shí)訓(xùn)練數(shù)據(jù)的樣本,追求效果是越像真實(shí)的越好。 判別模型D:是一個(gè)二分類器,估計(jì)一個(gè)樣本來自訓(xùn)練

2、數(shù)據(jù)(而非生成數(shù)據(jù))的概率,如果樣本來自真實(shí)的訓(xùn)練數(shù)據(jù),D輸出大概率,否則,D輸出小概率。生成式對(duì)抗網(wǎng)絡(luò)-博弈論博弈論-納什均衡假設(shè)豬圈里有一頭大豬、一頭小豬。豬圈的一頭有豬食槽(兩豬均在食槽端),另一頭安裝著控制豬食供應(yīng)的按鈕,按一下按鈕會(huì)有10個(gè)單位的豬食進(jìn)槽,但是在去往食槽的路上會(huì)有兩個(gè)單位豬食的體能消耗,若大豬先到槽邊,大小豬吃到食物的收益比是91;同時(shí)行動(dòng)(去按按鈕),收益比是73;小豬先到槽邊,收益比是64。那么,在兩頭豬都有智慧的前提下,最終結(jié)果是小豬選擇等待。生成式對(duì)抗網(wǎng)絡(luò)-博弈論囚徒困境智豬博弈 機(jī)器學(xué)習(xí)方法可以分為生成方法和判別方法,所學(xué)到的模型分別稱為生成式模型和判別式模

3、型。生成方法通過觀測數(shù)據(jù)學(xué)習(xí)樣本與標(biāo)簽的聯(lián)合概率分布P(X, Y),訓(xùn)練好的模型能夠生成符合樣本分布的新數(shù)據(jù),它可以用于有監(jiān)督學(xué)習(xí)和無監(jiān)督學(xué)習(xí)。判別方法由數(shù)據(jù)直接學(xué)習(xí)決策函數(shù)f(X)或者條件概率分布P(Y|X)作為預(yù)測的模型,即判別模型。生成方法和判別方法深度產(chǎn)生式模型的深度信念網(wǎng)絡(luò)(DBN)。DBN是由一組受限玻爾茲曼機(jī)(RBMs)堆疊而成的深度生成式網(wǎng)絡(luò),它的核心部分是貪婪的、逐層學(xué)習(xí)的算法,這種算法可以最優(yōu)化深度置信網(wǎng)絡(luò)的權(quán)重。以無監(jiān)督方式預(yù)訓(xùn)練的生成式模型(DBN)可以提供良好的初始點(diǎn),然后通過有監(jiān)督的反向傳播算法微調(diào)權(quán)值早期深層生成模型 生成對(duì)抗網(wǎng)絡(luò),由兩個(gè)網(wǎng)絡(luò)組成,即生成器和判別器

4、,生成器用來建立滿足一定分布的隨機(jī)噪聲和目標(biāo)分布的映射關(guān)系,判別器用來區(qū)別實(shí)際數(shù)據(jù)分布和生成器產(chǎn)生的數(shù)據(jù)分布。GAN生成模型GAN的理論及衍生模型請(qǐng)?jiān)诖颂砑幽愕臉?biāo)題生成式對(duì)抗網(wǎng)絡(luò)-GAN理論GAN的基本框架 當(dāng)固定生成網(wǎng)絡(luò) G 的時(shí)候,對(duì)于判別網(wǎng)絡(luò) D 的優(yōu)化,可以這樣理解:輸入來自于真實(shí)數(shù)據(jù),D 優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu)使自己輸出 1,輸入來自于生成數(shù)據(jù),D 優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu)使自己輸出 0;當(dāng)固定判別網(wǎng)絡(luò) D 的時(shí)候,G 優(yōu)化自己的網(wǎng)絡(luò)使自己輸出盡可能和真實(shí)數(shù)據(jù)一樣的樣本,并且使得生成的樣本經(jīng)過 D 的判別之后,D 輸出高概率。生成式對(duì)抗網(wǎng)絡(luò)-GAN的基本框架生成式對(duì)抗網(wǎng)絡(luò)-如何定義損失通過優(yōu)化目標(biāo),使得我

5、們可以調(diào)節(jié)概率生成模型的參數(shù),從而使得生成的概率分布和真實(shí)數(shù)據(jù)分布盡量接近。 但是這里的分布參數(shù)不再跟傳統(tǒng)概率統(tǒng)計(jì)一樣了,這些參數(shù)保存在一個(gè)黑盒中:最后所學(xué)到的一個(gè)數(shù)據(jù)分布Pg(G),沒有顯示的表達(dá)式。生成式對(duì)抗網(wǎng)絡(luò)-noise輸入的解釋如圖所示,假設(shè)我們現(xiàn)在的數(shù)據(jù)集是一個(gè)二維的高斯混合模型,那么這么noise就是x軸上我們隨機(jī)輸入的點(diǎn),經(jīng)過生成模型映射可以將x軸上的點(diǎn)映射到高斯混合模型上的點(diǎn)。當(dāng)我們的數(shù)據(jù)集是圖片的時(shí)候,那么我們輸入的隨機(jī)噪聲其實(shí)就是相當(dāng)于低維的數(shù)據(jù),經(jīng)過生成模型G的映射就變成了一張生成的圖片G(x)。優(yōu)化函數(shù)的目標(biāo)函數(shù)D(x)表示判別器認(rèn)為x是真實(shí)樣本的概率,而1-D(G(

6、z)則是判別器認(rèn)為合成樣本為假的概率。訓(xùn)練GAN的時(shí)候,判別器希望目標(biāo)函數(shù)最大化,也就是使判別器判斷真實(shí)樣本為“真”,判斷合成樣本為“假”的概率最大化;與之相反,生成器希望該目標(biāo)函數(shù)最小化,也就是降低判別器對(duì)數(shù)據(jù)來源判斷正確的概率。在訓(xùn)練的過程中固定一方,更新另一方的網(wǎng)絡(luò)權(quán)重,交替迭代,在這個(gè)過程中,雙方都極力優(yōu)化自己的網(wǎng)絡(luò),從而形成競爭對(duì)抗,直到雙方達(dá)到一個(gè)動(dòng)態(tài)的平衡(納什均衡),此時(shí)生成模型 G 恢復(fù)了訓(xùn)練數(shù)據(jù)的分布(造出了和真實(shí)數(shù)據(jù)一模一樣的樣本),判別模型再也判別不出來結(jié)果,準(zhǔn)確率為 50%,約等于亂猜。生成式對(duì)抗網(wǎng)絡(luò)-GAN的訓(xùn)練方法生成模型:要最小化判別模型D的判別準(zhǔn)確率。判別模型

7、:要盡量最大化自己的判別準(zhǔn)確率黑色大點(diǎn)虛線P(X)是真實(shí)的數(shù)據(jù)分布 A.Pg和Pdata 相似,D是部分精確的分類器綠線G(z)是通過生成模型產(chǎn)生的數(shù)據(jù)分布(輸入是均勻分布變量z,輸出是綠色的線) B.D被訓(xùn)練以區(qū)分樣本和數(shù)據(jù),并收斂到藍(lán)色的小點(diǎn)虛線D(X)代表判別函數(shù)C.在更新g之后,d的梯度引導(dǎo)g(Z)流向更有可能被歸類為數(shù)據(jù)的區(qū)域。較低的水平線是z采樣的區(qū)域,在這種情況下,上面的水平線是X域的一部分。向上箭頭顯示映射x=g(Z)如何將非均勻分布的pg強(qiáng)加于轉(zhuǎn)換后的樣本上。g在高密度區(qū)域收縮,在pg低密度區(qū)域擴(kuò)展。D.產(chǎn)生的綠色分布和真實(shí)數(shù)據(jù)分布已經(jīng)完全重合。這時(shí),判別函數(shù)對(duì)所有的數(shù)據(jù)(無

8、論真實(shí)的還是生成的數(shù)據(jù)),輸出都是一樣的值,已經(jīng)不能正確進(jìn)行分類。G成功學(xué)習(xí)到了數(shù)據(jù)分布,這樣就達(dá)到了GAN的訓(xùn)練和學(xué)習(xí)目的。Pg = Pdata ,判別器無法區(qū)分這兩個(gè)分布,此時(shí)D(X)=1/2生成式對(duì)抗網(wǎng)絡(luò)-訓(xùn)練方法首先,如果固定G,那么D的最優(yōu)解就是一個(gè)貝葉斯分類器。將這個(gè)最優(yōu)解形式帶入,可以得到關(guān)于G的優(yōu)化函數(shù)。簡單的計(jì)算可以證明,當(dāng)產(chǎn)生的數(shù)據(jù)分布與真實(shí)數(shù)據(jù)分布完全一致時(shí),這個(gè)優(yōu)化函數(shù)達(dá)到全局最小值。Pg=Pdata生成模型G隱式地定義了一個(gè)概率分布Pg,我們希望Pg 收斂到數(shù)據(jù)真實(shí)分布Pdata。論文證明了這個(gè)極小化極大博弈當(dāng)且僅當(dāng)Pg = Pdata時(shí)存在最優(yōu)解,即達(dá)到納什均衡,此

9、時(shí)生成模型G恢復(fù)了訓(xùn)練數(shù)據(jù)的分布,判別模型D的準(zhǔn)確率等于50%。GAN是存在全局最優(yōu)解的全局最優(yōu)解和收斂性生成式對(duì)抗網(wǎng)絡(luò)-全局最優(yōu)解和收斂性如果G和D的學(xué)習(xí)能力足夠強(qiáng),兩個(gè)模型可以收斂。但是GAN模型的收斂性和均衡點(diǎn)存在性需要新的理論突破,模型結(jié)構(gòu)和訓(xùn)練穩(wěn)定性需要進(jìn)一步提高。GAN的收斂是很困難的。第一,就是梯度消失的問題,當(dāng)優(yōu)化的時(shí)候,對(duì)于公式里我們的生成器、判別器的損失函數(shù)會(huì)存在梯度消失的問題,那么我們需要設(shè)計(jì)一些更好的損失函數(shù),使得梯度消失問題得到解決。第二個(gè)就是模式發(fā)現(xiàn)問題,也就是說我們的生成器可能生成同樣的數(shù)據(jù)而不是多樣的數(shù)據(jù)。GAN的收斂性根據(jù)實(shí)際的結(jié)果,它們看上去可以比其它模型產(chǎn)

10、生了更好的樣本(圖像更銳利、清晰)生成對(duì)抗式網(wǎng)絡(luò)框架能訓(xùn)練任何一種生成器網(wǎng)絡(luò)不需要設(shè)計(jì)遵循任何種類的因式分解的模型,任何生成器網(wǎng)絡(luò)和任何鑒別器都會(huì)有用無需反復(fù)采樣優(yōu)點(diǎn):生成式對(duì)抗網(wǎng)絡(luò)-優(yōu)點(diǎn)和缺點(diǎn)解決不收斂的問題。所有的理論都認(rèn)為 GAN 應(yīng)該在納什均衡上有卓越的表現(xiàn),但梯度下降只有在凸函數(shù)的情況下才能保證實(shí)現(xiàn)納什均衡GAN模型被定義為極小極大問題,沒有損失函數(shù),在訓(xùn)練過程中很難區(qū)分是否正在取得進(jìn)展無需預(yù)先建模,模型過于自由不可控缺點(diǎn):生成式對(duì)抗網(wǎng)絡(luò)-衍生模型 DCGAN把有監(jiān)督學(xué)習(xí)的CNN與無監(jiān)督學(xué)習(xí)的GAN整合到一起提出了Deep Convolutional Generative Adver

11、sarial Networks - DCGANs,是生成器和判別器分別學(xué)到對(duì)輸入圖像層次化的表示。1.使用DCGANs從大量的無標(biāo)記數(shù)據(jù)(圖像、語音)學(xué)習(xí)到有用的特征,相當(dāng)于利用無標(biāo)記數(shù)據(jù)初始化DCGANs的生成器和判別器的參數(shù),在用于有監(jiān)督場景.2.表示學(xué)習(xí)representation learning的工作:嘗試?yán)斫夂涂梢暬疓AN是如何工作的.3.穩(wěn)定訓(xùn)練DCGANs生成式對(duì)抗網(wǎng)絡(luò)-衍生模型 CGAN1.定義:通過將額外信息y輸送給判別模型和生成模型,作為輸入層的一部分,從而實(shí)現(xiàn)條件GAN2.在生成模型中,先驗(yàn)輸入噪聲p(z)和條件信息y聯(lián)合組成了聯(lián)合隱層表征。條件GAN的目標(biāo)函數(shù)是帶有條件概率的二人極小極大值博弈(two-player minimax game )生成式對(duì)抗網(wǎng)絡(luò)-衍生模型 InfoGANInfoGAN:挖掘GAN模型隱變量特點(diǎn)的模型為了使輸入包含可以解釋,更有信息的意義,InfoGAN7的模型在z之外,又增加了一個(gè)輸入

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論