2025神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)循環(huán)神經(jīng)網(wǎng)絡(luò)_第1頁
2025神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)循環(huán)神經(jīng)網(wǎng)絡(luò)_第2頁
2025神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)循環(huán)神經(jīng)網(wǎng)絡(luò)_第3頁
2025神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)循環(huán)神經(jīng)網(wǎng)絡(luò)_第4頁
2025神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)循環(huán)神經(jīng)網(wǎng)絡(luò)_第5頁
已閱讀5頁,還剩59頁未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

循環(huán)神經(jīng)網(wǎng)絡(luò)《神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)》2025參考資料《神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)》第6章網(wǎng)絡(luò)資料AnIntroductiontoRecurrentNeural

Networks/explore-artificial-intelligence/an-introduction-to-recurrent-neural-networks-72c97bf0912RecurrentNeural

Networks/recurrent-neural-networks-d4642c9bc7ce前饋網(wǎng)絡(luò)連接存在層與層之間,每層的節(jié)點(diǎn)之間是無連接的。(無循環(huán))輸入和輸出的維數(shù)都是固定的,不能任意改變。無法處理變長的序列數(shù)據(jù)。前饋網(wǎng)絡(luò)假設(shè)每次輸入都是獨(dú)立的,也就是說每次網(wǎng)絡(luò)的輸出只依賴于當(dāng)前的輸入。有限狀態(tài)自動(dòng)機(jī)(FiniteAutomata)如何用FNN去模擬一個(gè)有限狀態(tài)自動(dòng)機(jī)?圖靈機(jī)一種抽象數(shù)學(xué)模型,可以用來模擬任何可計(jì)算問題??捎?jì)算問題可計(jì)算問題函數(shù)

有限狀態(tài)機(jī)圖靈機(jī)前饋網(wǎng)絡(luò)需要記憶能力通用近似定理如何給網(wǎng)絡(luò)增加記憶能力?延時(shí)神經(jīng)網(wǎng)絡(luò)(TimeDelayNeuralNetwork,TDNN)建立一個(gè)額外的延時(shí)單元,用來存儲(chǔ)網(wǎng)絡(luò)的歷史信息(可以包括輸入、輸出、隱狀態(tài)等)這樣,前饋網(wǎng)絡(luò)就具有了短期記憶的能力。如何給網(wǎng)絡(luò)增加記憶能力?/publication/12314435_Neural_system_identification_model_of_human_sound_localization如何給網(wǎng)絡(luò)增加記憶能力?

非線性自回歸模型/publication/234052442_Braking_torque_control_using_reccurent_neural_networks循環(huán)神經(jīng)網(wǎng)絡(luò)(RecurrentNeuralNetwork,RNN)循環(huán)神經(jīng)網(wǎng)絡(luò)通過使用帶自反饋的神經(jīng)元,能夠處理任意長度的時(shí)序數(shù)據(jù)。循環(huán)神經(jīng)網(wǎng)絡(luò)比前饋神經(jīng)網(wǎng)絡(luò)更加符合生物神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)。循環(huán)神經(jīng)網(wǎng)絡(luò)已經(jīng)被廣泛應(yīng)用在語音識(shí)別、語言模型以及自然語言生成等任務(wù)上活性值狀態(tài)按時(shí)間展開簡單循環(huán)網(wǎng)絡(luò)(SimpleRecurrentNetwork,SRN)狀態(tài)更新:一個(gè)完全連接的循環(huán)網(wǎng)絡(luò)是任何非線性動(dòng)力系統(tǒng)的近似器。圖靈完備圖靈完備(TuringCompleteness)是指一種數(shù)據(jù)操作規(guī)則,比如一種計(jì)算機(jī)編程語言,可以實(shí)現(xiàn)圖靈機(jī)的所有功能,解決所有的可計(jì)算問題。一個(gè)完全連接的循環(huán)神經(jīng)網(wǎng)絡(luò)可以近似解決所有的可計(jì)算問題。循環(huán)神經(jīng)網(wǎng)絡(luò)作用輸入-輸出映射機(jī)器學(xué)習(xí)模型(本節(jié)主要關(guān)注這種情況)存儲(chǔ)器聯(lián)想記憶模型應(yīng)用到機(jī)器學(xué)習(xí)應(yīng)用到機(jī)器學(xué)習(xí)序列到類別同步的序列到序列模式異步的序列到序列模式應(yīng)用到機(jī)器學(xué)習(xí)序列到類別序列到類別情感分類…我覺太得好了正面中性負(fù)面帶著愉悅的心情看了這部電影這部電影太糟了這部電影很棒Positive(正面)Negative(負(fù)面)Positive(正面)…應(yīng)用到機(jī)器學(xué)習(xí)同步的序列到序列模式同步的序列到序列模式中文分詞他說實(shí)的在理確SSESBEB同步的序列到序列模式信息抽取(InformationExtraction,IE)從無結(jié)構(gòu)的文本中抽取結(jié)構(gòu)化的信息,形成知識(shí)小米創(chuàng)始人雷軍表示,該公司2015年?duì)I收達(dá)到780億元人民幣,較2014年的743億元人民幣增長了5%。同步的序列到序列模式ConnectionistTemporalClassification

(CTC)[AlexGraves,ICML’06][AlexGraves,ICML’14][Ha?imSak,Interspeech’15][JieLi,Interspeech’15][AndrewSenior,ASRU’15]好φφ棒φφφφ好φφ棒φ棒φφ“好棒”“好棒棒”語音識(shí)別應(yīng)用到機(jī)器學(xué)習(xí)異步的序列到序列模式learning異步的序列到序列模式機(jī)器翻譯machine機(jī)習(xí)器學(xué)。參數(shù)學(xué)習(xí)機(jī)器學(xué)習(xí)給定一個(gè)訓(xùn)練樣本(x,y),其中x=(x1,…,xT)為長度是T的輸入序列,y=(y1,…,yT)是長度為T的標(biāo)簽序列。時(shí)刻t的瞬時(shí)損失函數(shù)為總損失函數(shù)梯度隨時(shí)間反向傳播算法

δt,k為第t時(shí)刻的損失對第k步隱藏神經(jīng)元的凈輸入zk的導(dǎo)數(shù)梯度消失/爆炸梯度其中由于梯度爆炸或消失問題,實(shí)際上只能學(xué)習(xí)到短周期的依賴關(guān)系。這就是所謂的長程依賴問題。

長程依賴問題循環(huán)神經(jīng)網(wǎng)絡(luò)在時(shí)間維度上非常深!梯度消失或梯度爆炸如何改進(jìn)?梯度爆炸問題權(quán)重衰減梯度截?cái)嗵荻认栴}改進(jìn)模型長程依賴問題改進(jìn)方法循環(huán)邊改為線性依賴關(guān)系增加非線性殘差網(wǎng)絡(luò)?長短期記憶神經(jīng)網(wǎng)絡(luò)(LongShort-TermMemory,LSTM)LSTM的各種變體沒有遺忘門耦合輸入門和遺忘門peephole連接GatedRecurrentUnit,GRU更新門重置門深層模型堆疊循環(huán)神經(jīng)網(wǎng)絡(luò)雙向循環(huán)神經(jīng)網(wǎng)絡(luò)擴(kuò)展到圖結(jié)構(gòu)擴(kuò)展到圖結(jié)構(gòu)序列循環(huán)神經(jīng)網(wǎng)絡(luò)樹遞歸神經(jīng)網(wǎng)絡(luò)圖圖網(wǎng)絡(luò)樹結(jié)構(gòu)程序語言的句法結(jié)構(gòu)樹結(jié)構(gòu)自然語言的句法結(jié)構(gòu)遞歸神經(jīng)網(wǎng)絡(luò)

RecursiveNeuralNetwork遞歸神經(jīng)網(wǎng)絡(luò)實(shí)在一個(gè)有向圖無循環(huán)圖上共享一個(gè)組合函數(shù)遞歸神經(jīng)網(wǎng)絡(luò)退化為循環(huán)神經(jīng)網(wǎng)絡(luò)遞歸神經(jīng)網(wǎng)絡(luò)給定一個(gè)語法樹,p2

→ap1,p1

→bc.圖網(wǎng)絡(luò)在實(shí)際應(yīng)用中,很多數(shù)據(jù)是圖結(jié)構(gòu)的,比如知識(shí)圖譜、社交網(wǎng)絡(luò)、分子網(wǎng)絡(luò)等。而前饋網(wǎng)絡(luò)和循環(huán)網(wǎng)絡(luò)很難處理圖結(jié)構(gòu)的數(shù)據(jù)。圖數(shù)據(jù)/pdf/1806.01261.pdf圖網(wǎng)絡(luò)/pdf/1806.01261.pdf圖網(wǎng)絡(luò)/pdf/1806.01261.pdf圖網(wǎng)絡(luò)對于一個(gè)任意的圖結(jié)構(gòu)G(V,E)更新函數(shù)讀出函數(shù)循環(huán)網(wǎng)絡(luò)應(yīng)用語言模型

N元語言模型語言模型生成LINUX內(nèi)核代碼作詞機(jī)RNN在“學(xué)習(xí)”過汪峰全部作品后自動(dòng)生成的歌詞/phunterlau/wangfeng-rnn我在這里中的夜里就像一場是一種生命的意旪就像我的生活變得在我一樣可我們這是一個(gè)知道我只是一天你會(huì)怎嗎可我們這是我們的是不要為你我們想這有一種生活的時(shí)候作詩傳統(tǒng)統(tǒng)計(jì)機(jī)器翻譯

基于序列到序列的機(jī)器翻譯一個(gè)RNN用來編碼另一個(gè)RNN用來解碼看圖說話看圖說話

DemoWebsiteVQA:Givenanimageandanaturallanguagequestionabouttheimage,thetaskistoprovideanaccuratenaturallanguageanswerVisualQuestionAnswering(VQA)Picturefrom(Antoletal.,2015)寫字把一個(gè)字母的書寫軌跡看作是一連串的點(diǎn)。一個(gè)字母的“寫法”其實(shí)是每一個(gè)點(diǎn)相對于前一個(gè)點(diǎn)的偏移量,記為(offsetx,offsety)。再增加一維取

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論