《深度學習進階 自然語言處理》讀書筆記PPT模板思維導圖下載_第1頁
《深度學習進階 自然語言處理》讀書筆記PPT模板思維導圖下載_第2頁
《深度學習進階 自然語言處理》讀書筆記PPT模板思維導圖下載_第3頁
《深度學習進階 自然語言處理》讀書筆記PPT模板思維導圖下載_第4頁
《深度學習進階 自然語言處理》讀書筆記PPT模板思維導圖下載_第5頁
已閱讀5頁,還剩29頁未讀 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

PPT書籍導讀最新版本讀書筆記模板《深度學習進階自然語言處理》最新版讀書筆記,下載可以直接修改01OReillyMedia,Inc....第1章神經(jīng)網(wǎng)絡的復習第3章word2vec譯者序第2章自然語言和單詞的分布式表示第4章word2vec的高速化目錄030502040607第5章RNN第7章基于RNN生成文本附錄Asigmoid函數(shù)和tanh函數(shù)...第6章GatedRNN第8章Attention附錄B運行WordNet目錄0901108010012013附錄CGRU致謝文獻后記參考文獻目錄015017014016內容摘要《深度學習進階:自然語言處理》是《深度學習入門:基于Python的理論與實現(xiàn)》的續(xù)作,圍繞自然語言處理和時序數(shù)據(jù)處理,介紹深度學習中的重要技術,包括word2vec、RNN、LSTM、GRU、seq2seq和Attention等。本書語言平實,結合大量示意圖和Python代碼,按照“提出問題”“思考解決問題的新方法”“加以改善”的流程,基于深度學習解決自然語言處理相關的各種問題,使讀者在此過程中更深入地理解深度學習中的重要技術。OReillyMedia,Inc....某個單詞的含義由它周圍的單詞形成”,稱為分布式假設(distributionalhypothesis)將向量和矩陣擴展到N維的數(shù)據(jù)集合,就是張量。譯者序全連接層的變換是線性變換。第1章神經(jīng)網(wǎng)絡的復習激活函數(shù)賦予它“非線性”的效果。1.1數(shù)學和Python的復習1.2神經(jīng)網(wǎng)絡的推理1.3神經(jīng)網(wǎng)絡的學習1.4使用神經(jīng)網(wǎng)絡解決問題1.5計算的高速化1.6小結010302040506第1章神經(jīng)網(wǎng)絡的復習第2章自然語言和單詞的分布式表示嚴格地講,使用非線性的激活函數(shù),可以增強神經(jīng)網(wǎng)絡的表現(xiàn)力。2.1什么是自然語言處理2.2同義詞詞典2.3基于計數(shù)的方法2.4基于計數(shù)的方法的改進2.5小結12345第2章自然語言和單詞的分布式表示第3章word2vec向量內積直觀地表示了“兩個向量在多大程度上指向同一方向”進行多類別分類的神經(jīng)網(wǎng)絡通常使用交叉熵誤差(crossentropyerror)作為損失函數(shù)。3.1基于推理的方法和神經(jīng)網(wǎng)絡3.2簡單的word2vec3.3學習數(shù)據(jù)的準備3.4CBOW模型的實現(xiàn)3.5word2vec的補充說明3.6小結010302040506第3章word2vec第4章word2vec的高速化CBOW模型和skip-gram模型是word2vec中使用的兩個神經(jīng)網(wǎng)絡當np.dot(x,y)的參數(shù)都是一維數(shù)組時,計算向量內積。4.1word2vec的改進①4.2word2vec的改進②4.3改進版word2vec的學習4.4wor2vec相關的其他話題4.5小結12345第4章word2vec的高速化第5章RNN當參數(shù)都是二維數(shù)組時,計算矩陣乘積。5.1概率和語言模型5.2RNN5.3RNN的實現(xiàn)5.4處理時序數(shù)據(jù)的層的實現(xiàn)5.5RNNLM的學習和評價5.6小結010302040506第5章RNN第6章GatedRNN單詞本身沒有含義,單詞含義由它所在的上下文(語境)形成我們將關注能準確把握單詞含義的向量表示。6.1RNN的問題6.2梯度消失和LSTM6.3LSTM的實現(xiàn)6.4使用LSTM的語言模型6.5進一步改進RNNLM6.6小結010302040506第6章GatedRNN第7章基于RNN生成文本在自然語言處理領域,這稱為分布式表示。7.1使用語言模型生成文本7.2seq2seq模型7.3seq2seq的實現(xiàn)7.4seq2seq的改進7.5seq2seq的應用7.6小結010302040506第7章基于RNN生成文本第8章Attention這個表格的各行對應相應單詞的向量。8.1Attention的結構8.2帶Attention的seq2s...8.3Attention的評價8.4關于Attention的其他話題8.5Attention的應用8.6小結010302040506第8章Attention附錄Asigmoid函數(shù)和tanh函數(shù)...因為圖2-7的表格呈矩陣狀,所以稱為共現(xiàn)矩陣(co-occurencematrix)。A.1sigmoid函數(shù)A.3小結A.2tanh函數(shù)附錄Asigmoid函數(shù)和tanh函數(shù)...附錄B運行WordNet略有不足的地方是后兩章質量略有下降,有些地方一筆帶過解釋得不夠清晰,比如attention中的權重a為什么可以由單詞向量hs和狀態(tài)向量h點積求得,也許作者覺得讀者讀到這里應該掌握了自行求解的能力。B.1NLTK的安裝B.2使用WordNet獲得同義詞B.3WordNet和單詞網(wǎng)絡B.4基于WordNet的語義相似度附錄B運行WordNet附錄CGRU側重原理:不依賴外部庫,使用Python3從零開始創(chuàng)建深度學習程序,通過親自創(chuàng)建程序并運行,讀者可透徹掌握word2vec、RNN、LSTM、GRU、seq2seq和Attention等技術背后的運行原理。C.2GRU的計算圖C.1GRU的接口附錄CGRU后記不過只能給你一個overallpicture。致謝這一個月對我有很大幫助的一本書(很切實的幫助,指完成人工智能導論課的lab)。

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論