深度學(xué)習(xí):從基礎(chǔ)到實(shí)踐(上、下冊)_第1頁
深度學(xué)習(xí):從基礎(chǔ)到實(shí)踐(上、下冊)_第2頁
深度學(xué)習(xí):從基礎(chǔ)到實(shí)踐(上、下冊)_第3頁
深度學(xué)習(xí):從基礎(chǔ)到實(shí)踐(上、下冊)_第4頁
深度學(xué)習(xí):從基礎(chǔ)到實(shí)踐(上、下冊)_第5頁
已閱讀5頁,還剩70頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

深度學(xué)習(xí):從基礎(chǔ)到實(shí)踐(上、下冊)讀書筆記模板01思維導(dǎo)圖讀書筆記作者介紹內(nèi)容摘要目錄分析精彩摘錄目錄0305020406思維導(dǎo)圖深度基礎(chǔ)深度內(nèi)容上下冊數(shù)據(jù)讀者網(wǎng)絡(luò)參考資料第章數(shù)據(jù)函數(shù)應(yīng)用貝葉斯網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)深度卷積算法關(guān)鍵字分析思維導(dǎo)圖內(nèi)容摘要內(nèi)容摘要本書從基本概念和理論入手,通過近千張圖和簡單的例子由淺入深地講解深度學(xué)習(xí)的相關(guān)知識,且不涉及復(fù)雜的數(shù)學(xué)內(nèi)容。本書分為上下兩冊。上冊著重介紹深度學(xué)習(xí)的基礎(chǔ)知識,旨在幫助讀者建立扎實(shí)的知識儲備,主要介紹隨機(jī)性與基礎(chǔ)統(tǒng)計(jì)學(xué)、訓(xùn)練與測試、過擬合與欠擬合、神經(jīng)元、學(xué)習(xí)與推理、數(shù)據(jù)準(zhǔn)備、分類器、集成算法、前饋網(wǎng)絡(luò)、激活函數(shù)、反向傳播等內(nèi)容。下冊介紹機(jī)器學(xué)習(xí)的scikit-learn庫和深度學(xué)習(xí)的Keras庫(這兩種庫均基于Python語言),以及卷積神經(jīng)網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絡(luò)、自編碼器、強(qiáng)化學(xué)習(xí)、生成對抗網(wǎng)絡(luò)等內(nèi)容,還介紹了一些創(chuàng)造性應(yīng)用,并給出了一些典型的數(shù)據(jù)集,以幫助讀者更好地了解學(xué)習(xí)。本書適合想要了解和使用深度學(xué)習(xí)的人閱讀,也可作為深度學(xué)習(xí)教學(xué)培訓(xùn)領(lǐng)域的入門級參考用書。讀書筆記讀書筆記這本書無論是機(jī)器學(xué)習(xí)還是深度學(xué)習(xí),基礎(chǔ)講得非常透,實(shí)踐部分也講得很好,如要說不足,那就是代碼方面偏少了點(diǎn)。相比其他書來說,特別深入淺出,用更淺顯的實(shí)例講解,沒有復(fù)雜的公示。這是一本沒有任何數(shù)學(xué)公式,卻把AI講清楚的入門書。目錄分析本書內(nèi)容為什么寫這本書本書幾乎不涉及數(shù)學(xué)問題本書分上下兩冊內(nèi)容提要參考資料致謝內(nèi)容提要1.1為什么這一章出現(xiàn)在這里1.2從標(biāo)記數(shù)據(jù)中學(xué)習(xí)1.3監(jiān)督學(xué)習(xí)1.4無監(jiān)督學(xué)習(xí)第1章機(jī)器學(xué)習(xí)與深度學(xué)習(xí)入門1.5生成器1.6強(qiáng)化學(xué)習(xí)1.7深度學(xué)習(xí)1.8接下來會講什么參考資料12345第1章機(jī)器學(xué)習(xí)與深度學(xué)習(xí)入門2.1為什么這一章出現(xiàn)在這里2.2隨機(jī)變量2.3一些常見的分布2.4獨(dú)立性2.5抽樣與放回12345第2章隨機(jī)性與基礎(chǔ)統(tǒng)計(jì)學(xué)2.6Bootstrapping算法2.7高維空間2.8協(xié)方差和相關(guān)性2.9Anscombe四重奏參考資料12345第2章隨機(jī)性與基礎(chǔ)統(tǒng)計(jì)學(xué)3.1為什么這一章出現(xiàn)在這里3.2飛鏢游戲3.3初級概率學(xué)3.4條件概率3.5聯(lián)合概率12345第3章概率3.6邊際概率3.7測量的正確性3.8混淆矩陣的應(yīng)用參考資料第3章概率4.1為什么這一章出現(xiàn)在這里4.2頻率論者法則以及貝葉斯法則4.3拋硬幣4.4這枚硬幣公平嗎第4章貝葉斯定理4.5生活中的貝葉斯定理4.6重復(fù)貝葉斯定理4.7多個假設(shè)參考資料第4章貝葉斯定理5.1為什么這一章出現(xiàn)在這里5.3導(dǎo)數(shù)5.2引言第5章曲線和曲面參考資料5.4梯度第5章曲線和曲面6.1為什么這一章出現(xiàn)在這里6.3用比特作為單位6.2意外程度與語境第6章信息論6.4衡量信息6.5事件的大小6.6自適應(yīng)編碼6.7熵6.8交叉熵12345第6章信息論參考資料6.9KL散度第6章信息論7.1為什么這一章出現(xiàn)在這里7.2二維分類7.3二維多分類7.4多維二元分類7.5聚類12345第7章分類參考資料7.6維度災(zāi)難第7章分類8.1為什么這一章出現(xiàn)在這里8.2訓(xùn)練8.3測試數(shù)據(jù)8.4驗(yàn)證數(shù)據(jù)8.5交叉驗(yàn)證12345第8章訓(xùn)練與測試參考資料8.6對測試結(jié)果的利用第8章訓(xùn)練與測試9.1為什么這一章出現(xiàn)在這里9.2過擬合與欠擬合9.3過擬合數(shù)據(jù)9.4及早停止9.5正則化12345第9章過擬合與欠擬合9.6偏差與方差參考資料9.7用貝葉斯法則進(jìn)行線擬合第9章過擬合與欠擬合10.1為什么這一章出現(xiàn)在這里10.2真實(shí)神經(jīng)元10.3人工神經(jīng)元10.4小結(jié)參考資料12345第10章神經(jīng)元11.1為什么這一章出現(xiàn)在這里11.2學(xué)習(xí)的步驟11.3演繹和歸納11.4演繹第11章學(xué)習(xí)與推理11.5歸納11.6組合推理11.7操作條件參考資料第11章學(xué)習(xí)與推理12.1為什么這一章出現(xiàn)在這里12.2數(shù)據(jù)變換12.3數(shù)據(jù)類型12.4數(shù)據(jù)清理基礎(chǔ)12.5歸一化和標(biāo)準(zhǔn)化12345第12章數(shù)據(jù)準(zhǔn)備12.6特征選擇12.7降維12.8轉(zhuǎn)換12.9切片處理12.10交叉驗(yàn)證轉(zhuǎn)換參考資料010302040506第12章數(shù)據(jù)準(zhǔn)備13.1為什么這一章出現(xiàn)在這里13.2分類器的種類13.3k近鄰法13.4支持向量機(jī)第13章分類器13.5決策樹13.6樸素貝葉斯13.7討論參考資料第13章分類器14.1為什么這一章出現(xiàn)在這里14.2集成方法14.3投票14.4套袋算法14.5隨機(jī)森林12345第14章集成算法14.6極端隨機(jī)樹參考資料14.7增強(qiáng)算法第14章集成算法15.1為什么這一章出現(xiàn)在這里15.2介紹15.3Python約定15.4估算器第15章scikit-learn15.5聚類15.6變換15.7數(shù)據(jù)精化15.8集成器第15章scikit-learn15.9自動化15.10數(shù)據(jù)集15.11實(shí)用工具15.12結(jié)束語參考資料12345第15章scikit-learn16.1為什么這一章出現(xiàn)在這里16.3同步與異步流16.2神經(jīng)網(wǎng)絡(luò)圖第16章前饋網(wǎng)絡(luò)參考資料16.4權(quán)重初始化第16章前饋網(wǎng)絡(luò)17.1為什么這一章出現(xiàn)在這里17.2激活函數(shù)可以做什么17.3基本的激活函數(shù)17.4階躍函數(shù)第17章激活函數(shù)17.5分段線性函數(shù)17.6光滑函數(shù)17.7激活函數(shù)畫廊17.8歸一化指數(shù)函數(shù)參考資料12345第17章激活函數(shù)18.1為什么這一章出現(xiàn)在這里18.2一種非常慢的學(xué)習(xí)方式18.3現(xiàn)在沒有激活函數(shù)18.4神經(jīng)元輸出和網(wǎng)絡(luò)誤差18.5微小的神經(jīng)網(wǎng)絡(luò)18.6第1步:輸出神經(jīng)元的delta010302040506第18章反向傳播18.7第2步:使用delta改變權(quán)重18.8第3步:其他神經(jīng)元的delta18.9實(shí)際應(yīng)用中的反向傳播18.10使用激活函數(shù)第18章反向傳播18.11學(xué)習(xí)率參考資料18.12討論第18章反向傳播19.1為什么這一章出現(xiàn)在這里19.2幾何誤差19.3調(diào)整學(xué)習(xí)率19.4更新策略第19章優(yōu)化器19.5梯度下降變體參考資料19.6優(yōu)化器選擇第19章優(yōu)化器20.1為什么這一章出現(xiàn)在這里20.2深度學(xué)習(xí)概述20.3輸入層和輸出層20.4深度學(xué)習(xí)層縱覽第20章深度學(xué)習(xí)20.5層和圖形符號總結(jié)20.6一些例子20.7構(gòu)建一個深度學(xué)習(xí)器20.8解釋結(jié)果參考資料12345第20章深度學(xué)習(xí)21.1為什么這一章出現(xiàn)在這里21.2介紹21.3卷積21.4高維卷積21.5一維卷積12345第21章卷積神經(jīng)網(wǎng)絡(luò)21.61×1卷積21.7卷積層21.8轉(zhuǎn)置卷積21.9卷積網(wǎng)絡(luò)樣例21.10對手參考資料010302040506第21章卷積神經(jīng)網(wǎng)絡(luò)22.1為什么這一章出現(xiàn)在這里22.2引言22.3狀態(tài)22.4RNN單元的結(jié)構(gòu)第22章循環(huán)神經(jīng)網(wǎng)絡(luò)22.5組織輸入22.6訓(xùn)練RNN22.7LSTM和GRU22.8RNN的結(jié)構(gòu)22.9一個例子參考資料010302040506第22章循環(huán)神經(jīng)網(wǎng)絡(luò)23.1為什么這一章出現(xiàn)在這里23.2庫和調(diào)試23.3概述23.4準(zhǔn)備開始23.5準(zhǔn)備數(shù)據(jù)12345第23章Keras第1部分23.6制作模型23.7訓(xùn)練模型23.8訓(xùn)練和使用模型23.9保存和加載23.10回調(diào)函數(shù)參考資料010302040506第23章Keras第1部分24.1為什么這一章出現(xiàn)在這里24.2改進(jìn)模型24.3使用scikit-learn24.4卷積網(wǎng)絡(luò)第24章Keras第2部分24.5RNN參考資料24.6函數(shù)式API第24章Keras第2部分25.1為什么這一章出現(xiàn)在這里25.2引言25.3最簡單的自編碼器25.4更好的自編碼器25.5探索自編碼器12345第25章自編碼器25.6討論25.7卷積自編碼器25.8降噪25.9VAE25.10探索VAE參考資料010302040506第25章自編碼器26.1為什么這一章出現(xiàn)在這里26.2目標(biāo)26.3強(qiáng)化學(xué)習(xí)的結(jié)構(gòu)26.4翻轉(zhuǎn)26.5L學(xué)習(xí)12345第26章強(qiáng)化學(xué)習(xí)26.6Q學(xué)習(xí)26.7SARSA26.8強(qiáng)化學(xué)習(xí)的全貌26.9經(jīng)驗(yàn)回放26.10兩個應(yīng)用參考資料010302040506第26章強(qiáng)化學(xué)習(xí)27.1為什么這一章出現(xiàn)在這里27.2一個比喻:偽造鈔票27.3為什么要用“對抗”27.4GAN的實(shí)現(xiàn)27.5實(shí)際操作中的GAN27.6DCGAN010302040506第27章生成對抗網(wǎng)絡(luò)參考資料27.7挑戰(zhàn)第27章生成對抗網(wǎng)絡(luò)28.1為什么這一章出現(xiàn)在這里28.2可視化過濾器28.3deepdreaming28.4神經(jīng)風(fēng)

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論