機(jī)器學(xué)習(xí)-深度學(xué)習(xí)_第1頁(yè)
機(jī)器學(xué)習(xí)-深度學(xué)習(xí)_第2頁(yè)
機(jī)器學(xué)習(xí)-深度學(xué)習(xí)_第3頁(yè)
機(jī)器學(xué)習(xí)-深度學(xué)習(xí)_第4頁(yè)
機(jī)器學(xué)習(xí)-深度學(xué)習(xí)_第5頁(yè)
已閱讀5頁(yè),還剩41頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

機(jī)器學(xué)第一一章深度學(xué)章節(jié)介紹深度學(xué)是一種利用復(fù)雜結(jié)構(gòu)地多個(gè)處理層來(lái)實(shí)現(xiàn)對(duì)數(shù)據(jù)行高層次抽象地算法,是機(jī)器學(xué)地一個(gè)重要分支。傳統(tǒng)地BP算法僅有幾層網(wǎng)絡(luò),需要手工指定特征且易出現(xiàn)局部最優(yōu)問(wèn)題,而深度學(xué)引入了概率生成模型,可自動(dòng)地從訓(xùn)練集提取特征,解決了手工特征考慮不周地問(wèn)題,而且初始化了神經(jīng)網(wǎng)絡(luò)權(quán)重,采用反向傳播算法行訓(xùn)練,與BP算法相比取得了很好地效果。本章主要介紹了深度學(xué)有關(guān)地概念與主流框架,重點(diǎn)介紹卷積神經(jīng)網(wǎng)絡(luò)與循環(huán)神經(jīng)網(wǎng)絡(luò)地結(jié)構(gòu)以及常見(jiàn)應(yīng)用。章節(jié)結(jié)構(gòu)卷積神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)地結(jié)構(gòu)常見(jiàn)卷積神經(jīng)網(wǎng)絡(luò)循環(huán)神經(jīng)網(wǎng)絡(luò)RNN基本原理長(zhǎng)短期記憶網(wǎng)絡(luò)門(mén)限循環(huán)單元深度學(xué)流行框架卷積神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)是工神經(jīng)網(wǎng)絡(luò)地一種,由對(duì)貓地視覺(jué)皮層地研究發(fā)展而來(lái),視覺(jué)皮層細(xì)胞對(duì)視覺(jué)子空間更敏感,通過(guò)子空間地鋪掃描實(shí)現(xiàn)對(duì)整個(gè)視覺(jué)空間地感知。卷積神經(jīng)網(wǎng)絡(luò)目前是深度學(xué)領(lǐng)域地?zé)狳c(diǎn),尤其是圖像識(shí)別與模式分類(lèi)方面,優(yōu)勢(shì)在于具有享權(quán)值地網(wǎng)絡(luò)結(jié)構(gòu)與局部感知(也稱(chēng)為稀疏連接)地特點(diǎn),能夠降低神經(jīng)網(wǎng)絡(luò)地運(yùn)算復(fù)雜度,因?yàn)闇p少了權(quán)值地?cái)?shù)量,并可以直接將圖像作為輸入行特征提取,避免了對(duì)圖像地預(yù)處理與顯示地特征提取。議程卷積神經(jīng)網(wǎng)絡(luò)地結(jié)構(gòu)卷積神經(jīng)網(wǎng)絡(luò)是一種稀疏地網(wǎng)絡(luò)結(jié)構(gòu),理解其不同結(jié)構(gòu)地作用與原理有助于設(shè)計(jì)符合實(shí)際地深層網(wǎng)絡(luò)結(jié)構(gòu)。卷積層與子采樣層是特征提取功能地核心模塊,卷積神經(jīng)網(wǎng)絡(luò)地低層由卷積層與子采樣層替組成,在保持特征不變地情況下減少維度空間與計(jì)算時(shí)間,更高層次是全連接層,輸入是由卷積層與子采樣層提取到地特征,最后一層是輸出層,可以是一個(gè)分類(lèi)器,采用邏輯回歸,Softmax回歸,支持向量機(jī)等行模式分類(lèi),也可以直接輸出某一結(jié)果。議程卷積層通過(guò)卷積層地運(yùn)算,可以將輸入信號(hào)在某一特征上加強(qiáng),從而實(shí)現(xiàn)特征地提取,也可以排除干擾因素,從而降低特征地噪聲。議程激活函數(shù)常見(jiàn)地卷積網(wǎng)絡(luò)地激活函數(shù)有Sigmoid,Tanh,ReLU函數(shù)。引入ReLU層地主要目地是解決線(xiàn)函數(shù)表達(dá)能力不夠地問(wèn)題,線(xiàn)整流層作為神經(jīng)網(wǎng)絡(luò)地激活函數(shù)可以在不改變卷積層地情況下增強(qiáng)整個(gè)網(wǎng)絡(luò)地非線(xiàn)特,不改變模型地泛化能力地同時(shí)提升訓(xùn)練速度。線(xiàn)整流層地函數(shù)有以下幾種形式:

議程權(quán)重初始化用小地隨機(jī)數(shù)據(jù)來(lái)初始化權(quán)重,以打破不同單元間地對(duì)稱(chēng)。當(dāng)使用Sigmoid激勵(lì)函數(shù)時(shí),如果權(quán)重初始化較大或較小時(shí),訓(xùn)練過(guò)程容易出現(xiàn)梯度飽與與梯度消失地問(wèn)題,可以采用Xavier初始化來(lái)解。這里Xavier初始化是在線(xiàn)函數(shù)上推導(dǎo)得來(lái)地,它能夠保持輸出在很多層之后依然有良好地分布,在tanh激活函數(shù)上表現(xiàn)較好。此外,可以應(yīng)用BatchNormalizationLayer來(lái)初始化權(quán)重,其思想就是在線(xiàn)變化與非線(xiàn)激活函數(shù)之間,將數(shù)值做一次高斯歸一化與線(xiàn)變化。內(nèi)存管理是在字節(jié)級(jí)別上行地,所以把參數(shù)值設(shè)為二地冪比較合適。議程池化層池化層是一種向下采樣地形式,在神經(jīng)網(wǎng)絡(luò)也稱(chēng)之為子采樣層。一般使用最大池化將特征區(qū)域地最大值作為新地抽象區(qū)域地值,減少數(shù)據(jù)地空間大小。參數(shù)數(shù)量與運(yùn)算量也會(huì)減少,減少全連接地?cái)?shù)量與復(fù)雜度,一定程度上可以避免過(guò)擬合。池化地結(jié)果是特征減少,參數(shù)減少。池化常用地操作有三種:均池化,最大化池化以及隨機(jī)池化三種。議程均池化均池化對(duì)特征點(diǎn)只求均,能夠減少鄰域大小受限造成地估計(jì)值方差增大地誤差。更多地保留圖像地背景信息,均池化地過(guò)程如下圖所示。議程最大化池化最大化池化對(duì)特征點(diǎn)取最大值,能夠減小卷積層參數(shù)誤差造成估計(jì)均值地偏移地誤差,更多地保留圖像地紋理信息,最大化池化地過(guò)程如下圖所示。議程隨機(jī)池化隨機(jī)池化介于均池化與最大化池化之間,通過(guò)對(duì)像素點(diǎn)按照數(shù)值大小賦予概率,再按照概率行采樣。在均意義上與均池化近似,在局部意義上則服從最大化池化地準(zhǔn)則。議程全局均池化全局均池化是將某一通道地所有特征求與后取均值,形成一個(gè)新地特征值,可用于替代最后地全連接層,用全局均池化層(將圖片尺寸變?yōu)橐籜一)來(lái)取代之??梢员苊饩W(wǎng)絡(luò)層數(shù)較深時(shí)引起地過(guò)擬合問(wèn)題。過(guò)程如下圖所示。議程空間金字塔池化空間金字塔池化可以把任何尺度地圖像地卷積特征轉(zhuǎn)化成相同維度,這不僅可以讓N處理任意尺度地圖像,還能避免圖片裁剪與變形操作,導(dǎo)致信息丟失,具有非常重要地意義。一般地N都要求輸入圖像地大小是固定地,這是因?yàn)槿B接層地輸入需要固定輸入維度,但卷積操作沒(méi)有對(duì)圖像尺寸行限制,所有空間金字塔池化對(duì)圖像行卷積,然后轉(zhuǎn)化成維度相同地特征輸入到全連接層,這樣就可以把N擴(kuò)展到任意大小地圖像,使N模型更加靈活。議程全連接層卷積層得到地每張?zhí)卣鲌D表示輸入信號(hào)地一種特征,而它地層數(shù)越高表示這一特征越抽象,為了綜合低層地每個(gè)卷積層特征,用全連接層將這些特征結(jié)合到一起,然后用Softmax行分類(lèi)或邏輯回歸分析。議程輸出層輸出層地另一項(xiàng)任務(wù)是行反向傳播,依次向后行梯度傳遞,計(jì)算相應(yīng)地?fù)p失函數(shù),并重新更新權(quán)重值。在訓(xùn)練過(guò)程可以采用Dropout來(lái)避免訓(xùn)練過(guò)程產(chǎn)生過(guò)擬合。輸出層地結(jié)構(gòu)與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)相似,是基于上一全連接層地結(jié)果行類(lèi)別判別。議程常見(jiàn)卷積神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)發(fā)展至今,有大量N網(wǎng)絡(luò)結(jié)構(gòu)被公開(kāi),如:LeAlexGoogleVGGDeepResidualLearning議程LeLe是較早出現(xiàn)地卷積神經(jīng)網(wǎng)絡(luò),其網(wǎng)絡(luò)結(jié)構(gòu)如下圖所示。議程LeLe輸入圖像大小為三二X三二,C一,C三,C五是卷積層,卷積核在二維面上移,并且卷積核地不斷移動(dòng)提取出新地圖像,這個(gè)圖像完全由卷積核在各個(gè)位置時(shí)地乘積求與地結(jié)果組成。池化層有兩個(gè),分別是S二與S四,池化過(guò)程一方面可以降低模型地過(guò)擬合程度,因?yàn)闇p弱了某些不顯著地噪聲特征,另一方面可以強(qiáng)化圖像地顯著特征。S二層是六個(gè)一四X一四地特征映射,其每一個(gè)單元與前一層地二X二領(lǐng)域相連接。全連接層地結(jié)構(gòu)與傳統(tǒng)多層感知器相似,有八四個(gè)神經(jīng)元,這些神經(jīng)元與C五層全連接。輸出是一零個(gè)類(lèi)別,每個(gè)類(lèi)別一個(gè)神經(jīng)元,表示數(shù)字其屬于零-九地概率,每類(lèi)一個(gè)歐式徑向基函數(shù)單元組成,有八四個(gè)輸入,輸出單元計(jì)算輸入向量與參數(shù)向量之間地歐式距離,距離越遠(yuǎn)RBF輸出越大,損失函數(shù)結(jié)果越大。議程AlexAlex是最早地現(xiàn)代神經(jīng)網(wǎng)絡(luò),Alex證明了N在復(fù)雜模型下地有效,使用GPU使得訓(xùn)練在可接受地時(shí)間范圍內(nèi)得到結(jié)果,推動(dòng)了有監(jiān)督深度學(xué)地發(fā)展。下圖是Alex網(wǎng)絡(luò)結(jié)構(gòu)圖。議程AlexAlex有八個(gè)帶權(quán)層,前五個(gè)是卷積層,剩下三層是全連接層。第一個(gè)卷積層利用九六個(gè)大小為一一X一一X三,步長(zhǎng)為四個(gè)像素地核,對(duì)大小為二二四X二二四X三地輸入圖像行卷積。第二個(gè)卷積層接收第一個(gè)卷積層輸出為輸入,用五X(qián)五X(qián)四八地核對(duì)其行濾波。第三,四,五個(gè)卷積層彼此相連,間沒(méi)有池化層。第二,四,五個(gè)卷積層地核只連接到前一個(gè)卷積層也位于同一GPU地那些核映射上。第三個(gè)卷積層地核被連接到第二個(gè)卷積層地所有核映射上。全連接層地神經(jīng)元被連接到前一層所有地神經(jīng)元上。響應(yīng)歸一化層跟在第一,第二個(gè)卷積層后面。最大化池化層跟在響應(yīng)歸一化層以及第五個(gè)卷積層之后。ReLU非線(xiàn)應(yīng)用于每個(gè)卷積層及全連接層地輸出。議程AlexAlex地優(yōu)勢(shì)在于:采用非線(xiàn)激活函數(shù)ReLU,比飽與函數(shù)訓(xùn)練更快,而且保留非線(xiàn)表達(dá)能力,可以訓(xùn)練更深層地網(wǎng)絡(luò)采用數(shù)據(jù)增強(qiáng)與Dropout防止過(guò)擬合,數(shù)據(jù)增強(qiáng)采用圖像移與翻轉(zhuǎn)來(lái)生成更多地訓(xùn)練圖像,Dropout降低了神經(jīng)元之間互適應(yīng)關(guān)系,被迫學(xué)更為魯棒地特征采用GPU實(shí)現(xiàn),采用并行化地GPU行訓(xùn)練,在每個(gè)GPU放置一半核,GPU間地通訊只在某些層行,采用叉驗(yàn)證,精確地調(diào)整通信量,直到它地計(jì)算量可接議程VGG網(wǎng)絡(luò)VGG是五個(gè)group地卷積,二層全連接層用于提取圖像特征,一層全連接層用于分類(lèi)特征。根據(jù)前五個(gè)卷積層組每個(gè)組地不同配置,卷積層數(shù)從八到一六遞增,網(wǎng)絡(luò)結(jié)構(gòu)如下圖所示。議程GoogleLeGoogleLe使用了一種名為Inception地結(jié)構(gòu),既保持網(wǎng)絡(luò)結(jié)構(gòu)地稀疏,又不降低模型地計(jì)算能。Inception結(jié)構(gòu)對(duì)前一層網(wǎng)絡(luò)地綜合采用不同大小地卷積核提取特征,并結(jié)合最大化池化行特征融合,如下圖所示。議程GoogleLeGoogleLe使用了一種網(wǎng)網(wǎng)地結(jié)構(gòu),即原來(lái)地結(jié)點(diǎn)也是一個(gè)網(wǎng)絡(luò)。用了Inception之后整個(gè)網(wǎng)絡(luò)結(jié)構(gòu)地寬度與深度都可擴(kuò)大,能夠帶來(lái)較大地能提升。主要思想是普通卷積層只做一次卷積得到一組特征映射。最后地全連接層被替換為一個(gè)全局均池化層,直接通過(guò)Softmax來(lái)計(jì)算loss。議程深度殘差網(wǎng)絡(luò)深度殘差網(wǎng)絡(luò)地出現(xiàn)使得更深地網(wǎng)絡(luò)能夠得到更好地訓(xùn)練。原理是第N層地網(wǎng)絡(luò)由N-一層地網(wǎng)絡(luò)經(jīng)過(guò)H變換得到,并在此基礎(chǔ)上直接連接到上一層地網(wǎng)絡(luò),使得梯度能夠得到更好地傳播。殘差網(wǎng)絡(luò)是用殘差來(lái)重構(gòu)網(wǎng)絡(luò)地映射,用于解決繼續(xù)增加層數(shù)后訓(xùn)練誤差變得更大地問(wèn)題,核心在于把輸入x再次引入到結(jié)果,將x經(jīng)過(guò)網(wǎng)絡(luò)映射為F(x)+x,那么網(wǎng)絡(luò)地映射F(x)自然就趨向于零,這樣堆疊層地權(quán)重趨向于零,學(xué)起來(lái)會(huì)更簡(jiǎn)單,能更加方便逼近身份映射。循環(huán)神經(jīng)網(wǎng)絡(luò)循環(huán)神經(jīng)網(wǎng)絡(luò)是一種對(duì)序列數(shù)據(jù)建模地神經(jīng)網(wǎng)絡(luò)。RNN不同于前向神經(jīng)網(wǎng)絡(luò),它地層內(nèi),層與層之間地信息可以雙向傳遞,更高效地存儲(chǔ)信息,利用更復(fù)雜地方法來(lái)更新規(guī)則,通常用于處理信息序列地任務(wù)。RNN在自然語(yǔ)言處理,圖像識(shí)別,語(yǔ)音識(shí)別,上下文地預(yù)測(cè),在線(xiàn)易預(yù)測(cè),實(shí)時(shí)翻譯等領(lǐng)域得到了大量地應(yīng)用。議程RNN基本原理RNN主要用來(lái)處理序列數(shù)據(jù),在傳統(tǒng)地神經(jīng)網(wǎng)絡(luò)模型,是從輸入層到隱含層再到輸出層,每層內(nèi)地節(jié)點(diǎn)之間無(wú)連接,循環(huán)神經(jīng)網(wǎng)絡(luò)一個(gè)當(dāng)前神經(jīng)元地輸出與前面地輸出也有關(guān),網(wǎng)絡(luò)會(huì)對(duì)前面地信息行記憶并應(yīng)用于當(dāng)前神經(jīng)元地計(jì)算,隱藏層之間地節(jié)點(diǎn)是有連接地,并且隱藏層地輸入不僅包含輸入層地輸出還包含上一時(shí)刻隱藏層地輸出。理論上,RNN可以對(duì)任意長(zhǎng)度地序列數(shù)據(jù)行處理。議程RNN基本原理一個(gè)典型地RNN網(wǎng)絡(luò)結(jié)構(gòu)如下圖所示。議程RNN基本原理RNN包含輸入單元,輸入集標(biāo)記為,而輸出單元地輸出集則被標(biāo)記為。RNN還包含隱藏單元,這些隱藏單元完成了主要工作。在某些情況下,RNN會(huì)引導(dǎo)信息從輸出單元返回隱藏單元,并且隱藏層內(nèi)地節(jié)點(diǎn)可以自連也可以互連。RNN地基本結(jié)構(gòu)可以用以下公式表示。其表示新地目地狀態(tài),而則是前一狀態(tài),是當(dāng)前輸入向量,是權(quán)重參數(shù)函數(shù),目地值地結(jié)果與當(dāng)前地輸入,上一狀態(tài)地結(jié)果有關(guān)系,以此可以求出各參數(shù)地權(quán)重值。議程RNN基本原理一個(gè)RNN可認(rèn)為是同一網(wǎng)絡(luò)地多次重復(fù)執(zhí)行,每一次執(zhí)行地結(jié)果是下一次執(zhí)行地輸入。循環(huán)神經(jīng)網(wǎng)絡(luò)展開(kāi)圖如右圖所示。其是輸入序列,是在時(shí)間步時(shí)隱藏狀態(tài),可以認(rèn)為是網(wǎng)絡(luò)地記憶,計(jì)算公式為,其為非線(xiàn)激活函數(shù)(如ReLU),為當(dāng)前輸入地權(quán)重矩陣,為上一狀態(tài)地輸入地權(quán)重矩陣,可以看到當(dāng)前狀態(tài)依賴(lài)于上一狀態(tài)。議程長(zhǎng)短期記憶網(wǎng)絡(luò)長(zhǎng)短期記憶網(wǎng)絡(luò)能夠?qū)W長(zhǎng)期依賴(lài)關(guān)系,并可保留誤差,在沿時(shí)間與層行反向傳遞時(shí),可以將誤差保持在更加恒定地水,讓遞歸網(wǎng)絡(luò)能夠行多個(gè)時(shí)間步地學(xué),從而建立遠(yuǎn)距離因果聯(lián)系。它在許多問(wèn)題上效果非常好,現(xiàn)在被廣泛應(yīng)用。議程長(zhǎng)短期記憶網(wǎng)絡(luò)長(zhǎng)短期記憶網(wǎng)絡(luò)將信息存放在遞歸網(wǎng)絡(luò)正常信息流之外地門(mén)控單元,這些單元可以存儲(chǔ),寫(xiě)入或讀取信息,就像計(jì)算機(jī)內(nèi)存地?cái)?shù)據(jù)一樣。但愿通過(guò)門(mén)地開(kāi)關(guān)判定存儲(chǔ)哪些信息,何時(shí)允許讀取,寫(xiě)入或清除信息。這些門(mén)是模擬地,包含輸出范圍全部在零~一之間地Sigmoid函數(shù)地逐元素相乘操作。這些門(mén)依據(jù)接收到地信號(hào)開(kāi)關(guān),而且會(huì)用自身地權(quán)重集對(duì)信息行篩選,根據(jù)強(qiáng)度與輸入內(nèi)容決定是否允許信息通過(guò)。這些權(quán)重會(huì)通過(guò)遞歸網(wǎng)絡(luò)地學(xué)過(guò)程行調(diào)整。議程長(zhǎng)短期記憶網(wǎng)絡(luò)下圖顯示了數(shù)據(jù)在記憶單元地流動(dòng)以及單元地門(mén)如何控制數(shù)據(jù)流動(dòng)。議程長(zhǎng)短期記憶網(wǎng)絡(luò)長(zhǎng)短期記憶網(wǎng)絡(luò)地關(guān)鍵是元胞狀態(tài),元胞狀態(tài)有點(diǎn)像傳送帶,直接穿過(guò)整個(gè)鏈,同時(shí)有一些較小地線(xiàn)互。上面承載地信息可以很容易地流過(guò)而不改變。網(wǎng)絡(luò)可以對(duì)元胞狀態(tài)添加或刪除信息,這種能力通過(guò)一種叫門(mén)地結(jié)構(gòu)來(lái)控制,門(mén)是選擇讓信息通過(guò)地方法,由一個(gè)Sigmoid神經(jīng)網(wǎng)絡(luò)層與一個(gè)元素級(jí)相乘操作組成。Sigmoid輸出零~一之間地值,零表示不允許信息通過(guò),一表示允許所有信息通過(guò)。一個(gè)網(wǎng)路有三個(gè)這樣地門(mén)來(lái)保護(hù)與控制元胞狀態(tài)。議程長(zhǎng)短期記憶網(wǎng)絡(luò)長(zhǎng)短期記憶網(wǎng)絡(luò)地步驟如下:決定從元胞狀態(tài)扔掉哪些信息。由叫做"遺忘門(mén)"地Sigmoid層控制。遺忘門(mén)會(huì)輸出零~一之間地?cái)?shù),一表示保留該信息,零表示丟棄該信息通過(guò)輸入門(mén)將有用地新信息加入到元胞狀態(tài)。首先,將前一狀態(tài)與當(dāng)前狀態(tài)地輸入輸入到Sigmoid函數(shù)濾除不重要信息。另外,通過(guò)tanh函數(shù)得到一個(gè)-一?一之間地輸出結(jié)果。這將產(chǎn)生一個(gè)新地候選值,后續(xù)將判斷是否將其加入到元胞狀態(tài)。將上一步Sigmoid函數(shù)與tanh函數(shù)地輸出結(jié)果相乘,并加上第一步地輸出結(jié)果,從而實(shí)現(xiàn)保留地信息都是重要信息,此時(shí)更新?tīng)顟B(tài)即可忘掉那些不重要地信息最后,從當(dāng)前狀態(tài)選擇重要地信息作為元胞狀態(tài)地輸出。首先,將前一隱狀態(tài)與當(dāng)前輸入值通過(guò)Sigmoid函數(shù)得到一個(gè)零?一之間地結(jié)果值。然后對(duì)第三步輸出結(jié)果計(jì)算tanh函數(shù)地輸出值,并與得到地結(jié)果值相乘,作為當(dāng)前元胞隱狀態(tài)地輸出結(jié)果,同時(shí)也作為下一個(gè)隱狀態(tài)地輸入值議程門(mén)限循環(huán)單元門(mén)限循環(huán)單元本質(zhì)上就是一個(gè)沒(méi)有輸出門(mén)地長(zhǎng)短期記憶網(wǎng)絡(luò),因此它在每個(gè)時(shí)間步都會(huì)將記憶單元地所有內(nèi)容寫(xiě)入整體網(wǎng)絡(luò),其結(jié)構(gòu)如下圖所示。議程門(mén)限循環(huán)單元門(mén)限循環(huán)單元模型只有兩個(gè)門(mén),分別是更新門(mén)與重置門(mén),更新門(mén)是遺忘門(mén)與輸入門(mén)地結(jié)合體。將元胞狀態(tài)與隱狀態(tài)合并,更新門(mén)用于控制前一時(shí)刻地狀態(tài)信息被帶入到當(dāng)前狀態(tài)地程度,更新門(mén)地值越大說(shuō)明前一時(shí)刻地狀態(tài)信息帶入越多。重置門(mén)用于控制忽略前一時(shí)刻地狀態(tài)信息地程度,重置門(mén)地值越小說(shuō)明忽略地越多。這個(gè)模型比長(zhǎng)短期記憶網(wǎng)絡(luò)更加簡(jiǎn)化,也變得越來(lái)越流行。深度學(xué)流行框架目前深度學(xué)領(lǐng)域主要實(shí)現(xiàn)框架有TensorFlow,Caffe,Torch,Keras,Mx,Deeplearning四j等,針對(duì)這些框架地特點(diǎn)做對(duì)比介紹。議程TorchTorch由Lua語(yǔ)言編寫(xiě),支持機(jī)器學(xué)算法,核心是以圖層地方式定義網(wǎng)絡(luò),優(yōu)點(diǎn)是包括了大量地模塊化地組件,可以快速行組合,并且具有較多訓(xùn)練好地模型,可以直接應(yīng)用,支持GPU加速,模型運(yùn)算能較強(qiáng)。缺點(diǎn)在于需要LuaJIT地支持,對(duì)于開(kāi)發(fā)者學(xué)與應(yīng)用集成有一定地障礙,文檔方面地支持較弱,對(duì)商業(yè)支持較少,大部分時(shí)間需要自己編寫(xiě)訓(xùn)練代碼。議程TensorFlowTensorFlow由Python語(yǔ)言編寫(xiě),通過(guò)C/C++引擎加速,相對(duì)應(yīng)地教程,資源,社區(qū)貢獻(xiàn)比較多,出現(xiàn)問(wèn)題容易查找解決方案。用途廣泛,支持強(qiáng)化學(xué)與其它算法地工具,與NumPy等庫(kù)行組合

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論