人工神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)ppt課件_第1頁
人工神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)ppt課件_第2頁
人工神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)ppt課件_第3頁
人工神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)ppt課件_第4頁
人工神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)ppt課件_第5頁
已閱讀5頁,還剩17頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

人工神經(jīng)網(wǎng)絡(luò)學(xué)習(xí),人工神經(jīng)網(wǎng)絡(luò)是一種應(yīng)用類似于大腦神經(jīng)突觸聯(lián)接的結(jié)構(gòu)進(jìn)行信息處理的數(shù)學(xué)模型, 由大量的神經(jīng)元之間相互聯(lián)接構(gòu)成,每兩個神經(jīng)元間的連接都代表一個對于通過該連接信號的加權(quán)值,反向傳播算法,使用梯度下降來調(diào)節(jié)網(wǎng)絡(luò)參數(shù)以最佳擬合由輸入-輸出對組成的訓(xùn)練集合 先用樣本數(shù)據(jù)訓(xùn)練神經(jīng)網(wǎng)絡(luò)時,它自動地將輸出值與期望值進(jìn)行比較,得到誤差信號,再根據(jù)誤差信號,從后向前調(diào)節(jié)各神經(jīng)網(wǎng)絡(luò)層神經(jīng)元之間的連接強(qiáng)度,然后再進(jìn)行運(yùn)算,使誤差減小,再將新的輸出值與期望值進(jìn)行比較,得到新的比先前小的誤差信號,再根據(jù)較小的誤差信號,從后向前重新調(diào)節(jié)各神經(jīng)網(wǎng)絡(luò)層神經(jīng)元之間的連接強(qiáng)度,依此不斷地多次進(jìn)行,直到誤差滿足要求為止,感知器,感知器以一個實數(shù)值向量作為輸入,計算這些輸入的線性組合,如果結(jié)果大于某個閾值,就輸出1,否則輸出-1。 其中每個wi是一個實數(shù)常量,或叫做權(quán)值,用來決定輸入xi對感知器輸出的貢獻(xiàn)率。特別地,-w0是閾值。,f(v),x1,x2,xn,X0=1,w0,w1,w2,wn,附加一個常量輸入x0=1,前面的不等式寫成,或,感知器的表征能力,可以把感知器看作是n維實例空間(即點空間)中的超平面決策面 對于超平面一側(cè)的實例,感知器輸出1,對于另一側(cè)的實例,輸出-1 這個決策超平面方程是 可以被某個超平面分割的樣例集合,稱為線性可分樣例集合,delta法則,delta法則克服感應(yīng)器法則的不足,在線性不可分的訓(xùn)練樣本上,收斂到目標(biāo)概念的最佳近似 delta法則的關(guān)鍵思想是,使用梯度下降來搜索可能的權(quán)向量的假設(shè)空間,以找到最佳擬合訓(xùn)練樣例的權(quán)向量 把delta訓(xùn)練法則理解為訓(xùn)練一個無閾值的感知器(一個線性單元),指定一個度量標(biāo)準(zhǔn)來衡量假設(shè)相對于訓(xùn)練樣例的訓(xùn)練誤差 其中,D是訓(xùn)練樣例集合, 是訓(xùn)練樣例d 的目標(biāo)輸出, 是線性單元對訓(xùn)練樣例d的輸出 經(jīng)貝葉斯論證,對于給定的訓(xùn)練數(shù)據(jù)使E最小化的假設(shè)也就是H中最可能的假設(shè) 梯度下降搜索從一個任意的初始權(quán)向量開始,然后沿誤差曲面最陡峭下降的方向,以很小的步伐反復(fù)修改這個向量,直到得到全局的最小誤差點,梯度下降法則的推導(dǎo) 如何發(fā)現(xiàn)沿誤差曲面最陡峭下降的方向? 通過計算E相對向量 的每個分量的導(dǎo)數(shù),這個向量導(dǎo)數(shù)被稱為E對于 的梯度,記作 當(dāng)梯度被解釋為權(quán)空間的一個向量時,它確定了使E最陡峭上升的方向,所以這個向量的反方向給出了最陡峭下降的方向 梯度訓(xùn)練法則 其中,訓(xùn)練法則的分量形式: 其中 最陡峭的下降可以按照比例 改變 中的每一分量wi來實現(xiàn) 需要一個高效的方法在每一步都計算這個梯度 梯度下降權(quán)值更新法則,多層網(wǎng)絡(luò)和反向傳播算法,單個的感知器僅能表示線性決策面,而反向傳播算法所學(xué)習(xí)的多層網(wǎng)絡(luò)能夠表示種類繁多的非線性曲面。 可微閾值單元 使用什么類型的單元來構(gòu)建多層網(wǎng)絡(luò)? 我們需要的單元滿足的條件 輸出是輸入的非線性函數(shù) 輸出是輸入的可微函數(shù) Sigmoid單元,類似于感知器單元,但基于一個平滑的可微閾值函數(shù),sigmoid單元先計算它的輸入的線性組合,然后應(yīng)用到一個閾值上,閾值輸出是輸入的連續(xù)函數(shù),f(v),x1,x2,xn,X0=1,w0,w1,w2,wn,其中 sigmoid函數(shù) 也稱logistic函數(shù) 擠壓函數(shù) 輸出范圍是0到1 單調(diào)遞增 導(dǎo)數(shù)很容易用函數(shù)本身表示 反向傳播算法 用來學(xué)習(xí)多層網(wǎng)絡(luò)的權(quán)值 采用梯度下降方法試圖最小化網(wǎng)絡(luò)輸出值和目標(biāo)值之間的誤差平方 網(wǎng)絡(luò)的誤差定義公式,對所有網(wǎng)絡(luò)輸出的誤差求和,對于每一個訓(xùn)練樣例d,每個權(quán) 被增加 : 其中,Ed是訓(xùn)練樣例的誤差 隱藏單元的權(quán)值訓(xùn)練法則 對于網(wǎng)絡(luò)中的隱藏單元的情況,推導(dǎo) 必須考慮 間接地影響網(wǎng)絡(luò)輸出,從而影響 ,,重新組織各項并使用 表示 我們得到: 其中Downstream(j)表示單元j的直接下游單元的集合,反向傳播算法面臨的學(xué)習(xí)任務(wù) 搜索一個巨大的假設(shè)空間,這個空間由網(wǎng)絡(luò)中所有的單元的所有可能的權(quán)值定義,得到誤差曲面 在多層網(wǎng)絡(luò)中,誤差曲面可能有多個局部極小值,梯度下降僅能保

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論