梯度下降算法和人工神經(jīng)網(wǎng)絡(luò)_第1頁
梯度下降算法和人工神經(jīng)網(wǎng)絡(luò)_第2頁
梯度下降算法和人工神經(jīng)網(wǎng)絡(luò)_第3頁
梯度下降算法和人工神經(jīng)網(wǎng)絡(luò)_第4頁
梯度下降算法和人工神經(jīng)網(wǎng)絡(luò)_第5頁
已閱讀5頁,還剩8頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)

文檔簡介

1、梯度下降算法和人工神經(jīng)網(wǎng)絡(luò)線性回歸與梯度下降算法BP人工神經(jīng)網(wǎng)絡(luò)線性回歸與梯度下降算法線性回歸:典型的房價預(yù)測問題用線性方程表示:當(dāng)特征有很多個時,將使用矢量化的方法:梯度下降算法代價函數(shù)(Cost Function)m:樣本數(shù)y(i):第i個樣本中的房價h(x):預(yù)測的房價參數(shù)的訓(xùn)練BP人工神經(jīng)網(wǎng)絡(luò)BP(Back Propagation)神經(jīng)網(wǎng)絡(luò)是1986年由Rumelhart和McCelland為首的科學(xué)家小組提出,是一種按誤差逆?zhèn)鞑ニ惴ㄓ?xùn)練的多層前饋網(wǎng)絡(luò),是目前應(yīng)用最廣泛的神經(jīng)網(wǎng)絡(luò)模型之一。BP網(wǎng)絡(luò)能學(xué)習(xí)和存貯大量的輸入-輸出模式映射關(guān)系,而無需事前揭示描述這種映射關(guān)系的數(shù)學(xué)方程。它的學(xué)

2、習(xí)規(guī)則是使用最速下降法,通過反向傳播來不斷調(diào)整網(wǎng)絡(luò)的權(quán)值和閾值,使網(wǎng)絡(luò)的誤差平方和最小。BP神經(jīng)網(wǎng)絡(luò)模型拓?fù)浣Y(jié)構(gòu)包括輸入層(input)、隱層(hidden layer)和輸出層(output layer)。上面那個太復(fù)雜讓我們看看 “神經(jīng)元”結(jié)構(gòu)我們選用sigmoid函數(shù)作為激活函數(shù)激活函數(shù) 所謂神經(jīng)網(wǎng)絡(luò)就是將許多個單一“神經(jīng)元”聯(lián)結(jié)在一起,這樣,一個“神經(jīng)元”的輸出就可以是另一個“神經(jīng)元”的輸入。例如,下圖就是一個簡單的神經(jīng)網(wǎng)絡(luò):我們用 l 表示第 層第 i 單元輸入加權(quán)和(包括偏置單元),比如, ,則 。 這里我們將激活函數(shù) 擴展為用向量來表示,上面的等式可以更簡潔地表示為: 表示第 層第 單元的激活值激活值(輸出值)。反向傳播算法(用批量梯度下降法來求解神經(jīng)網(wǎng)絡(luò))對于單個樣例 ,其代價函數(shù)為:定義整體代價函數(shù)為:以上公式中的第一項 是一個均方差項。第二項是一個規(guī)則化項(也叫權(quán)重衰減項權(quán)重衰減項),其目的是減小權(quán)重的幅度,防止

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論