




下載本文檔
版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領
文檔簡介
1、類神經(jīng)網(wǎng)路的基本架構類神經(jīng)網(wǎng)路的組成方式為;由數(shù)個人工神經(jīng)元組成層(layer),再由層組成網(wǎng)路。茲將各部份簡述如下:(1)人工神經(jīng)元可由三個函數(shù)來說明其架構:其中包括集成函數(shù)(summation function),作用函數(shù)(activity function),及轉換函數(shù)(transfer function)。集成函數(shù)為將前一層處理單元之輸出經(jīng)網(wǎng)路的連接權重匯集至神經(jīng)元中,通常以IJ = WijXi-j 表示,其中Wij 為網(wǎng)路的連接權值,網(wǎng)路學習的目的即為調(diào)整連接權值使輸出向量達到目標,並使目標之誤差值降至最小。Xi 代表輸入向量,而j 為該處理單元之初始狀態(tài),一般稱作門限值(thres
2、holds)或閥值。而作用函數(shù)係將集成函數(shù)所得的結果與上一時間神經(jīng)元的狀態(tài)加一綜合,一般直接以netj = IJ表示,不另做處理。至於轉換函數(shù)則具有將輸入值轉換為單位向量的功用,可使用線性函數(shù)Y j= netj ,或以非線性雙彎曲函數(shù)(sigmoid function)- +表示。由以上可知,可依需求更改處理單元中三函數(shù)之數(shù)學式,以達到特定的目的。(2)層在前向式類神經(jīng)網(wǎng)路(feedforward neural network)的網(wǎng)路架構中, 依功能可分為輸入層(input layer)、隱藏層(hidden layer)及輸出層(output layer)。其中輸入層係將輸入向量輸入,用以表
3、現(xiàn)網(wǎng)路輸入變數(shù),其處理單元數(shù)目依問題而定,且一般輸入層的轉換函數(shù)採用線性函數(shù)。而隱藏層則負責處理輸入向量與輸出向量間之交互影響,且應用上常採用一層到二層的隱藏層,此乃因過多的隱藏層易造成計算上落入?yún)^(qū)域極小值(local minimum)的缺點。輸出層為將輸出向量輸出之神經(jīng)元,用以表現(xiàn)網(wǎng)路之輸出變數(shù)。(3)網(wǎng)路演算過程可分為學習過程(learning process)及回想過程(recalling process),其中學習過程為網(wǎng)路依學習演算法,從範例中讀入輸入值及輸出值並加以學習,若輸出值之誤差過大,則網(wǎng)路將修正連接神經(jīng)元的加權值,使網(wǎng)路輸出值與實測值之誤差達至理想目標,即使推論輸出值趨近目
4、標值。此學習過程以一次一個訓練範例的方式進行,直到學習完所有的訓練範例稱之為一個學習循環(huán)(1 epoch)。網(wǎng)路系統(tǒng)必須將訓練範例反覆學習數(shù)個循環(huán),直到達收斂為止。而回想過程為網(wǎng)路依學習過程 中所學習到之連接權值套用,將輸入向量輸入,根據(jù)連接權重運算預測輸出向量的過程,亦可稱為預測過程(forecasting process)。而預測之結果本文使用均方根誤差(RMS)與相關係數(shù)(C.C.)來判斷其成效。 類神經(jīng)網(wǎng)路也是一種經(jīng)驗數(shù)學模式,可以利用已知的資料,直接建立輸入資料與輸出資料之間的關係。類神經(jīng)網(wǎng)路的種類有很多種,讀者若對其原理有興趣可以參考王
5、和蕭(2001),書中有詳盡介紹。使用類神經(jīng)網(wǎng)路建立數(shù)學模式的優(yōu)點有很多,茲舉例如下:1.較佳的容錯能力:具有過濾、適應性學習能力。2.多輸入、多輸出:沒有傳統(tǒng)迴歸分析必須是多對一函數(shù)的限制,可以是多輸入、多輸出系統(tǒng)(MIMO),但是,需注意輸入項目需多於輸出項目。· a1an為輸入向量的各個分量 · w1wn為神經(jīng)元各個突觸的權值 · b為偏置 · f為傳遞函數(shù),通常為非線性函數(shù)。以下默認為hardlim() · t為神經(jīng)元輸出 數(shù)學表示 t=f(WA'+b)· W為權向量 · A為輸入向量,A'為A向量的轉置 · b為偏置 · f為傳遞函數(shù) 可見,一個神經(jīng)元的功能是求得輸入向量與權向量的內(nèi)積後,經(jīng)一個非線性傳遞函數(shù)得到一個純量結果。單個神經(jīng)元的作用:把一個n維向量空間用一個超平面分割成兩部分(稱之為判斷邊界),給定一個輸入向量,神經(jīng)元可以判
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
- 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 南京體育學院《金融計量學》2023-2024學年第二學期期末試卷
- 2025年中國膠囊拋光機行業(yè)市場發(fā)展監(jiān)測及投資戰(zhàn)略咨詢報告
- 2025-2030年古鎮(zhèn)韻味纜車漫步企業(yè)制定與實施新質生產(chǎn)力戰(zhàn)略研究報告
- 海產(chǎn)矗鹽項目投資立項報告
- 2025年中國月子會所行業(yè)市場供需格局及投資規(guī)劃建議報告
- 2025-2030年即食魚片壽司企業(yè)制定與實施新質生產(chǎn)力戰(zhàn)略研究報告
- 2025年自卸王車廂行業(yè)深度研究分析報告
- 2025-2030年可擦寫繪畫板行業(yè)深度調(diào)研及發(fā)展戰(zhàn)略咨詢報告
- 2024年職業(yè)教育培訓行業(yè)投資分析及發(fā)展戰(zhàn)略咨詢報告
- 橡皮布項目可行性研究報告
- 五年級數(shù)學(小數(shù)乘除法)計算題專項練習及答案匯編
- 2025年月度工作日歷含農(nóng)歷節(jié)假日電子表格版
- 部編版六年級下冊道德與法治全冊教案教學設計
- 物流無人機垂直起降場選址與建設規(guī)范
- 《監(jiān)理安全培訓》課件
- 最新六年級英語下冊《全套教材分析解讀》外研版課件
- 企業(yè)辦公自動化系統(tǒng)設計與實現(xiàn)
- 標準的個人簡歷表格()
- [農(nóng)林牧漁]CPM—Dairy v3幫助文件
- 可摘局部義齒 模型觀測與固位
- 公路工程預算案例1
評論
0/150
提交評論