![小學教育在Matlabx中構建PPT課件_第1頁](http://file2.renrendoc.com/fileroot_temp3/2021-10/31/afab224b-b803-427b-8189-e303307d7a78/afab224b-b803-427b-8189-e303307d7a781.gif)
![小學教育在Matlabx中構建PPT課件_第2頁](http://file2.renrendoc.com/fileroot_temp3/2021-10/31/afab224b-b803-427b-8189-e303307d7a78/afab224b-b803-427b-8189-e303307d7a782.gif)
![小學教育在Matlabx中構建PPT課件_第3頁](http://file2.renrendoc.com/fileroot_temp3/2021-10/31/afab224b-b803-427b-8189-e303307d7a78/afab224b-b803-427b-8189-e303307d7a783.gif)
![小學教育在Matlabx中構建PPT課件_第4頁](http://file2.renrendoc.com/fileroot_temp3/2021-10/31/afab224b-b803-427b-8189-e303307d7a78/afab224b-b803-427b-8189-e303307d7a784.gif)
![小學教育在Matlabx中構建PPT課件_第5頁](http://file2.renrendoc.com/fileroot_temp3/2021-10/31/afab224b-b803-427b-8189-e303307d7a78/afab224b-b803-427b-8189-e303307d7a785.gif)
版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領
文檔簡介
1、 BP網絡建立 BP訓練算法選取 訓練數據的前期處理 提高BP網絡泛化能力 檢驗BP網絡的方法第1頁/共31頁一. BP網絡建立 1.網絡的輸入輸出數據結構 (m維輸入n維輸出) a. 只有一個樣本時 Input = P1,P2,Pm m by 1列向量 Output = O1,O2,On n by 1列向量 第2頁/共31頁 b.有s個樣本的時候 輸入 Input 是 m by s矩陣 每個列向量為一個輸入向量. 輸出 Output 是 n by s矩陣每個列向量為一個輸出.第3頁/共31頁 2. 網絡結構(一般3層網絡夠用) 輸入層單元數: m 輸出層單元數: n 隱層單元數h確定原則:
2、在滿足訓練精度的情況下越少越好, 以防止過擬合情況. 第4頁/共31頁 3. 網絡權值(weight)與閾值(bias)數據結構 輸入層與隱層之間連接權矩陣W1是 m by h 矩陣其中W1第i行表示第i個輸入單元與隱層單元間的連接權 隱層與輸出層之間連接權矩陣W2是 n by h 矩陣其中第j行表示第j個輸出單元與隱層單元間連接權.第5頁/共31頁 4.各層傳遞函數選擇: 輸入層 隱層 輸出層第6頁/共31頁 a.輸入層: 起著將輸入傳遞到各隱層單元因此沒有傳遞函數 b.隱層: 能夠擬合非線性函數的關鍵, 應該 是個單調非減函數, Matlab中提供三種傳遞函數 longsig(0,1),
3、tansig(-1,1)和purelin c. 輸出層: 可以采用logsig 與 tansig, 或者purelin. (最好purelin: 1.小樣本 2.無需歸一劃)第7頁/共31頁 5. 最簡便的構建方法 newff(三層為例) net = newff (PR,S1 S2 S3,TF2 TF3, BTF, BLF, PF) PR: m by 2 矩陣第i行表示第i維輸入的取值范圍. Si: 第i層單元個數 TFi: i層傳遞函數 default = tansig BTF: 網絡訓練函數default = trainlm BLF: 權值/閾值學習函數 default =learngdm
4、第8頁/共31頁 此時網絡權值以及偏置項已經采用Nguyen-Widrow layer initialization method初始化完畢. PF: 性能函數 default = mse 均方誤差和 為什么BTF與BLF不同: BTF: 得到dWi, dBi BLF: 更新 Wi, Bi第9頁/共31頁 6.關于得到的網絡 net 的問題 a.是個object, 所含內容 b. net.iw, net.lw, net.b是cell型數據 c. 訓練算法及參數: net.trainParam.第10頁/共31頁二. 各種訓練方法比較: 1. LM算法的一些注意事項: TRAINLM 由于速度很
5、快所以是默認的算法, 但是很消耗內存. 原因:儲存一個 s by m的Jacobi 矩陣, 當樣本數目s很大的時候導致耗費內存過多. 解決方案: Bogdan M. Wilamowski 的 An Algorithm for Fast Convergence in Training Neural Networks 第11頁/共31頁 Levenberg Marquadt算法主要解決非線性最小二乘問題. 使用trainlm時如果有 “out-of-memory” 錯誤提示的時候應采用如下步驟: (1) 通過設置 net.trainParam.mem_reduc 來減少對內存的需求.設置mem_r
6、educ 為 2, 再重新訓練一次. 如果仍然出現內存不足的情況增加 mem_reduc的值, 由于 a significant computational overhead is associated with computing the Jacobian in sub-matrices但是運行時間也會隨之增加. 參數意義如下: If mem_reduc is set to 1, then the full Jacobian is omputed, and no memory reduction is achieved. If mem_reduc is set to 2, then only
7、 half of the Jacobian will be computed at one time. This saves half of the memory used by the calculation of the full Jacobian.第12頁/共31頁 (2) Use TRAINBFG, which is slower but more memory efficient than TRAINLM. (3) Use TRAINRP which is slower but more memory efficient than TRAINBFG.第13頁/共31頁Acronym
8、AlgorithmtrainlmLevenberg-MarquardttrainbfgBFGS Quasi-NewtontrainrpResilient BackpropagationtrainscgScaled Conjugate GradienttraincgbConjugate Gradient with Powell/BealeRestartstraincgfFletcher-Powell Conjugate GradienttraincgpPolak-Ribire Conjugate GradienttrainossOne-Step SecanttraingdxVariable le
9、arning rate backpropagation第14頁/共31頁 Trainlm: Good: 對于函數擬合問題, 當網絡只有幾百個可調參數的時候, LM收斂最快. Bad: 當網絡的權值增加的時候LM的優(yōu)點逐漸消失(消耗內存急劇增加). 而且LM不適合與模式識別網絡訓練.第15頁/共31頁 Trainrp: Good: 用來訓練模式識別問題的網絡收斂最快, 而且消耗內迅也不多(訓練中只借用下降梯度的方向). Bad: 函數擬合時效果不好. 當接近極小點的時候性能下降.第16頁/共31頁Trainscg(推薦算法): 在很多情況下效果都很好, 尤其是對規(guī)模較大的網絡. 在函數擬合情況下
10、幾乎和LM算法一樣快 (對于較大的網絡甚至更快) ,.在模式識別訓練中和 trainrp 一樣快. Its performance does not degrade as quickly as trainrp performance does when the error is reduced. 共軛梯度法( conjugate gradient algorithms) 對內存要求不是很高.第17頁/共31頁 Trainbfg: 性能和 trainlm相近,但對內存要求較trainlm小. 但該算法計算量隨著網絡規(guī)模的增加呈幾何增長, since the equivalent of a mat
11、rix inverse must be computed at each iteration.第18頁/共31頁 Traingdx: 與其他算法比起來比較慢, 內存要求和 trainrp相近. 但是仍有其有用之處, 有些場合下需要收斂慢的算法. For example, when using early stopping you may have inconsistent results if you use an algorithm that converges too quickly. You may overshoot the point at which the error on th
12、e validation set is minimized.第19頁/共31頁三.訓練數據前期處理 1.將輸入和輸出歸一劃到一定范圍內 a.算術處理 premnmx: 得到-1,1的新數據 tramnmx: 歸一劃新的輸入 b.統計處理 prestd: 得到平均值為0, 標準差為1的新數據 poststd: 將數據變換回去第20頁/共31頁 將 輸入歸一劃到一定范圍內的原因: Sigmoid functions are characterized by the fact that their slope must approach zero as the input gets large. T
13、his causes a problem when using steepest descent to train a multilayer network with sigmoid functions, since the gradient can have a very small magnitude; and therefore, cause small changes in the weights and biases, even though the weights and biases are far from their optimal values.第21頁/共31頁 2.主成
14、分分析(PCA) 當輸入維數比較高, 而且每一個輸入向量的各分量之間相關性比較大的時候. 使用主成分分析(principal component analysis)效果更好. pn,meanp,stdp = prestd(p); ptrans,transMat = prepca(pn,0.02); 注意: 當有新輸入的時候, 要先用trastd之然后再用得到的transMat將其PC提取出來 pnewn = trastd(pnew,meanp,stdp); pnewtrans = trapca(pnewn,transMat); a = sim(net,pnewtrans);第22頁/共31頁四
15、.提高網絡泛化能力 1.過擬合與網絡結構 即網絡的訓練誤差很小(已經收斂), 但是預測未學習過的樣本時誤差很大. 網絡記住了學習的樣本, 但是沒有擴展能力(generalization). 一個例子: 學習識別什么是樹的時候兩種極端情況. 如果網絡的可調參數比訓練樣本數少的多的話, 過擬合的可能性就小的多了.第23頁/共31頁 2.解決方法: a. 控制網絡規(guī)模: trainbr 一般來說網絡隱層節(jié)點數越多越容易收斂, 但是也越容易過擬 合, 所以應該使用規(guī)模合適的網絡, trainbr可以自動做到這一點. trainbr 算法在輸入和輸出落在 -1,1范圍內時效果最好. trainbr是在L
16、M算法基礎上改編的. b.Automated regularization(正則化): net.performFcn = msereg; net.performParam.ratio = 0.5(難以確定); 修改網絡的性能函數使得在減小MSE的同時也減小權值的絕對值大小, 這會使得網絡產生的曲線更加光滑因而過擬合可能性變小. 第24頁/共31頁21211mse = ()N1msereg = mse+(1- )Niiinjjtamswwnmsw第25頁/共31頁 c. Early stopping: 將訓練數據分為兩部分: training set (訓練集) validation set(驗
17、證集), 每次迭代用training set 更新網絡, 然后用網絡來預測validation set并與更新前的網絡預測誤差比較, 當發(fā)現預測validation set的誤差開始上升的時候停止訓練.(效果不如trainbr) 第26頁/共31頁 推薦方法: trainbr 在函數擬合的時候trainbr效果比early stopping更好,尤其是當訓練數據比較少得時候. This is because Bayesian regularization does not require that a validation data set be separated out of the tr
18、aining data set. It uses all of the data.第27頁/共31頁 注意事項: a. 在多種初始化條件下訓練網絡. It is possible for either method to fail in certain circumstances. By testing several different initial conditions, you can verify robust network performance. b. trainbr在用于模式識別的網絡訓練時效果不佳. c. trainbr 更耗費時間第28頁/共31頁五.檢驗模型性能 1.postreg的使用 對于訓練樣本集(x, t)來說, 假設訓練得到的網絡輸出為a, m,b,r = postreg(a,t), 這樣得到線性回歸模型
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
- 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
- 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 工業(yè)品買賣合同書
- 康雙的離婚協議書
- 三農村生態(tài)建設實施指南
- 工程監(jiān)理承包合同
- 云計算在企業(yè)IT架構中應用教程
- 運動訓練方法與技巧指南
- 軟件測試流程與質量保障作業(yè)指導書
- 臨設工程勞務分包合同
- 網絡安全威脅防范與應對作業(yè)指導書
- 鋼渣購銷合同
- Starter Unit 1 Hello!說課稿2024-2025學年人教版英語七年級上冊
- 2025年初中語文:春晚觀后感三篇
- Unit 7 第3課時 Section A (Grammar Focus -4c)(導學案)-【上好課】2022-2023學年八年級英語下冊同步備課系列(人教新目標Go For It!)
- 《教育強國建設規(guī)劃綱要(2024-2035年)》解讀講座
- 《基于新課程標準的初中數學課堂教學評價研究》
- 省級產業(yè)園區(qū)基礎設施項目可行性研究報告
- 預算績效評價管理機構入圍投標文件(技術方案)
- 2019北師大版高中英語選擇性必修四單詞表
- 園藝產品的品質講義
- 鋼筋混凝土框架結構工程監(jiān)理的質量控制
- 桃花節(jié)活動方案
評論
0/150
提交評論