感知器神經(jīng)網(wǎng)絡模型與學習算法_第1頁
感知器神經(jīng)網(wǎng)絡模型與學習算法_第2頁
感知器神經(jīng)網(wǎng)絡模型與學習算法_第3頁
感知器神經(jīng)網(wǎng)絡模型與學習算法_第4頁
感知器神經(jīng)網(wǎng)絡模型與學習算法_第5頁
已閱讀5頁,還剩11頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

感知器神經(jīng)網(wǎng)絡模型與學習算法第1頁/共16頁2023/4/82.2.1單層感知器概述由美國學者Rosenblatt在1957年首次提出學習算法是Rosenblatt在1958年提出的包含一個突觸權(quán)值可調(diào)的神經(jīng)元屬于前向神經(jīng)網(wǎng)絡類型只能區(qū)分線性可分的模式IEEE設(shè)立以其名字命名的獎項第2頁/共16頁2023/4/82.2.1單層感知器單層感知器模型第3頁/共16頁2023/4/82.2.1單層感知器單層感知器工作原理

單層感知器可將外部輸入分為兩類和。當感知器的輸出為+1時,輸入屬于類,當感知器的輸出為-1時,輸入屬于類,從而實現(xiàn)兩類目標的識別。在維空間,單層感知器進行模式識別的判決超平面由下式?jīng)Q定:

第4頁/共16頁2023/4/82.2.1單層感知器單層感知器工作原理對于只有兩個輸入的判別邊界是直線(如下式所示),選擇合適的學習算法可訓練出滿意的和,當它用于兩類模式的分類時,相當于在高維樣本空間中,用一個超平面將兩類樣本分開。第5頁/共16頁2023/4/82.2.2單層感知器的學習算法單層感知器學習算法思想基于迭代的思想,通常是采用誤差校正學習規(guī)則的學習算法。可以將偏差作為神經(jīng)元突觸權(quán)值向量的第一個分量加到權(quán)值向量中輸入向量和權(quán)值向量可分別寫成如下的形式:令上式等于零,可得到m維空間的單層感知器的判別超平面。

第6頁/共16頁2023/4/82.2.2單層感知器的學習算法單層感知器學習算法第一步,設(shè)置變量和參量。為激活函數(shù),為網(wǎng)絡實際輸出,為期望輸出,為學習速率,為迭代次數(shù),為實際輸出與期望輸出的誤差。第二步,初始化給權(quán)值向量的各個分量賦一個較小的隨機非零值,置第三步,輸入一組樣本,并給出 它的期望輸出。第四步,計算實際輸出:第五步,求出期望輸出和實際輸出求出差根據(jù)誤差判斷目前輸出是否滿足條件,一般為對所有樣本誤差為零或者均小于預設(shè)的值,則算法結(jié)束,否則將值增加1,并用下式調(diào)整權(quán)值:然后轉(zhuǎn)到第三步,進入下一輪計算過程

第7頁/共16頁2023/4/82.2.3單層感知器的MATLAB實現(xiàn)P=[-0.4-0.50.6;0.900.1];%給定訓練樣本數(shù)據(jù)T=[110];%給定樣本數(shù)據(jù)所對應的類別,用1和0來表示兩種類別%創(chuàng)建一個有兩個輸入、樣本數(shù)據(jù)的取值范圍都在[-1,1]之間,并且%網(wǎng)絡只有一個神經(jīng)元的感知器神經(jīng)網(wǎng)絡net=newp([-11;-11],1); net.trainParam.epochs=20;%設(shè)置網(wǎng)絡的最大訓練次數(shù)為20次net=train(net,P,T);%使用訓練函數(shù)對創(chuàng)建的網(wǎng)絡進行訓練Y=sim(net,P)%對訓練后的網(wǎng)絡進行仿真E1=mae(Y-T)%計算網(wǎng)絡的平均絕對誤差,表示網(wǎng)絡錯誤分類Q=[0.60.9-0.1;-0.1-0.50.5];%檢測訓練好的神經(jīng)網(wǎng)絡的性能Y1=sim(net,Q)%對網(wǎng)絡進行仿真,仿真輸出即為分類的結(jié)果figure;%創(chuàng)建一個新的繪圖窗口plotpv(Q,Y1);%在坐標圖中繪制測試數(shù)據(jù)plotpc(net.iw{1},net.b{1})%在坐標圖中繪制分類線第8頁/共16頁2023/4/82.2.3單層感知器的MATLAB實現(xiàn)例2-1運行后在命令行窗口中得到的結(jié)果如下:>>TRAINC,Epoch0/20%使用TRAINC作為神經(jīng)網(wǎng)絡的訓練函數(shù),第0次訓練,最%大訓練次數(shù)為20TRAINC,Epoch3/20%達到目標誤差要求,結(jié)束訓練TRAINC,Performancegoalmet.Y=110E1=0Y1=001第9頁/共16頁2023/4/82.2.3單層感知器的MATLAB實現(xiàn)例2-1訓練誤差曲線第10頁/共16頁2023/4/82.2.3單層感知器的MATLAB實現(xiàn)例2-1訓練后的分類線第11頁/共16頁2023/4/82.2.4多層感知機單層感知器的缺點是只能解決線性可分的分類模式問題采用多層網(wǎng)絡結(jié)構(gòu)可以增強網(wǎng)絡的分類能力,即在輸入層與輸出層之間增加一個隱含層,從而構(gòu)成多層感知器(MultilayerPerceprons,MLP)。由輸入層、隱含層(可以是一層或者多層)和輸出層構(gòu)成的神經(jīng)網(wǎng)絡稱為多層前向神經(jīng)網(wǎng)絡。第12頁/共16頁2023/4/82.2.4多層感知機多層感知器的拓撲結(jié)構(gòu)第13頁/共16頁2023/4/82.2.4多層感知機多層感知器的特點含有一層或多層隱單元,從輸入模式中獲得了更多有用的信息,使網(wǎng)絡可以完成更復雜的任務。每個神經(jīng)元的激活函數(shù)采用

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論