第2章前向多層人工神經(jīng)網(wǎng)絡(luò)01_第1頁
第2章前向多層人工神經(jīng)網(wǎng)絡(luò)01_第2頁
第2章前向多層人工神經(jīng)網(wǎng)絡(luò)01_第3頁
第2章前向多層人工神經(jīng)網(wǎng)絡(luò)01_第4頁
第2章前向多層人工神經(jīng)網(wǎng)絡(luò)01_第5頁
已閱讀5頁,還剩24頁未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

1、2021-11-22第1頁第二章第二章 前向多層人工神經(jīng)網(wǎng)絡(luò)前向多層人工神經(jīng)網(wǎng)絡(luò) 2.1 概概 述述 ann的主要功能之一的主要功能之一 模式識別模式識別 ( pattern recognition ) 模式識別是人類的一項(xiàng)基本智能行為,在日常生活中,我們幾乎模式識別是人類的一項(xiàng)基本智能行為,在日常生活中,我們幾乎時刻在進(jìn)行著時刻在進(jìn)行著“模式識別模式識別”。模式:模式: 廣義地說,存在于時間和空間中可觀察的事物,如果可以區(qū)別它們是廣義地說,存在于時間和空間中可觀察的事物,如果可以區(qū)別它們是否相同或相似,都可以稱之為模式;否相同或相似,都可以稱之為模式; 狹義地說,模式是通過對具體的個別事物進(jìn)

2、行觀測所得到的具有時間和狹義地說,模式是通過對具體的個別事物進(jìn)行觀測所得到的具有時間和空間分布的信息;空間分布的信息; 模式類:模式類:把模式所屬的類別或同一類中模式的總體稱為模式類把模式所屬的類別或同一類中模式的總體稱為模式類( (或簡稱為類或簡稱為類);); 模式識別:模式識別:在一定量度或觀測基礎(chǔ)上把待識模式劃分到各自的模式類中去在一定量度或觀測基礎(chǔ)上把待識模式劃分到各自的模式類中去的過程叫作模式識別;的過程叫作模式識別; 模式識別模式識別 對表征事物或現(xiàn)象的各種形式的(數(shù)值的,文字的和邏對表征事物或現(xiàn)象的各種形式的(數(shù)值的,文字的和邏輯關(guān)系的)信息進(jìn)行處理和分析,以對事物或現(xiàn)象進(jìn)行描述

3、、辨認(rèn)、分類輯關(guān)系的)信息進(jìn)行處理和分析,以對事物或現(xiàn)象進(jìn)行描述、辨認(rèn)、分類和解釋的過程,是信息科學(xué)和人工智能的重要組成部分。和解釋的過程,是信息科學(xué)和人工智能的重要組成部分。 買西瓜:西瓜可分為買西瓜:西瓜可分為生生、熟熟兩類,此時,研究的范疇是兩類,此時,研究的范疇是“西瓜西瓜”,在此范疇,在此范疇上定義了上定義了兩類兩類模式:模式:熟瓜和生瓜熟瓜和生瓜;種西瓜:西瓜分種西瓜:西瓜分早熟品種、晚熟品種早熟品種、晚熟品種兩類,即定義了兩類,即定義了兩類兩類模式:模式:早熟和晚熟早熟和晚熟;河北省早熟品種分類:河北省常見品種有河北省早熟品種分類:河北省常見品種有“新紅寶新紅寶”、“蜜梅蜜梅”、

4、“京欣京欣”、“冀早冀早2號號”等;此時,研究范疇是等;此時,研究范疇是“河北常見早熟西瓜品種河北常見早熟西瓜品種”,在此范疇,在此范疇上定義了多類模式:上定義了多類模式:新紅寶、蜜梅、京欣、冀早新紅寶、蜜梅、京欣、冀早2號號等等等等買西瓜:買西瓜:兩類模式分類問題,通過兩類模式分類問題,通過聲音聲音的的頻率頻率x1和聲音持續(xù)時間和聲音持續(xù)時間長度長度x2來判來判斷瓜的生熟。對編號為斷瓜的生熟。對編號為 i 的瓜進(jìn)行敲擊測試,得到矢量元素的瓜進(jìn)行敲擊測試,得到矢量元素 xi=(x1i,x2i) t ,對對n個有生有熟的瓜進(jìn)行實(shí)驗(yàn)可以得到個有生有熟的瓜進(jìn)行實(shí)驗(yàn)可以得到n個數(shù)據(jù):個數(shù)據(jù):x=x1,

5、x2,x3,xn ,根,根據(jù)瓜的生熟可以將據(jù)瓜的生熟可以將x中的元素劃分為兩類,一類對應(yīng)于中的元素劃分為兩類,一類對應(yīng)于生瓜生瓜一類對應(yīng)于一類對應(yīng)于熟瓜熟瓜。于是,于是,模式模式其實(shí)就是具有其實(shí)就是具有特定性質(zhì)的矢量特定性質(zhì)的矢量/數(shù)據(jù)數(shù)據(jù)。用。用c1代表生瓜類,代表生瓜類,c2代表代表熟瓜類,則熟瓜類,則x中的任意一個元素中的任意一個元素xn必然滿足必然滿足: xn屬于屬于c1或者或者xn屬于屬于c2。2021-11-22第2頁 模式識別,舉例:水果分級系統(tǒng)。模式識別,舉例:水果分級系統(tǒng)。水果品質(zhì)參數(shù):重量、大小、比重、果形、顏色等水果品質(zhì)參數(shù):重量、大小、比重、果形、顏色等特征矢量特征矢量

6、:x = x1, x2, x3, x4, x5t特征空間特征空間:用參數(shù)張成。用參數(shù)張成。模式模式:每個蘋果為一個模式,其特征矢量每個蘋果為一個模式,其特征矢量 為特征空間中的一個點(diǎn);為特征空間中的一個點(diǎn);模式類模式類:一個級別為一個類,一類模式分一個級別為一個類,一類模式分 布在特征空間的某個特定區(qū)域;布在特征空間的某個特定區(qū)域;模式識別模式識別:找出各類之間的分界面。找出各類之間的分界面。2021-11-22第3頁 ann的主要功能之二的主要功能之二 聯(lián)想聯(lián)想 ( associative memory )聯(lián)想的心理學(xué)定義:聯(lián)想的心理學(xué)定義: 當(dāng)一個事物的表象被激活時,也就是說該表象所包含的

7、若干屬性單元同當(dāng)一個事物的表象被激活時,也就是說該表象所包含的若干屬性單元同時有效時,我們的注意力焦點(diǎn)就集中在這個表象上,如果對該表象的處理使時有效時,我們的注意力焦點(diǎn)就集中在這個表象上,如果對該表象的處理使的表象被否決時,也就是說由于一些屬性單元的失效(或被抑制,或處于高的表象被否決時,也就是說由于一些屬性單元的失效(或被抑制,或處于高阻),導(dǎo)致該表象無法成立的時候,剩余的屬性單元或許可以構(gòu)成另一種事阻),導(dǎo)致該表象無法成立的時候,剩余的屬性單元或許可以構(gòu)成另一種事物的表象,或許還需要結(jié)合那些被激活了的新的屬性(或是由外界事物具有物的表象,或許還需要結(jié)合那些被激活了的新的屬性(或是由外界事物

8、具有的新的屬性所激活,或是因降低了對一些屬性的抑制所導(dǎo)致的激活)。的新的屬性所激活,或是因降低了對一些屬性的抑制所導(dǎo)致的激活)。 例如:看到檸檬,感覺到嘴里口水增多。因?yàn)?,由檸檬?lián)想到了酸味。例如:看到檸檬,感覺到嘴里口水增多。因?yàn)?,由檸檬?lián)想到了酸味。 字符識別:字符識別:2021-11-22第4頁 再論模式識別:再論模式識別:對表征事物或現(xiàn)象的各種形式的(數(shù)值的、文字的或邏對表征事物或現(xiàn)象的各種形式的(數(shù)值的、文字的或邏輯的)信息進(jìn)行處理和分析,以對事物或現(xiàn)象進(jìn)行描述、辨認(rèn)、分類和輯的)信息進(jìn)行處理和分析,以對事物或現(xiàn)象進(jìn)行描述、辨認(rèn)、分類和解釋的過程稱為解釋的過程稱為“模式識別模式識別”

9、,是信息科學(xué)和人工智能的重要組成部分。,是信息科學(xué)和人工智能的重要組成部分。 v 人在分辨不同類別的事物時,抽取了人在分辨不同類別的事物時,抽取了同類事物之間的相同點(diǎn)同類事物之間的相同點(diǎn)以及以及不不同類事物之間的不同點(diǎn)同類事物之間的不同點(diǎn);字符識別字符識別:例如漢字例如漢字“中中”可以有各種寫法,但都屬于同一類別??梢杂懈鞣N寫法,但都屬于同一類別。更為重要的是,即使對于某個更為重要的是,即使對于某個“中中”的具體寫法從未見過,也能把的具體寫法從未見過,也能把它分到它分到“中中”這一類別。這一類別。識別目標(biāo)識別目標(biāo):人們走向一個目的地的時候,總是在不斷的觀察周圍的人們走向一個目的地的時候,總是在

10、不斷的觀察周圍的景物,判斷所選擇的路線是否正確。實(shí)際上,是對眼睛看到的圖象景物,判斷所選擇的路線是否正確。實(shí)際上,是對眼睛看到的圖象做做 “正確正確”和和“不正確不正確”的分類判斷。的分類判斷。人腦的這種思維能力就構(gòu)成了人腦的這種思維能力就構(gòu)成了“模式模式”的概念和的概念和“模式識別模式識別”的過的過程。程。 模式是和類別(集合)的概念分不開的,只要認(rèn)識這個集合的有限數(shù)量的事模式是和類別(集合)的概念分不開的,只要認(rèn)識這個集合的有限數(shù)量的事物或現(xiàn)象,就可以識別這個集合中的任意多的事物或現(xiàn)象。為了強(qiáng)調(diào)能從具物或現(xiàn)象,就可以識別這個集合中的任意多的事物或現(xiàn)象。為了強(qiáng)調(diào)能從具體的事物或現(xiàn)象中推斷出總

11、體,我們就把個別的事物或現(xiàn)象稱作體的事物或現(xiàn)象中推斷出總體,我們就把個別的事物或現(xiàn)象稱作“模式模式”,而把總體稱作類別或范疇。而把總體稱作類別或范疇。特征矢量特征矢量:最簡單的情況是用一組稱為最簡單的情況是用一組稱為“特征參數(shù)特征參數(shù)”的數(shù)值信息表示一個客觀的數(shù)值信息表示一個客觀對象。例如,水果品質(zhì)分類中用到的大小、重量、比重、果型、顏色,其取值對象。例如,水果品質(zhì)分類中用到的大小、重量、比重、果型、顏色,其取值均為數(shù)值。表示成均為數(shù)值。表示成特征矢量特征矢量形式:形式:xi = xi1, xi2, xi3, xi4, xi5 ;樣本樣本:對一個具體對象進(jìn)行觀測得到的一個對一個具體對象進(jìn)行觀測

12、得到的一個特征矢量特征矢量稱為一個稱為一個“樣本樣本”, xi 稱稱為第為第i個樣本,或者第個樣本,或者第i個樣本的特征矢量。個樣本的特征矢量。特征空間特征空間:即特征矢量張成的空間,每個樣本對應(yīng)于特征空間上的一點(diǎn)。即特征矢量張成的空間,每個樣本對應(yīng)于特征空間上的一點(diǎn)。針對一個具體的模式識別問題,選定特征參數(shù)非針對一個具體的模式識別問題,選定特征參數(shù)非常重要,關(guān)乎模式識別的成敗。著名國際大師常重要,關(guān)乎模式識別的成敗。著名國際大師傅傅京孫京孫教授曾說過模式識別問題的關(guān)鍵是特征提取。教授曾說過模式識別問題的關(guān)鍵是特征提取。特征參數(shù)應(yīng)能區(qū)分所定義的模式,同時有沒有過特征參數(shù)應(yīng)能區(qū)分所定義的模式,同

13、時有沒有過多的重復(fù),即:完備而不冗余。選定特征參數(shù)的多的重復(fù),即:完備而不冗余。選定特征參數(shù)的過程稱過程稱“為特征提取為特征提取”。特征提取沒有統(tǒng)一的方。特征提取沒有統(tǒng)一的方法,事實(shí)上,特征提取是一個不同專業(yè)領(lǐng)域范疇法,事實(shí)上,特征提取是一個不同專業(yè)領(lǐng)域范疇內(nèi)的問題。正因?yàn)槿绱?,模式識別應(yīng)用問題往往內(nèi)的問題。正因?yàn)槿绱?,模式識別應(yīng)用問題往往是跨專業(yè)領(lǐng)域的工程。是跨專業(yè)領(lǐng)域的工程。傅京孫傅京孫(19301985)麗水縣城人。麗水縣城人。1954年畢業(yè)于臺灣年畢業(yè)于臺灣大學(xué)大學(xué)電機(jī)系電機(jī)系獲學(xué)士學(xué)位,后留學(xué)加拿大多倫多大學(xué)獲學(xué)士學(xué)位,后留學(xué)加拿大多倫多大學(xué)獲獲應(yīng)用科學(xué)應(yīng)用科學(xué)碩士學(xué)位,碩士學(xué)位,1

14、956年轉(zhuǎn)入美國伊利諾斯大年轉(zhuǎn)入美國伊利諾斯大學(xué),獲博士學(xué)位。學(xué),獲博士學(xué)位。1961年起任美國普渡大學(xué)年起任美國普渡大學(xué)電機(jī)工電機(jī)工程程系助教、副教授、教授,加州大學(xué)柏克萊分校及系助教、副教授、教授,加州大學(xué)柏克萊分校及斯坦福大學(xué)訪問教授。斯坦福大學(xué)訪問教授。1971年起當(dāng)選為美國年起當(dāng)選為美國電機(jī)工電機(jī)工程學(xué)會程學(xué)會榮譽(yù)會員。同年得顧根漢基金研究獎助金。榮譽(yù)會員。同年得顧根漢基金研究獎助金。1975年起任普渡大學(xué)高斯工程講座教授。以后開設(shè)年起任普渡大學(xué)高斯工程講座教授。以后開設(shè)概率論概率論,創(chuàng)立,創(chuàng)立圖形識別科學(xué)圖形識別科學(xué),影像處理影像處理及其在及其在遙測、遙測、醫(yī)學(xué)方面的應(yīng)用醫(yī)學(xué)方面的

15、應(yīng)用,曾任第一屆國際,曾任第一屆國際圖形識別會議主圖形識別會議主席席。1976年當(dāng)選為美國國家工程學(xué)院院士,獲得麥年當(dāng)選為美國國家工程學(xué)院院士,獲得麥考艾科學(xué)貢獻(xiàn)獎。考艾科學(xué)貢獻(xiàn)獎。1977年獲得美國年獲得美國計(jì)算機(jī)學(xué)會計(jì)算機(jī)學(xué)會杰出杰出論文獎。論文獎。1978年任臺灣年任臺灣“中央研究院中央研究院”院士。院士。2021-11-22第5頁 模式類:模式類:特征參數(shù)選擇合理時,不同類的模式,在特征空間中占據(jù)不特征參數(shù)選擇合理時,不同類的模式,在特征空間中占據(jù)不同的分布區(qū)域;同的分布區(qū)域;模式識別所要做的事情,包含兩個方面:模式識別所要做的事情,包含兩個方面:1.在不同類別樣本點(diǎn)集之間,尋找合理的

16、分界面,或稱作在不同類別樣本點(diǎn)集之間,尋找合理的分界面,或稱作“判別函數(shù)判別函數(shù)(decision function)” 因?yàn)榕袆e函數(shù)來自于實(shí)際觀測數(shù)據(jù),因?yàn)榕袆e函數(shù)來自于實(shí)際觀測數(shù)據(jù),因此稱此階段為因此稱此階段為 “學(xué)習(xí)學(xué)習(xí)” 或或 “訓(xùn)練訓(xùn)練” ;2.給定未知模式,判斷該樣本所屬類別,稱為給定未知模式,判斷該樣本所屬類別,稱為“工作工作”或或“應(yīng)用應(yīng)用”。 特征選擇的好壞是模式識別成敗的關(guān)鍵,但如何選擇特征選擇的好壞是模式識別成敗的關(guān)鍵,但如何選擇“特征特征”,即,即,選擇什么物理量作為特征,是具體專業(yè)選擇什么物理量作為特征,是具體專業(yè)“領(lǐng)域領(lǐng)域”的問題,需要運(yùn)用的問題,需要運(yùn)用“領(lǐng)領(lǐng)域域

17、”的專業(yè)知識來解決。的專業(yè)知識來解決。 例如,語音識別,如何從自然語音中提取例如,語音識別,如何從自然語音中提取“特征特征”,是語音識別的,是語音識別的專業(yè)問題;圖象識別,如何從專業(yè)問題;圖象識別,如何從ccd圖象獲取適當(dāng)?shù)奶卣?,是圖象處理圖象獲取適當(dāng)?shù)奶卣?,是圖象處理領(lǐng)域的問題,即使在圖象處理領(lǐng)域,不同應(yīng)用目的所取的特征也不同。領(lǐng)域的問題,即使在圖象處理領(lǐng)域,不同應(yīng)用目的所取的特征也不同。 模式識別的全過程,應(yīng)該包括特征提取階段。但是,我們這里將要模式識別的全過程,應(yīng)該包括特征提取階段。但是,我們這里將要講到的有關(guān)智能方法,都只涉及到特征提取之后的工作。講到的有關(guān)智能方法,都只涉及到特征提取

18、之后的工作。以上所說的以上所說的 “學(xué)習(xí)學(xué)習(xí)” 或或 “訓(xùn)練訓(xùn)練”,是根據(jù)若干已知樣本在空間找到合,是根據(jù)若干已知樣本在空間找到合適的分類面。對于一個樣本適的分類面。對于一個樣本xi,用用yi表示它所屬的類別,例如,它屬于表示它所屬的類別,例如,它屬于第第k類類。樣本。樣本已知已知,意思是,意思是 xi , yi 已知。這種已知。這種“學(xué)習(xí)學(xué)習(xí)”又稱為又稱為“有監(jiān)有監(jiān)督督”學(xué)習(xí),即學(xué)習(xí),即,通過對已知樣本,通過對已知樣本 xi ,yi 的學(xué)習(xí)找到合理的判別函數(shù)。的學(xué)習(xí)找到合理的判別函數(shù)。所謂所謂“工作工作”,指的是給定類別未知的,指的是給定類別未知的樣本樣本xi ,求,求yi 的值。的值。xi

19、是對某個是對某個客觀對象觀測的結(jié)果,客觀對象觀測的結(jié)果,其取值無法事先限定。其取值無法事先限定。但類別但類別yi的取值的取值是離散的、是離散的、有限的有限的,是事先,是事先主觀規(guī)定的。主觀規(guī)定的。2021-11-22第6頁神經(jīng)元模型神經(jīng)元模型 神經(jīng)元的輸入:神經(jīng)元的輸入:110nxxxx 所完成的運(yùn)算為:所完成的運(yùn)算為:netfyxwnetiii1 -n0txw式中:式中:110nwwww稱為神經(jīng)元的稱為神經(jīng)元的“權(quán)值矢量權(quán)值矢量”; f稱為神經(jīng)元的稱為神經(jīng)元的“功能函數(shù)功能函數(shù)”;net稱為神經(jīng)元的稱為神經(jīng)元的“凈輸入凈輸入”;y稱為神經(jīng)元的稱為神經(jīng)元的“輸出輸出”;稱為神經(jīng)元的稱為神經(jīng)元的

20、“閾值閾值”;2021-11-22第7頁常用的神經(jīng)元功能函數(shù)類型常用的神經(jīng)元功能函數(shù)類型 線性函數(shù)線性函數(shù) uuf又稱為又稱為“恒同函數(shù)恒同函數(shù)” 硬限幅函數(shù)硬限幅函數(shù) 0, 00, 1huuufaueuf11s s s函數(shù)函數(shù)(sigmoid) fs 取值于取值于0,1之間。之間。aueuf11s2021-11-22第8頁前項(xiàng)人工神經(jīng)網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)前項(xiàng)人工神經(jīng)網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu) 前層的輸出作為后層的輸入;前層的輸出作為后層的輸入; 各層的神經(jīng)元個數(shù)可以不同;各層的神經(jīng)元個數(shù)可以不同; 層數(shù)兩層以上,目前大多為層數(shù)兩層以上,目前大多為3層;層; 輸入矢量輸入矢量x代表從客觀對象觀測代表從客觀對象觀

21、測得到的特征;輸出層包含一個或多得到的特征;輸出層包含一個或多個神經(jīng)元,用于表達(dá)更為復(fù)雜的運(yùn)個神經(jīng)元,用于表達(dá)更為復(fù)雜的運(yùn)算結(jié)果;算結(jié)果; 同層神經(jīng)元不能連接,后層不同層神經(jīng)元不能連接,后層不能向前層反向連接;能向前層反向連接; 連接強(qiáng)度(即,權(quán)值大小)可連接強(qiáng)度(即,權(quán)值大小)可以為以為0,強(qiáng)度為,強(qiáng)度為0實(shí)際上就是沒有實(shí)際上就是沒有連接;連接;2021-11-22第9頁2.2 采用硬限幅函數(shù)時單個神經(jīng)元的分類功能采用硬限幅函數(shù)時單個神經(jīng)元的分類功能 線性可分性線性可分性( linear separable )設(shè)有設(shè)有c0和和c1兩類模式兩類模式r0:c0類模式的樣本集;類模式的樣本集;r1

22、:c1類模式的樣本集;類模式的樣本集;分類的第一步分類的第一步:在兩類樣本分布區(qū)域在兩類樣本分布區(qū)域之間尋找一個分類函數(shù)(分類線、面)之間尋找一個分類函數(shù)(分類線、面)使得兩類樣本各處在一邊;使得兩類樣本各處在一邊; 實(shí)現(xiàn)這一目標(biāo)的過程,稱為實(shí)現(xiàn)這一目標(biāo)的過程,稱為“學(xué)習(xí)學(xué)習(xí)”或或“訓(xùn)練訓(xùn)練”,所用到的計(jì)算策所用到的計(jì)算策略稱為略稱為“學(xué)習(xí)算法學(xué)習(xí)算法”;樣本集合樣本集合r r0 0和和r r1 1稱為稱為學(xué)習(xí)樣本學(xué)習(xí)樣本集合。集合。分類的第二步分類的第二步:當(dāng)獲得了分類函數(shù)當(dāng)獲得了分類函數(shù) l 以后,就可以進(jìn)入工作階段了。任給以后,就可以進(jìn)入工作階段了。任給未知模式未知模式x,若它位于,若它

23、位于r0一側(cè),則判定其為一側(cè),則判定其為c0類;若它位于類;若它位于r1一側(cè),則一側(cè),則判定其為判定其為c1類;若它落在分類線類;若它落在分類線l 上,則不可識別。上,則不可識別。 給定兩類給定兩類c0和和c1的學(xué)習(xí)樣本集合的學(xué)習(xí)樣本集合r0和和r1,若存在線性分類函數(shù)(直線、,若存在線性分類函數(shù)(直線、平面、超平面)平面、超平面)l,將兩類學(xué)習(xí)樣本無,將兩類學(xué)習(xí)樣本無誤差地分開,則稱該分類問題為誤差地分開,則稱該分類問題為“線線性可分問題性可分問題”。2021-11-22第10頁假設(shè),二維分類問題的分類函數(shù)為假設(shè),二維分類問題的分類函數(shù)為 l:01100 xwxwxwt任給樣本任給樣本 x

24、= x1, x2 ,l 應(yīng)該滿足:應(yīng)該滿足:111000110000cxxwxwcxxwxw令:令:1100 xwxwnet則模式識別則模式識別問題可以表達(dá)成:問題可以表達(dá)成:1000cxnetcxnet把把 看作權(quán)值,看作權(quán)值, 看作閾值,用看作閾值,用一個神經(jīng)元來表示以上二維分類問題,則:一個神經(jīng)元來表示以上二維分類問題,則:10, wwnetfyxwxwneth1100任意輸入一個模式任意輸入一個模式 x,若若x屬于屬于c0則則 y = 1;若若x屬于屬于c1則則 y = 0;01110h010hrxrxiiiiiixwfyxwfy其中:其中:x = x1, x2是任意樣本,是任意樣本,

25、w=w0, w1是權(quán)值矢量。是權(quán)值矢量。 wt.x = w0.x0 + w1.x1 =0 是直線的矢量方程,是直線的矢量方程,若若w為單位矢量,即:為單位矢量,即: w02 + w12 = 1 則則 的意義如圖所示。的意義如圖所示。2021-11-22第11頁學(xué)習(xí)算法學(xué)習(xí)算法 將輸入矢量將輸入矢量 x x 和權(quán)矢量和權(quán)矢量 ww 作如下擴(kuò)張:作如下擴(kuò)張: ,1,1n101n10wwwxxxwx 神經(jīng)元模型成為:神經(jīng)元模型成為:netfyxwnetnnnnh10xw(2-7) 學(xué)習(xí)的目的,就是要找到權(quán)矢量學(xué)習(xí)的目的,就是要找到權(quán)矢量w。對于前面的例子,就是尋找能夠無。對于前面的例子,就是尋找能夠

26、無誤差分開兩類樣本的直線參數(shù)誤差分開兩類樣本的直線參數(shù) w0, w1, 。 學(xué)習(xí)是針對給定的學(xué)習(xí)樣本集合進(jìn)行的,不同的樣本集合可以得到不同學(xué)習(xí)是針對給定的學(xué)習(xí)樣本集合進(jìn)行的,不同的樣本集合可以得到不同的學(xué)習(xí)結(jié)果。對于兩類可分問題,能夠無誤差地分開學(xué)習(xí)樣本的結(jié)果都的學(xué)習(xí)結(jié)果。對于兩類可分問題,能夠無誤差地分開學(xué)習(xí)樣本的結(jié)果都是正確的。是正確的。2021-11-22第12頁設(shè)二維分類問題,有學(xué)習(xí)樣本:設(shè)二維分類問題,有學(xué)習(xí)樣本: kddk00xx其中其中 1010011ckckkdkxkxkxxx訓(xùn)練樣本訓(xùn)練樣本 k ;訓(xùn)練樣本的值;訓(xùn)練樣本的值;起初,我們隨意指定一個權(quán)矢量:起初,我們隨意指定一

27、個權(quán)矢量: 000010www這相當(dāng)于在特征空間上隨意畫了一條線。向神經(jīng)元這相當(dāng)于在特征空間上隨意畫了一條線。向神經(jīng)元輸入一個樣本輸入一個樣本x(k),用,用y(k)表示得到的輸出,顯然表示得到的輸出,顯然y(k)不一定等于不一定等于x(k)的實(shí)際類別值的實(shí)際類別值d(k),令:,令: kykd若若 fh 為硬限幅函數(shù),為硬限幅函數(shù), 則必有:則必有:0110110cccc判為錯將判為錯將輸出正確(2-29)2021-11-22第13頁學(xué)習(xí)算法學(xué)習(xí)算法:為了找到正確的為了找到正確的w,依次向神經(jīng)元輸入學(xué)習(xí)樣本,依次向神經(jīng)元輸入學(xué)習(xí)樣本x(k),k = 0, 1, 2, ,并且依照誤差,并且依照

28、誤差 (k)的正負(fù)來修正的正負(fù)來修正w :式中式中a a 稱為稱為“步幅步幅”,用來控制每次調(diào)整的步長。如此不斷重,用來控制每次調(diào)整的步長。如此不斷重復(fù),復(fù),w(k)隨著迭代次數(shù)隨著迭代次數(shù)k的增加,逐漸趨于正確答案。的增加,逐漸趨于正確答案。任意設(shè)置)0(w( 2-7 ) 若輸出若輸出y (k)與樣本類別值與樣本類別值d (k)相同,即,相同,即, 則則: w(k+1)=w(k),不調(diào)整不調(diào)整w。 0k 0k 若輸出若輸出y(k)與樣本類別值與樣本類別值d (k)不同,即,不同,即, 則則: w 根據(jù)根據(jù) (k)的正負(fù)被調(diào)整;的正負(fù)被調(diào)整; kkkwkwx)(1a kkykdkkxwwa1

29、kkxwa,210k2021-11-22第14頁算法的幾何原理:算法的幾何原理:為直觀起見,設(shè):理想分類線過原點(diǎn),即:為直觀起見,設(shè):理想分類線過原點(diǎn),即: ,閾值,閾值 為為0。01100 xwxw訓(xùn)練樣本:訓(xùn)練樣本: 101001ckckkdkxkxkxxx權(quán)值矢量:權(quán)值矢量: kwkwk10w由直線方程可知,由直線方程可知,w(k)是直線是直線 l 的法線的法線 ,即,即:0 :1100txwxwlxw 若,若,x恰好位于恰好位于 l 上,則:上,則:01100txwxwxw 若,若,xa位于位于 l 上方,則:上方,則:; 01100taaaxwxwxw 1ky 若,若,xb位于位于

30、l 下方,則:下方,則:; 01100tbbbxwxwxw 0ky2021-11-22第15頁假設(shè)已經(jīng)輸入了假設(shè)已經(jīng)輸入了k個樣本,運(yùn)行到了第個樣本,運(yùn)行到了第 k 步,當(dāng)前的權(quán)值步,當(dāng)前的權(quán)值w(k)。假設(shè)。假設(shè)輸入輸入 x(k) 得到得到y(tǒng)(k)=1,但給定的,但給定的 x(k)屬于屬于c1類,即,類,即,d(k) = 0 ,則:則: 1kykd于是,有:于是,有: kkkkkxwxwwaa1可見,分類線可見,分類線 l 得到了合理的調(diào)整。得到了合理的調(diào)整。再假設(shè),接下來輸入的再假設(shè),接下來輸入的x(k+1)屬于屬于 c0類,即類,即d(k) = 1,被錯分,被錯分為為c1類,即,類,即,

31、 由由x(k+1) 和和w(k+1)計(jì)算得到計(jì)算得到 y(k+1)=0 : 1kykd于是,有:于是,有:11112kkkkkxwxwwaa錯把錯把 c1 當(dāng)當(dāng) c0 ;2021-11-22第16頁2.3 線性函數(shù)神經(jīng)元的最小二乘分類算法線性函數(shù)神經(jīng)元的最小二乘分類算法 線性不可分線性不可分 在誤差最小的前提下,尋找分類函數(shù),給定樣本集:在誤差最小的前提下,尋找分類函數(shù),給定樣本集: kddk00xx其中其中 10110111ckckkdkxkxkxknxxx2021-11-22第17頁采用線性函數(shù)的神經(jīng)元,即:采用線性函數(shù)的神經(jīng)元,即:輸入樣本矢量:輸入樣本矢量:110nxxx10nwww權(quán)

32、值矢量:權(quán)值矢量:神經(jīng)元完成的運(yùn)算為:神經(jīng)元完成的運(yùn)算為:tnnnnxwyxw10判別規(guī)則:判別規(guī)則:10rxrx00y注意到,理想值為:注意到,理想值為:10rxrx11d 對于權(quán)矢量對于權(quán)矢量w的某個具體取值,其誤差定義為:的某個具體取值,其誤差定義為: 22ydee學(xué)習(xí)的目的是,針對所有學(xué)習(xí)樣本,尋找學(xué)習(xí)的目的是,針對所有學(xué)習(xí)樣本,尋找 最小的最小的w取值,它即為誤差最小取值,它即為誤差最小的分類函數(shù)。的分類函數(shù)。(2-10)2021-11-22第18頁設(shè)學(xué)習(xí)樣本集設(shè)學(xué)習(xí)樣本集x0,d0),(x1,d1),(xk-1,dk-1), 則則 的估計(jì)為:的估計(jì)為:1021kkktkdkxw以以

33、 最小為目標(biāo)的優(yōu)化過程,統(tǒng)稱為最小為目標(biāo)的優(yōu)化過程,統(tǒng)稱為“最小二乘法最小二乘法( least mean square )”。 顯然,樣本的分布給定后顯然,樣本的分布給定后 是權(quán)矢量是權(quán)矢量w的函數(shù),即:的函數(shù),即: = (w); 首先需要證明,存在首先需要證明,存在w*使得使得 min= (w*) 成立。由于是線性函數(shù),所成立。由于是線性函數(shù),所以,神經(jīng)元的輸出可以寫成:以,神經(jīng)元的輸出可以寫成:10tnnnnxwnetywx(2-11)代入代入(2-10)得到:得到: ttt2ttt2ttt222222wxwxxwxwwxxwxwxwxwwxdeededdeddedeydet(2-12)2

34、021-11-22第19頁用下列符號代表式中一些參量:用下列符號代表式中一些參量: 2dexxrtexpde為了簡化,我們考慮二維并且閾值為了簡化,我們考慮二維并且閾值 = 0 的情況,有:的情況,有: 1110010021011020210110201010rrrrxexxexxexexxxxxxexxxxer(2-13)1010ppxdexdep(2-14)顯然,顯然,r是隨機(jī)矢量是隨機(jī)矢量x的相關(guān)矩陣,它是一個的相關(guān)矩陣,它是一個對稱矩陣對稱矩陣,且,且正定正定。將以上符號代入將以上符號代入(2-12),得到:,得到:tt2wpwrw(2-15)1100112101100020222pw

35、pwrwrwwrw2021-11-22第20頁 顯然,顯然,若存若存w*在在 使得使得 min= (w*) 成立。并且,在成立。并且,在w*點(diǎn)上點(diǎn)上 關(guān)于關(guān)于w的的所有元素所有元素w0, w1, ( (二維情況下只有二維情況下只有w 0和和w 1) )的偏導(dǎo)數(shù)都為的偏導(dǎo)數(shù)都為0,或者,說或者,說 關(guān)于矢量關(guān)于矢量w的梯度在的梯度在w*點(diǎn)為零矢量。即,對點(diǎn)為零矢量。即,對(2-15)求梯度得到:求梯度得到: pwrwpwrwwww22210ttddddww(2-16)或用多元函數(shù)微分求梯度,重寫誤差公式:或用多元函數(shù)微分求梯度,重寫誤差公式:001100011001121011000200022

36、2222prwrwpwpwrwrwwrwww1100112101100020222pwpwrwrwwrw1111010110011210110002011222222prwrwpwpwrwrwwrwww2021-11-22第21頁令:令:022*prwwww注意到,注意到,r是正定的,它的逆存在,于是,得到:是正定的,它的逆存在,于是,得到:1*rpw(2-17)代回代回(2.15)式可以得到最小誤差平方和:式可以得到最小誤差平方和: t*t*t*t*2*minpwpwpwrwwww(2-18)命題得證,并且找到了最佳的命題得證,并且找到了最佳的w:解解(2-17)式即可得到式即可得到w*。但

37、這還不是我們。但這還不是我們想要的學(xué)習(xí)算法,為了實(shí)現(xiàn)自適應(yīng)學(xué)習(xí),必須找到求解想要的學(xué)習(xí)算法,為了實(shí)現(xiàn)自適應(yīng)學(xué)習(xí),必須找到求解w*的迭代算法。的迭代算法。 prw2222222222101110010010111010001100010pprrrrwwprwrwprwrwww2021-11-22第22頁 lms學(xué)習(xí)問題的最陡梯度算法學(xué)習(xí)問題的最陡梯度算法 k表示迭代學(xué)習(xí)過程的序號;表示迭代學(xué)習(xí)過程的序號; p = 0, 1, 2, 表示樣本序號,表示樣本序號,xp(k)表示表示當(dāng)前一輪迭代時的第當(dāng)前一輪迭代時的第p個輸入的學(xué)習(xí)樣本,即,第個輸入的學(xué)習(xí)樣本,即,第k步的第步的第p個樣本。個樣本。

38、定義誤差平方和為:定義誤差平方和為: ppppppppkkkdkykdkk222)()(xwj(2-38)當(dāng)兩類樣本的分布不變時(統(tǒng)計(jì)意義上),當(dāng)兩類樣本的分布不變時(統(tǒng)計(jì)意義上),j(k)是是w的函數(shù)。的函數(shù)。lms學(xué)習(xí)的最學(xué)習(xí)的最陡梯度法就是以陡梯度法就是以j(k)為目標(biāo)函數(shù),尋找使得為目標(biāo)函數(shù),尋找使得j(k)最小的權(quán)值矢量最小的權(quán)值矢量w。 w(k)表示迭代學(xué)習(xí)第表示迭代學(xué)習(xí)第k步時的權(quán)值矢量,步時的權(quán)值矢量,dp(k)和和yp(k)分別為輸入學(xué)習(xí)樣分別為輸入學(xué)習(xí)樣本本xp(k) 的實(shí)際類別值的實(shí)際類別值(dp取取 +1或或 1 )和當(dāng)前神經(jīng)元的輸出和當(dāng)前神經(jīng)元的輸出(-1 yp 0,將此結(jié)果代入到,將此結(jié)果代入到(2-40),得到:,得到:0)()(102iiwkkjja此結(jié)果說明

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論