模式識別試題及總結材料_第1頁
模式識別試題及總結材料_第2頁
模式識別試題及總結材料_第3頁
已閱讀5頁,還剩25頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

1、一、填空與選擇填空(本題答案寫在此試卷上,30分)1、 模式識別系統(tǒng)的基本構成單元包括:模式采集 、 特征提取與選擇和 模式分類。2、 統(tǒng)計模式識別中描述模式的方法一般使用特真矢量;句法模式識別中模式描述方法一般有串、樹、 網。3、聚類分析算法屬于 (1);判別域代數界面方程法屬于(3)。(1 )無監(jiān)督分類(2)有監(jiān)督分類(3)統(tǒng)計模式識別方法(4)句法模式識別方法4、若描述模式的特征量為0-1二值特征量,則一般采用(4 )進行相似性度量。(1 )距離測度(2 )模糊測度(3 )相似測度(4 )匹配測度5、下列函數可以作為聚類分析中的準則函數的有(1 )( 3 )( 4)(2)(1) -,D.

2、6、 Fisher線性判別函數的求解過程是將N維特征矢量投影在(2 ) 中進行。(1 )二維空間(2)一維空間(3) N-1維空間7、 下列判別域界面方程法中只適用于線性可分情況的算法有(1 );線性可分、不可分都適用的有(3)(1 )感知器算法(2) H-K算法(3 )積累位勢函數法(1) (A, B, 0, 1, A 01, A 0A1 ,A 1A0, BBA , B 0, A)(2 ) (A, 0, 1, A0, A 0A, A)(3) (S, a, b, S00 S, S 11 S, S00, S 11,S)(4) (A, 0, 1, A01, A0A1, A1A0, A)8、下列四元

3、組中滿足文法定義的有(1)( 2 )( 4)9、影響層次聚類算法結果的主要因素有(計算模式距離的測度、(聚類準則、類間距離門限、預定的類別數目)。10、 歐式距離具有(1、2 );馬式距離具有( 1、2、3、4)。(1)平移不變性(2)旋轉不變性(3 )尺度縮放不變性(4 )不受量綱影響的特性11、 線性判別函數的正負和數值大小的幾何意義是(正(負)表示樣本點位于判別界面法向量指向的正(負)半空間中;絕對值正比于樣本點到判別界面的距離。)。12、感知器算法 1 。(1 )只適用于線性可分的情況;(2 )線性可分、不可分都適用。13、 積累勢函數法較之于H-K算法的優(yōu)點是(該方法可用于非線性可分

4、情況(也可用于線性可分情K (x) kK(xx )況);位勢函數K(x,x k)與積累位勢函數 K(x)的關系為(Xk X)。14、 在統(tǒng)計模式分類問題中,聶曼-皮爾遜判決準則主要用于(某一種判決錯誤較另一種判決錯誤更為重要)情況;最小最大判決準則主要用于(先驗概率未知的)情況。15、 “特征個數越多越有利于分類”這種說法正確嗎?(錯誤)特征選擇的主要目的是(從n個特征中選出最有利于分類的的m個特征(m<n ),以降低特征維數)一般在( 可分性判據對特征個數具有單調性)和(Cnm>>n )的條件下,可以使用分支定界法以減少計算量。16、 散度Jij越大,說明i類模式與j類模式

5、的分布(差別越大);當i類模式與 j類模式的分布 相同時,Jij= ( 0 )。17、 已知有限狀態(tài)自動機 Af=( ,Q, ,q0,F), =0,1 ; Q=q0,q1 ; : (q0,0)= q1, (q0,1)= q1 ,(q1,0)=q0 , (q1,1)=q0 ; q0=q0 ; F=q0?,F有輸入字符串:(a) 00011101011,(b)1100110011, (c)101100111000,(d)0010011 ,試問,用Af對上述字符串進行分類的結果為(18、影響聚類算法結果的主要因素有(_)。已知類別的樣本質量;分類準則;特征選取;模式相似性測度。19、 模式識別中,馬式

6、距離較之于歐式距離的優(yōu)點是(_ )。平移不變性;旋轉不變性;尺度不變性;考慮了模式的分布。20、 基于二次準則函數的 H-K算法較之于感知器算法的優(yōu)點是(_)??梢耘袆e問題是否線性可分;其解完全適用于非線性可分的情況;其解的適應性更好;計算量小。21、 影響基本C均值算法的主要因素有( )。樣本輸入順序;模式相似性測度;聚類準則;初始類心的選取。22、 位勢函數法的積累勢函數K(x)的作用相當于Bayes判決中的(_)。先驗概率;后驗概率;類概率密度;類概率密度與先驗概率的乘積。23、 在統(tǒng)計模式分類問題中,當先驗概率未知時,可以使用(_)。最小損失準則;最小最大損失準則;最小誤判概率準則;N

7、-P判決。24、在(_)情況下,用分支定界法做特征選擇計算量相對較少。J對特Cnd>>n, (n為原特征個數,d為要選出的特征個數);樣本較多;選用的可分性判據 征數目單調不減;選用的可分性判據J具有可加性。25、散度Jd是根據()構造的可分性判據。先驗概率;后驗概率;類概率密度;信息熵;幾何距離。26、 似然函數的概型已知且為單峰,則可用(_)估計該似然函數。矩估計;最大似然估計; Bayes估計;Bayes學習;Parzen窗法。27、Kn近鄰元法較之 Parzen窗法的優(yōu)點是(_)。所需樣本數較少;穩(wěn)定性較好;分辨率較高;連續(xù)性較好。28、從分類的角度講,用 DKLT做特征提

8、取主要利用了 DKLT的性質:(_)。使變換后的矢()。變換產生的新分量正交或不相關;以部分新的分量表示原矢量均方誤差最??;量能量更趨集中;29、一般,剪輯k-NN最近鄰方法在(_)的情況下效果較好。樣本數較大;樣本數較??;樣本呈團狀分布;樣本呈鏈狀分布。30、 如果以特征向量的相關系數作為模式相似性測度,則影響聚類算法結果的主要因素有已知類別樣本質量;分類準則;特征選??;量綱。二、(15分)簡答及證明題(1)影響聚類結果的主要因素有那些?(2)證明馬氏距離是平移不變的、非奇異線性變換不變的。答:(1 )分類準則,模式相似性測度,特征量的選擇,量綱。(2)證明:(2分)(2分)(1分)(1分)

9、d2 (爲禺J =岳-引廠'尿-右)只二一7亡仗乞X爲方|1 «一養(yǎng)網t-i設,有非奇異線性變換:=右家禹-眉)隔-劇召(?謁)=厲-去y羅-號) =(爭-平)巧«禹-嗎)=(咅-防川叩4(吾-冷) 二厲-引蟲乞川廠衛(wèi)坊-弓) =例-弓y力才1叩屮昭-引-他-鬲1片匕-引(4分)=能儒引三、(8分)說明線性判別函數的正負和數值大小在分類中的意義并證明之。答:(1)(4分)日的絕對值EM正比于云到超平面趴盼。的距離/僦亍二_叫+1平面兀的方程可以寫成啊"11亍:視式中' J 1: '-' J ' ' 1 1 。于是 &

10、quot;'I是平面八的單位法矢量,上式可寫成設X是平面兀中的任一點,壬是特征空間中任一點,點于到平面門的距離為差矢量兒=在示上的投影的絕對值,即必*罰I二昨-銅H KI I畤+叫H(1-1)hll上式中利用了在平面廠中,故滿足方程視一 W“poll hll式(i-i)的分子為判別函數絕對值,上式表明,山二的值宀正比于到超平面“1的距離1 , 一個特征矢量代入判別函數后所得值的絕對值越大表明該特征點距判別界面越遠。(2)(4分):、:的正(負)反映 亍在超平面的正(負)側兩矢量叮和,的數積為(2 分)河(x-p) = |(?|? - p|cos(2,(i -動顯然,當吒和;'門

11、夾角小于二時,即兒在指向的那個半空間中, -:1 >0 ;反之,當 和,"夾角大于時,即壬在下背向的那個半空間中,八 / -: <0。由于"'',故 法(H-刃和如+%1同號。所以,當天在簸指向的半空間中時,嚀+%1沁;當云在莎背向的半 空間中,' '''。判別函數值的正負表示出特征點位于哪個半空間中,或者換句話說,表示特 征點位于界面的哪一側。五、(12分,每問4分)在目標識別中,假定有農田和裝甲車兩種類型,類型1和類型 2分別代表農田和裝甲車,它們的先驗概率分別為0.8和0.2,損失函數如表1所示?,F在做了三次

12、試驗,獲得三個樣本的類概率密度如下:】1 一 : 0.3,0.1,0.6二": '二:0.7,0.8,0.3(1)試用貝葉斯最小誤判概率準則判決三個樣本各屬于哪一個類型;(2)假定只考慮前兩種判決,試用貝葉斯最小風險準則判決三個樣本各屬于哪一類;(3)把拒絕判決考慮在內,重新考核三次試驗的結果。判決損失類型X1®21145111解:由題可知:' ,P(乃|曲)二1 P爲|蜀_ 2F(花觀)8嚴(羽|對?(1) (4分)根據貝葉斯最小誤判概率準則知:尸(西|碼)P(亞F(衍|殆).尸(碼)F(咼|碼)-尸他)LJ:, -' '1:,則可以任判&

13、quot;t:,則判為 J,;-: -'L/ ,則判為:1 ;鞏6)(務(2)(4分)由題可知:出召1?。?0(冊I眄7 ,判為叭;尸(心丨碼)壬4尸笆丨碼)7 ,判為些; 尸他丨知/F(兀I嗎)?,判為円;(3)( 4分)對于兩類問題,對于樣本-,假設2 ?':已知,有|力二久ql碼記(碼|力+衛(wèi)(吟| 訊 |力二靈側| a)P(x円碼+就円|嗎)尸(兀|眄)嚴(碼)則對于第一個樣本,5x0.2140.21驗)2x0.21,則拒判;歟劃刃二拱衛(wèi)01對=誤用礙比二聯,則拒判;P(x)尸(Q,拒判。1. 監(jiān)督學習與非監(jiān)督學習的區(qū)別:監(jiān)督學習方法用來對數據實現分類,分類規(guī)則通過訓練

14、獲得。該訓練集由帶分類號的數據集組成,因此監(jiān)督學 習方法的訓練過程是離線的。非監(jiān)督學習方法不需要單獨的離線訓練過程,也沒有帶分類號(標號)的訓練數據集,一般用來對數據集進行 分析,如聚類,確定其分布的主分量等。(實例:道路圖)就道路圖像的分割而言,監(jiān)督學習方法則先在訓練用圖像中獲取道路象素與非道路象素集,進行分類器設計,然后用所設計的分類器對道路圖像進行分割。使用非監(jiān)督學習方法,則依據道路路面象素與非道路象素之間的聚類分析進行聚類運算,以實現道路圖像的分割。2. 動態(tài)聚類是指對當前聚類通過迭代運算改善聚類;分級聚類則是將樣本個體,按相似度標準合并,隨著相似度要求的降低實現合并。3. 線性分類器

15、三種最優(yōu)準則:Fisher準則:根據兩類樣本一般類內密集,類間分離的特點,尋找線性分類器最佳的法線向量方向,使兩類樣 本在該方向上的投影滿足類內盡可能密集,類間盡可能分開。該種度量通過類內離散矩陣 Sw和類間離散矩陣Sb實現。感知準則函數:準則函數以使錯分類樣本到分界面距離之和最小為原則。其優(yōu)點是通過錯分類樣本提供的信息對分類器函數進行修正,這種準則是人工神經元網絡多層感知器的基礎。支持向量機:基本思想是在兩類線性可分條件下,所設計的分類器界面使兩類之間的間隔為最大,它的基本岀發(fā)點是使期望泛化風險盡可能小。試問“模式”與“模式類”的含義。如果一位姓王的先生是位老年人,試問“王先生”和“老頭”誰

16、是模式,誰是模式類?答:在模式識別學科中,就“模式”與“模式類”而言,模式類是一類事物的代表,概念或典型,而“模,是“老頭”的具體化。式”則是某一事物的具體體現,如“老頭”是模式類,而王先生則是“模式”二、試說明Mahalanobis 距離平方的定義,到某點的Mahalanobis 距離平方為常數的軌跡的幾何意義,它與歐氏距離的區(qū)別與聯系。答:Mahalanobis 距離的平方定義為:rJ(xai)=<x-n>T5_1(x-u)其中x,u為兩個數據,-一是一個正定對稱矩陣(一般為協(xié)方差矩陣)。根據定義,距某一點的Mahalanobis 距離相等點的軌跡是超橢球,如果是單位矩陣工,則

17、Mahalanobis 距離就是通常的歐氏距離。三、試說明用監(jiān)督學習與非監(jiān)督學習兩種方法對道路圖像中道路區(qū)域的劃分的基本做法,以說明這兩種學習方法 的定義與它們間的區(qū)別。答:監(jiān)督學習方法用來對數據實現分類,分類規(guī)則通過訓練獲得。該訓練集由帶分類號的數據集組成, 因此監(jiān)督學習方法的訓練過程是離線的。非監(jiān)督學習方法不需要單獨的離線訓練過程,也沒有帶分類號(標號)的訓練數據集,一般用來對數據 集進行分析,如聚類,確定其分布的主分量等。就道路圖像的分割而言,監(jiān)督學習方法則先在訓練用圖像中獲取道路象素與非道路象素集,進行分類器 設計,然后用所設計的分類器對道路圖像進行分割。使用非監(jiān)督學習方法,則依據道路

18、路面象素與非道路象素之間的聚類分析進行聚類運算,以實現道路圖 像的分割。四、試述動態(tài)聚類與分級聚類這兩種方法的原理與不同。答:動態(tài)聚類是指對當前聚類通過迭代運算改善聚類;分級聚類則是將樣本個體,按相似度標準合并,隨著相似度要求的降低實現合并。一0 = (o i * * h|五、如口果觀察一個時序信號時在離散時刻序列得到的觀察量序列表示為-匚,而該時序信號的內在狀態(tài)序列表示成S =。如果計算在給定 0條件下出現S的概率,試問此概率是何種概率。如果從觀察序列來估計狀態(tài)序列的最大似然估計,這與Bayes決策中基于最小錯誤率的決策有什么關系。答:在給定觀察序列11 !條件下分析它由某個狀態(tài)序列S產生的

19、概率似后驗概率,寫成P(S|O),而通過0求對狀態(tài)序列的最大似然估計,與貝葉斯決策的最小錯誤率決策相當。1 1/211/2 1六、已知一組數據的協(xié)方差矩陣為 I/,試問1. 協(xié)方差矩陣中各元素的含義。2 .求該數組的兩個主分量。3. 主分量分析或稱K-L變換,它的最佳準則是什么?4. 為什么說經主分量分析后,消除了各分量之間的相關性。答:協(xié)方差矩陣為I丿,則1 )對角元素是各分量的方差,非對角元素是各分量之間的協(xié)方差。-1/212)主分量,通過求協(xié)方差矩陣的特征值,用-1/2二,則相應的特征向量為:1,對應特征向量為,對應 丿這兩個特征向量即為主分量。3) K-L變換的最佳準則為:對一組數據進

20、行按一組正交基分解,在只取相同數量分量的條件下,以均方誤差計算截尾誤差最小。4)在經主分量分解后,協(xié)方差矩陣成為對角矩陣,因而各主分量間相關消除。七、試說明以下問題求解是基于監(jiān)督學習或是非監(jiān)督學習:1. 求數據集的主分量2. 漢字識別3. 自組織特征映射4. CT圖像的分割答:1、求數據集的主分量是非監(jiān)督學習方法;2、漢字識別對待識別字符加上相應類別號一一有監(jiān)督學習方法;3、自組織特征映射一一將高維數組按保留近似度向低維映射一一非監(jiān)督學習;4、CT圖像分割一一按數據自然分布聚類一一非監(jiān)督學習方法;八、試列舉線性分類器中最著名的三種最佳準則以及它們各自的原理答:線性分類器三種最優(yōu)準則:Fishe

21、r準則:根據兩類樣本一般類內密集,類間分離的特點,尋找線性分類器最佳的法線向量方向,使兩類樣本在該方向上的投影滿足類內盡可能密集,類間盡可能分開。該種度量通過類內離散矩陣 Sw和類間離散矩陣 Sb實現。感知準則函數:準則函數以使錯分類樣本到分界面距離之和最小為原則。其優(yōu)點是通過錯分類樣本提供的信息對分類器函數進行修正,這種準則是人工神經元網絡多層感知器的基礎。支持向量機:基本思想是在兩類線性可分條件下,所設計的分類器界面使兩類之間的間隔為最大,它的基本出發(fā)點是使期望泛化風險盡可能小。九、在一兩維特征空間,兩類決策域由兩條直線H1和H2分界,其中- 2 = 0:* 2 = 0而包含H1與H2的銳

22、角部分為第一類,其余為第二類。 試求:1 .用一雙層感知器構造該分類器2用凹函數的并構造該分類器答:按題意要求1) H1與H2將空間劃分成四個部分,按使H1與H2大于零與小于零表示成四個區(qū)域, 而第一類屬于(目 1 : -z, -+ 2=0+1+)區(qū)域,為方便起見,令-1 亠則第一類在(+)區(qū)域。用雙層感知器,神經元用域值,則在第一類樣本輸入時,兩隱層結點的輸岀均為+1,其余則分別為(+ ),( (+),故可按圖設置域值。否則-0.5X1X22)用凹函數的并表示:呼門跨或表示成P譏叭H憶呼),如.:,則十、設有兩類正態(tài)分布的樣本基于最小錯誤率的貝葉斯決策分界面,分別為X2=0,以及X1 =3,

23、其中兩類的協(xié)方差矩陣 1- ,先驗概率相等,并且有1 -1-1 11 2丿試求:工廠答:設待求'以及rab由于'- I -,先驗概率相等。則基于最小錯誤率的 Bayes決策規(guī)則,在兩類決策面分界面上的樣本X應滿足(X-旳)丁苓遼-旳)-(咒-出)T君(X-九)(1)-114口 1其中按題意21(注:為方便起見,在下面計算中先去掉系數4/3)按題意分界面由x仁3及x2=0兩條直線構成,則分界面方程為j .1.;一 對(1)式進行分解有XT寄】X-拿;2啦4幷沖1(V -瑁必- 彗-心寫)X十得(3) 由(3)式第一項得117 211/2 1abXjO-a) +2x1Ka(l/2-

24、b) + xl-c):)(4)將(4)式與(2)式對比可知a=1,c=1又由c=1與1 I -,得b2=1/4 , b有兩種可能,即 b=1/2 或b=-1/2如果b=1/2,則表明,此時分界面方程應為線性,與題意不符,只有b=-1/2則(4)式為:2X1X2( 5)將相應結果帶入(3)式第二項有11/211嚴24-如_舟畑廠忸十畑)(:11 1/2V2則結合(5)( 2)應有一幻嚴如廠o2畑臨2,則(7)1+? o-Mil 2+=3(6)罵-II-1/21J1 1/211/2 1由得九、證明在工正定或半正定時,Mahalanobis 距離r符合距離定義的三個條件,即(1)r(a,b)=r(b

25、,a)(2 )當且僅當a=b時,有r(a,b)=0(3) r(a,c) wr(a,b)+r(b,c)證明:0 0 7o A,且所有特根據定義"八_' - - /,:/> =由于工為對稱陣,故工可以分解為一亠-,其中 征值大于等于零??梢哉J為= (a -h)rTTl( - h)=(a -占F F LfDPa - b) (DP(a - Q)r DP -町這就變?yōu)榱藗鹘y(tǒng)意義上的歐氏距離,可以由歐氏距離滿足的性質直接證明本命題。十、對一副道路圖像,希望把道路部分劃分出來,可以采用以下兩種方法:1 在該圖像中分別在道路部分與非道路部分畫出一個窗口,把在這兩個窗口中的象素數據作為訓

26、練集,用Fisher準則方法求得分類器參數,再用該分類器對整幅圖進行分類。2 將整幅圖的每個象素的屬性記錄在一張數據表中,然后用某種方法將這些數據按它們的自然分布狀況劃分成兩類。因此每個象素就分別得到相應的類別號,從而實現了道 路圖像的分割。試問以上兩種方法哪一種是監(jiān)督學習,哪個是非監(jiān)督學習?答:第一種方法中標記了兩類樣本的標號, 需要人手工干預訓練過程,屬于監(jiān)督學習方法;第二種方法只是依照數據的自然分布,把它們劃分成兩類,屬于非監(jiān)督學習方法。1、已知有兩類數據,分別為rol: (b 0), (2, 0)> (L 1) l 10)*( 0- l )r C 11 I )試求:該組數據的類內

27、及類間離散矩陣及二答:第一類的均值向量為16-51-5V653631十二、設一個二維空間中的兩類樣本服從正態(tài)分布,其參數分別為:先驗概率p(«i)=pC«J試證明:其基于最小錯誤率的貝葉斯決策分界面方程為一圓,并求其方程。證明:先驗概率相等條件下,基于最小錯誤率貝葉斯決策的分界面上兩類條件概率密度函數相等。因此有:冷(K-幻)號廠劃)-討耳|(無1)2 +xj =|(x)+l)a +xj +出4UlIU八(髙-3) * .r? = 8 + 21n 4 口 人廠叢、工口 化簡為1,是一個圓的萬程。十三、試分析五種常用決策規(guī)則思想方法的異同。答、五種常用決策是:1. 基于最小錯

28、誤率的貝葉斯決策,利用概率論中的貝葉斯公式,得出使得錯誤率最小 的分類規(guī)則。2. 基于最小風險的貝葉斯決策,弓I入了損失函數,得出使決策風險最小的分類。當在0-1損失函數條件下,基于最小風險的貝葉斯決策變成基于最小錯誤率的貝葉斯決AA:3. 在限定一類錯誤率條件下使另一類錯誤率最小的兩類別決策。4. 最大最小決策:類先驗概率未知,考察先驗概率變化對錯誤率的影響,找出使最小貝葉斯奉獻最大的先驗概率,以這種最壞情況設計分類器。5. 序貫分類方法,除了考慮分類造成的損失外,還考慮特征獲取造成的代價,先用一 部分特征分類,然后逐步加入性特征以減少分類損失,同時平衡總的損失,以求得 最有效益。十四、假設

29、在某個地區(qū)細胞識別中正常(W1)和異常(W2)兩類先驗概率分別為 P(wi)=0.9,P(W2)=0.1,現有一待識別的細胞,其觀察值為X,從類條件概率密度分布曲線上查得 P(x w1)0.2, P(xw2)0.4,并且已知 110,126,211,220試對該細胞x用一下兩種方法進行分類:1. 基于最小錯誤率的貝葉斯決策;2. 基于最小風險的貝葉斯決策;請分析兩種結果的異同及原因。答:1.解:利用貝葉斷公式,分別計算出3及氣的J&驗概率” Dd(叫)0.2X0.9_鞏納hi真_G2XO9 + 04Z1-X1R?i 幼)尸 wFt亦耳)=1 一戶仙jt:nQL&2根據処葉斯決策

30、規(guī)則式(24,有尸(的 x) -0- 818>P<wj 1x1-0-182所以介理的決黃是把X歸類于正常狀態(tài)°2.解:已知臬件為Pg) = (X I (x|«h)=0> 4A|j = 6人竝=np (氣 m=(). 182F57 / 扒龍|勧)=0*Ali = Gi«11根IS 1聳計箕結果可知后驗概率為 (cu-|x) = 0*81«,再卄算出條卉以陸R(a x) = VA1?P(w x)=九尸(叫 |jt) L 092;-iR(商 j / 2割F| j!=C* 816由于RS|jr)AKg| J刃決障為5的妹件險力于決策為約此條件鳳

31、險,百此我們采取決策抒動”,即判斷恃說 別的御腮上為叫類一異常細胞.將1與2 WXlK-ft分類納果正好相反這是因為這里影響決策結果的因素又多了即損矢S而衛(wèi)湘類鬱滾決策所逍成詢殞失用菱很祛犢”聞此樣換炎就起了主導作用.十五、既然有線性判別函數,為什么還要引進非線性判別函數?試分析由 “線性判別函數” 向“非線性判別函數”推廣的思想和方法。答:實際中有很多模式識別問題并不是線性可分的,這時就需要采用非線性分類器,比如 當兩類樣本分不具有多峰性質并互相交錯時,簡單的線性判別函數往往會帶來較大的分類 錯誤。這時,樹分類器作為一種分段線性分類器,常常能有效地應用于這種情況。十六、1.什么是特征選擇?2

32、.什么是Fisher線性判別?答:1.特征選擇就是從一組特征中挑選出一些最有效的特征以達到降低特征空間維數的目 的。2. Fisher線性判別:可以考慮把d維空間的樣本投影到一條直線上,形成一維空間,即把維數壓縮到一維,這在數學上容易辦到,然而,即使樣本在d維空間里形成若干緊湊的互相分得開的集群,如果把它們投影到一條任意的直線上,也可能使得幾類樣本混在一 起而變得無法識別。但是在一般情況下,總可以找到某個方向,使得在這個方向的直線上, 樣本的投影能分開得最好。問題是如何根據實際情況找到這條最好的、最易于分類的投影 線,這就是Fisher算法所要解決的基本問題。十七、寫出兩類和多類情況下最小風險

33、貝葉斯決策判別函數和決策面方程。兩類別問題;判別函數gl(X)= AupCll) +i12P(tn2lX) g2(x) =4-la3p(<a2|x)決策面方程半gl W = g3(K)(:類別問題;判別函數C爲(刃=三入lP(3j|町,i =)=1決策面方程:gj(x) = gj(x), i j i=l,山 j = 1," tc十八、請論述模式識別系統(tǒng)的主要組成部分及其設計流程,并簡述各組成部分中特征空間常用方法的主要思想。信號空間信息獲?。和ㄟ^測量、采樣和量化,可以用矩陣或向量表示二維圖像或以為波形。預處理:去除噪聲,加強有用的信息,并對輸入測量儀器或其他因素造成的退化現象進

34、 行復原。特征選擇和提?。簽榱擞行У貙崿F分類識別,就要對原始數據進行變換,得到最能反映 分類本質的特征。分類決策:在特征空間中用統(tǒng)計方法把識別對象歸為某一類。十九、有兩類樣本集1T2T3T4TXi0,0,0,Xi1,0,0,Xi1,0,1,Xi1,1,01T2T3T4X20,0,1,x20,1,0,x20,1,1,x21,1,11. 用K-L變換求其二維特征空間,并求出其特征空間的坐標軸;2. 使用Fisher線性判別方法給出這兩類樣本的分類面。(1)2Exxt-144-其對應的本征值和木征向量為:J_曲2.732.V5 -Z-訴±衣三慮02-代-L石yfi a/3V3-Z11對應的坐標gIIIr3q414/ ni2 =1-4-43-43-31S"右 1 3Li -11-136w* = Sv;1(ni1 - m2) = -666丁所以判別函數為;g(x)= -6 x + 3.一6-二十、定性說明基于參數方法和非參數方法的概率密度估計有什么區(qū)別?答:基于參數方法:是由已知類別的樣本集對總體分布的某些參數進行統(tǒng)計推斷非參數方法:

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論