川大模式識別考試復(fù)習(xí)題_第1頁
川大模式識別考試復(fù)習(xí)題_第2頁
川大模式識別考試復(fù)習(xí)題_第3頁
全文預(yù)覽已結(jié)束

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

簡答題什么是模式與模式識別?模式:對象之間存在的規(guī)律性關(guān)系;模式識別:是研究用計算機(jī)來實現(xiàn)人類模式識別能力的一門學(xué)科。/*模式:廣義地說,模式是一些供模仿用的、完美無缺的標(biāo)本。本課程把所見到的具體事物稱為模式,而將它們歸屬的類別稱為模式類。模式的直觀特性:可觀察性,可區(qū)分性,相似性模式識別:指對表征事物或現(xiàn)象的各種形式的(數(shù)值的、文字的和邏輯關(guān)系的)信息進(jìn)行處理和分析,以對事物或現(xiàn)象進(jìn)行描述、識別、分類和解釋的過程。*/一個典型的模式識別系統(tǒng)主要由哪幾個局部組成什么是后驗概率?系統(tǒng)在某個具體的模式樣本X條件下位于某種類型的概率。確定線性分類器的主要步驟①采集訓(xùn)練樣本,構(gòu)成訓(xùn)練樣本集。樣本應(yīng)該具有典型性②確定一個準(zhǔn)那么J=J(w,x),能反映分類器性能,且存在權(quán)值w*使得分類器性能最優(yōu)③設(shè)計求解w的最優(yōu)算法,得到解向量w*樣本集推斷總體概率分布的方法近鄰法的根本思想是什么?作為一種分段線性判別函數(shù)的極端情況,將各類中全部樣本都作為代表點,這樣的決策方法就是近鄰法的根本思想。什么是K近鄰法?取未知樣本x的k個近鄰,看這k個近鄰中多數(shù)屬于哪一類,就把x歸為哪一類。監(jiān)督學(xué)習(xí)與非監(jiān)督學(xué)習(xí)的區(qū)別利用已經(jīng)標(biāo)定類別的樣本集進(jìn)行分類器設(shè)計的方法稱為監(jiān)督學(xué)習(xí)。很多情況下無法預(yù)先知道樣本的類別,從沒有標(biāo)記的樣本集開始進(jìn)行分類器設(shè)計,這就是非監(jiān)督學(xué)習(xí)。/*監(jiān)督學(xué)習(xí):對數(shù)據(jù)實現(xiàn)分類,分類規(guī)那么通過訓(xùn)練獲得。該訓(xùn)練集由帶分類號的數(shù)據(jù)集組成,因此監(jiān)督學(xué)習(xí)方法的訓(xùn)練過程是離線的。非監(jiān)督學(xué)習(xí)方法不需要單獨的離線訓(xùn)練過程,也沒有帶分類號的訓(xùn)練數(shù)據(jù)集,一般用來對數(shù)據(jù)集進(jìn)行分析。如聚類,確定其分布的主分量等。*/什么是誤差平方和準(zhǔn)那么?對于一個給定的聚類,均值向量是最能代表聚類中所有樣本的一個向量,也稱其為聚類中心。一個好的聚類方法應(yīng)能使集合中的所有向量與這個均值向量的誤差的長度平方和最小。分級聚類算法的2種根本途徑是什么按事物的相似性,或內(nèi)在聯(lián)系組織起來,組成有層次的結(jié)構(gòu),使得本質(zhì)上最接近的劃為一類,然后把相近的類再合并,依次類推,這就是分級聚類算法的根本思想。聚合法:把所有樣本各自看為一類,逐級聚合成一類。根本思路是根據(jù)類間相似性大小逐級聚合,每級只把相似性最大的兩類聚合成一類,最終把所有樣本聚合為一類。分解法:把所有樣本看做一類,逐級分解為每個樣本一類。特征抽取與特征選擇的區(qū)別?特征抽?。涸继卣鞯臄?shù)量可能很大,或者樣本處于一個高維空間中,通過映射〔或變換〕的方法可以用低維空間來表示樣本,這個過程叫特征抽取。所謂特征抽取在廣義上就是指一種變換。特征選擇:從一組特征中挑選出一些最有效的特征以到達(dá)降低特征空間維數(shù)的目的,這個過程叫特征選擇。特征抽取是通過變換的方法組合原始高維特征,獲得一組低維的新特征,而特征選擇是根據(jù)專家的經(jīng)驗知識或根據(jù)某種評價準(zhǔn)那么來挑選出那些對分類最有影響力的特征,并未形成新的特征。什么是最優(yōu)搜素算法?最優(yōu)搜索算法:至今能得到最優(yōu)解的唯一快速算法是“分支定界〞算法。屬于自上而下的算法,具有回溯功能。由于合理地組織搜索過程,使得有可能防止計算某些特征組合而不影響結(jié)果為最優(yōu)。12統(tǒng)計學(xué)習(xí)理論的核心問題統(tǒng)計學(xué)習(xí)理論被認(rèn)為是目前針對小樣本統(tǒng)計估計和預(yù)測學(xué)習(xí)的最正確理論。主要內(nèi)容包括4個方面:〔1〕經(jīng)驗風(fēng)險最小化原那么下統(tǒng)計學(xué)習(xí)一致性的條件〔2〕在這些條件下關(guān)于統(tǒng)計學(xué)習(xí)方法推廣性的界的結(jié)論〔3〕在這些界的根底上建立的小樣本歸納推理原那么〔4〕實現(xiàn)這些新的原那么的實際方法13什么是支持向量機(jī)?支持向量機(jī):在統(tǒng)計學(xué)習(xí)理論根底上開展出的識別方法,在解決小樣本、非線性及高維模式識別問題中表現(xiàn)出其優(yōu)勢。問答題描述貝葉斯公式及其主要作用利用最大似然估計方法對單變量正太分布函數(shù)來估計其均值U和方差答案見P543.請詳細(xì)寫出感知器訓(xùn)練算法步驟請詳細(xì)寫出Fisher算法實現(xiàn)步驟什么是兩分剪輯近鄰法和壓縮近鄰法6.請詳細(xì)介紹初始聚類中心的選擇方法請描述K均值聚類算法8.什么是離散K-L變換以及離散有限K-L展開 離散K-L變換又稱主成分分析〔PCA〕,是一種基于目標(biāo)統(tǒng)計特性的最正確正交變換,被廣泛應(yīng)用于數(shù)據(jù)壓縮、特征降維等方面。一個非周期性隨機(jī)過程用具有互不相關(guān)系數(shù)的正交函數(shù)的級數(shù)展開。K-L展開式就是這樣一種展開方法。9.必考:針對某個識別對象設(shè)計自己的模式識別系統(tǒng),并表達(dá)各步驟主要工作計算題1、在圖像識別中,假定有灌木和坦克2種類型,它們的先驗概率分別是0.7和0.3,損失函數(shù)如下表所示。其中,類型w1和w2分別表示灌木和坦克,判決a1=w1,a2=w2?,F(xiàn)在做了2次實驗,獲得2個樣本的類概率密度如下:w1w2a10.52a241.0試用最小錯誤率貝葉斯準(zhǔn)那么判決2個樣本各屬于哪一類?試用最小風(fēng)險決策規(guī)那么判決2個樣本各屬于哪一類?〔1〕最小錯誤率貝葉斯準(zhǔn)那么〔2〕最小風(fēng)險決策規(guī)那么2、兩類的訓(xùn)練樣本:w1(0,0)T,(0,2)T;w2(2,0)T,(2,2)T,試用最小平方誤差準(zhǔn)那么算法進(jìn)行分類器訓(xùn)練,求解向量w*。3、歐氏二維空間中兩類9個訓(xùn)練樣本w1:(-1,0)T,(-2,0)T,(-2,1)T,(-2,-1)Tw2:(1,1)T,(2,0)T,(1,-1)T,(2,1)T,(2,2)T試分別用最近鄰法和K近鄰法求測試樣本(0,0)T的分類,取K=5,7。4、兩類的數(shù)據(jù):w1:(1,

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論