張量子空間人臉識(shí)別算法研究_第1頁(yè)
張量子空間人臉識(shí)別算法研究_第2頁(yè)
張量子空間人臉識(shí)別算法研究_第3頁(yè)
張量子空間人臉識(shí)別算法研究_第4頁(yè)
張量子空間人臉識(shí)別算法研究_第5頁(yè)
已閱讀5頁(yè),還剩78頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

張量子空間人臉識(shí)別算法研究第一頁(yè),共83頁(yè)。內(nèi)容一、研究背景和意義二、融合小波變換和張量PCA的人臉識(shí)別算法三、利用粒子群優(yōu)化的人臉特征提取優(yōu)化識(shí)別算法四、張量局部和全局信息投影人臉識(shí)別算法五、空間光滑流形最大值和最小值保持人臉識(shí)別算法

六、總結(jié)和展望第二頁(yè),共83頁(yè)。一、人臉識(shí)別的意義和主要內(nèi)容人臉識(shí)別的意義:

人臉圖像識(shí)別簡(jiǎn)稱為人臉識(shí)別。人臉識(shí)別具有廣泛的應(yīng)用前景。在國(guó)家安全、軍事安全和公共安全等領(lǐng)域具有重要的應(yīng)用價(jià)值。

第三頁(yè),共83頁(yè)。人臉識(shí)別的內(nèi)容:(1)人臉檢測(cè)(FaceDetection);(2)人臉表征(FaceRepresentation);(3)人臉識(shí)別(FaceRecognition);(4)表情和姿態(tài)分析;(5)生理分類。第四頁(yè),共83頁(yè)。圖1.1人臉檢測(cè)第五頁(yè),共83頁(yè)。圖1.2人臉表征(特征提?。┑诹?yè),共83頁(yè)。圖1.3人臉識(shí)別第七頁(yè),共83頁(yè)。圖1.4表情分析第八頁(yè),共83頁(yè)。圖1.5年齡識(shí)別第九頁(yè),共83頁(yè)。目前人臉識(shí)別的難點(diǎn):

人臉圖像在采集過程中受到很多不確定因素的影響,并且人臉圖像本身就具有模式的多樣性,所以目前的人臉識(shí)別算法與實(shí)際應(yīng)用還有較大的差距。目前市場(chǎng)上人臉識(shí)別產(chǎn)品都是工作在較為理想的狀態(tài)下。如果采集設(shè)備現(xiàn)場(chǎng)光照條件不理想?;蛴龅酱R(shí)別對(duì)象的惡意干擾,這些設(shè)備會(huì)誤識(shí)或拒識(shí)。第十頁(yè),共83頁(yè)。本文的研究目的和內(nèi)容:

本文旨在所研究的人臉識(shí)別的“特征提取”和“人臉識(shí)別”兩個(gè)方面的內(nèi)容,獲得新的算法,提高算法在數(shù)據(jù)庫(kù)上的識(shí)別率。本文提出了幾種人臉識(shí)別新算法。具體的方法包括:(1)融合小波變換和張量PCA的人臉識(shí)別;(2)利用粒子群優(yōu)化的人臉特征提取優(yōu)化識(shí)別;(3)基于張量局部和全局信息的人臉識(shí)別;(4)空間光滑流形最大值和最小值保持人臉識(shí)別。

第十一頁(yè),共83頁(yè)。二、融合小波變換和張量PCA的

人臉識(shí)別2.1算法提出的背景:

小波變換有良好的時(shí)頻局部化能力,同時(shí)還能起到降維的作用。張量PCA方法是在張量空間中對(duì)數(shù)據(jù)做PCA分析,能直接對(duì)原始圖像做特征提取,而不用把圖像展開成向量,能更多地利用原始圖像的空間幾何結(jié)構(gòu)信息。綜合利用小波和張量PCA算法的優(yōu)點(diǎn),本文提出了一種新的人臉識(shí)別算法:融合小波變換和張量PCA的人臉識(shí)別算法。

第十二頁(yè),共83頁(yè)。2.2算法步驟:(1)對(duì)人臉圖像采用小波變換做預(yù)處理得到四個(gè)子帶圖像;(2)對(duì)每個(gè)子帶圖像用張量PCA進(jìn)行特征提取;(3)融合這些特征實(shí)現(xiàn)人臉圖像的識(shí)別。

第十三頁(yè),共83頁(yè)。

二維離散小波變換待識(shí)別圖像二維離散小波變換LL子圖LH子圖HL子圖HH子圖張量PCA張量PCA張量PCA張量PCA待識(shí)別圖像特征最近鄰分類器訓(xùn)練樣本圖像LL子圖LH子圖HL子圖HH子圖張量PCA張量PCA張量PCA張量PCA訓(xùn)練樣本特征集合識(shí)別結(jié)果

圖2.1第十四頁(yè),共83頁(yè)。2.3Bior3.5小波

實(shí)驗(yàn)表明,當(dāng)采用一種雙正交小波“Bior3.5”小波做預(yù)處理時(shí),識(shí)別率最高。雙正交(Biorthogonal)函數(shù)系的主要特征體現(xiàn)在具有線性相位性,它主要應(yīng)用在信號(hào)與圖像的重構(gòu)中[14]。其特點(diǎn)是采用一個(gè)函數(shù)進(jìn)行分解,用另外一個(gè)小波函數(shù)進(jìn)行重構(gòu)。能有效地解決對(duì)稱性和重構(gòu)的精確性的矛盾。第十五頁(yè),共83頁(yè)。第十六頁(yè),共83頁(yè)。圖2.2Bior3.5小波第十七頁(yè),共83頁(yè)。2.4張量PCA

假設(shè)一個(gè)圖像矩陣為,用二階張量PCA方法對(duì)矩陣進(jìn)行特征提取就是要得到兩個(gè)投影矩陣和,把投影到低維矩陣子空間:(2-1)兩個(gè)投影矩陣和的最佳解是通過計(jì)算和的最小重構(gòu)平方誤差而得到。,的最優(yōu)解和,之間的關(guān)系如下:(2-2)為矩陣的Frobenius范數(shù)。

第十八頁(yè),共83頁(yè)。本文提出的計(jì)算投影矩陣的具體迭代過程如下:輸入:樣本集合,最大化迭代次數(shù):。輸出:投影矩陣,初始化設(shè)置:,。(表示單位矩陣),當(dāng)時(shí)和別為和的單位陣;,,和中的所有元素全為“0”。

第十九頁(yè),共83頁(yè)。

計(jì)算的均值矩陣:;計(jì)算的協(xié)方差矩陣:;

計(jì)算的特征值和特征向量:,的前個(gè)最大特征值組成的對(duì)角陣為這些特征值對(duì)應(yīng)的特征向量組成的矩陣;第二十頁(yè),共83頁(yè)。

;計(jì)算的均值矩陣:;計(jì)算的協(xié)方差矩陣:;計(jì)算的特征值和特征向量:,為的前個(gè)特最大征值組成的對(duì)角陣,為這些特征值對(duì)應(yīng)的特征向量成的矩陣;第二十一頁(yè),共83頁(yè)。2.5最近鄰識(shí)別

假設(shè)用表示訓(xùn)練樣本集中某一幅圖像,用表示測(cè)試樣本集中的某一幅圖像,對(duì)于每一個(gè)經(jīng)過“二維離散小波變換”得到四個(gè)子圖,再經(jīng)過“張量PCA”特征提取后得到四個(gè)特征矩陣:,,,;所有的訓(xùn)練樣本圖像經(jīng)過上述變換后得到的四個(gè)特征矩陣一起構(gòu)成了“訓(xùn)練樣本特征集合”對(duì)于某個(gè)也要經(jīng)過“二維離散小波變換”和“張量PCA”特征提取后得到四個(gè)特征陣:,,,,這四個(gè)矩陣為“待識(shí)別圖像特征”。第二十二頁(yè),共83頁(yè)。本文采用下面的公式來計(jì)算測(cè)試樣本特征矩陣和訓(xùn)練樣本特征矩陣之間的距離:(2-3)式(2-3)中的算子的計(jì)算方法如下:假設(shè),,

(2-4)

第二十三頁(yè),共83頁(yè)。2.6實(shí)驗(yàn)與分析

采用三種人臉圖像數(shù)據(jù)庫(kù)進(jìn)行實(shí)驗(yàn),這三種數(shù)據(jù)庫(kù)分別是:“”,“”和“自建庫(kù)”?!癘RL”庫(kù)是一種常用的人臉實(shí)驗(yàn)數(shù)據(jù)庫(kù)。它由40個(gè)人,每個(gè)人10幅灰度人臉正面圖像組成?!癠MIST”庫(kù)由20個(gè)人的從不同角度拍攝的人臉灰度圖像組成,每個(gè)人的圖像數(shù)目不同,本文選取每個(gè)人的前16張圖像進(jìn)行實(shí)驗(yàn)?!白越◣?kù)”是由11個(gè)人組成,每個(gè)人6幅的人臉正面灰度圖像組成。第二十四頁(yè),共83頁(yè)。圖2.2ORL庫(kù)中某個(gè)人的所有人臉圖像

第二十五頁(yè),共83頁(yè)。圖2.3UMIST庫(kù)中某個(gè)人的全部人臉圖像第二十六頁(yè),共83頁(yè)。圖2.4自建庫(kù)中某個(gè)人的全部人臉圖像

第二十七頁(yè),共83頁(yè)。

為了驗(yàn)證本文提出的算法的有效性,本文和張量PCA方法,以及PCA方法進(jìn)行比較,實(shí)驗(yàn)具體結(jié)果分別如表2.1、表2.2、表2.3中所列。第二十八頁(yè),共83頁(yè)。

表2.1在ORL庫(kù)上的實(shí)驗(yàn)結(jié)果比較方法

每個(gè)類別訓(xùn)練樣本數(shù)達(dá)到最高識(shí)別率時(shí)對(duì)應(yīng)的特征維數(shù)正確識(shí)別率每個(gè)樣本平均識(shí)別時(shí)間(毫秒)融合小波變換和張量PCA的方法*23560×460×460×490.0625%92.5%96%8.91431.7張量PCA方法23568644887.8125%89.2857%94.5%20.7532.7057.42PCA方法2356910718382.5%86.0714%90.5%1.436.7

第二十九頁(yè),共83頁(yè)。

表2.2在UMIST庫(kù)上的實(shí)驗(yàn)結(jié)果比較

方法每個(gè)類別訓(xùn)練樣本數(shù)達(dá)到最高識(shí)別率時(shí)對(duì)應(yīng)的特征維數(shù)正確識(shí)別率每個(gè)樣本平均識(shí)別時(shí)間(毫秒)融合小波變換和張量PCA的方法*45834×433×433×478.75%79.09%88.125%8.91431.7張量PCA方法45860767272.5%76.8%84.375%20.7532.7057.42PCA

方法45851546264.147%67.727%72.5%1.436.7

第三十頁(yè),共83頁(yè)。

表2.3在自建庫(kù)上的實(shí)驗(yàn)結(jié)果比較方法每個(gè)類別訓(xùn)練樣本數(shù)達(dá)到最高識(shí)別率時(shí)對(duì)應(yīng)的特征維數(shù)正確識(shí)別率每個(gè)樣本平均識(shí)別時(shí)間(毫秒)融合小波變換和張量PCA的方法*342×478.79%17.3張量PCA方法313372.73%58.5PCA方法33266.66%31.24

第三十一頁(yè),共83頁(yè)。三、利用粒子群優(yōu)化的人臉特征提取優(yōu)化識(shí)別算法

3.1算法提出背景:

第二部分介紹了本文提出融合小波變換和張量PCA方法的人臉圖像特征提取方法。在后來的研究中發(fā)現(xiàn),如果對(duì)這些特征的每一維元素進(jìn)行權(quán)值確定,會(huì)進(jìn)一步提高識(shí)別率。而采用粒子群優(yōu)化算法(PSO)可以很好地確定權(quán)值。

因此,提出了首先用小波和張量PCA方法對(duì)人臉圖像進(jìn)行特征提取,然后再用PSO方法對(duì)已經(jīng)得到的特征進(jìn)行權(quán)值確定的人臉識(shí)別方法。第三十二頁(yè),共83頁(yè)。3.2算法描述

(1)以表示訓(xùn)練樣本集中的某一幅圖像,對(duì)經(jīng)過小波和張量PCA變換后得到的訓(xùn)練樣本圖像特征;(2)采用粒子群優(yōu)化算法(PSO)以聚類正確率為PSO的適應(yīng)度函數(shù),對(duì)進(jìn)行聚類得到最優(yōu)權(quán)值。(3)以表示測(cè)試樣本集中的某一幅圖像,對(duì)進(jìn)行小波和張量PCA的特征提取得到。(4)對(duì)訓(xùn)練樣本和測(cè)試樣本分別得到和。(5)采用最近鄰識(shí)別。

第三十三頁(yè),共83頁(yè)。3.3最近鄰識(shí)別訓(xùn)練樣本圖像特征矩陣與測(cè)試樣本圖像特征矩陣之間的距離為(3-1)(3-1)中的計(jì)算方法如下:假設(shè),,則有(3-2)根據(jù)式(3-2)采用最近鄰方法便可進(jìn)行識(shí)別。第三十四頁(yè),共83頁(yè)。3.4實(shí)驗(yàn)與分析

本文在ORL、UMIST和自建庫(kù)上進(jìn)行了對(duì)比實(shí)驗(yàn),對(duì)比的算法包括:融合小波變換和張量PCA的人臉識(shí)別算法(算法1)、張量PCA算法(算法2)、結(jié)合小波變換和張量的PCA算法(算法3)實(shí)驗(yàn)環(huán)境:IBMR51e筆記本電腦。編程語(yǔ)言:MATLAB7.4。第三十五頁(yè),共83頁(yè)。3.4.1ORL庫(kù)上的實(shí)驗(yàn)

從每個(gè)人中隨機(jī)選取5幅或8幅圖像組成訓(xùn)練樣本集,余下的圖像作為測(cè)試樣本集。實(shí)驗(yàn)重復(fù)進(jìn)行10次,最后的識(shí)別率為10次實(shí)驗(yàn)結(jié)果的平均值,如表3.1所示。

表3.1ORL庫(kù)上不同算法的識(shí)別率比較算法每個(gè)類別訓(xùn)練樣本數(shù)特征維數(shù)識(shí)別率/%算法15814×63×1096.7399.63算法2584×25×793.3097.25算法3585×1115×793.7598.83第三十六頁(yè),共83頁(yè)。3.4.2

UMIST庫(kù)上的實(shí)驗(yàn)取每個(gè)人前20幅圖像進(jìn)行實(shí)驗(yàn)。所選取的圖像歸一化為112×92。隨機(jī)選取前20幅圖像中10或16幅進(jìn)行訓(xùn)練,余下的作為測(cè)試,重復(fù)10次實(shí)驗(yàn),最終識(shí)別率為10次實(shí)驗(yàn)平均值。

表3.2UMIST庫(kù)上不同算法的識(shí)別率比較

算法每個(gè)類別訓(xùn)練樣本數(shù)特征維數(shù)識(shí)別率/%算法1101615×210×588.5399.50算法210168×312×375.7595.02算法310164×62×1080.2596.7第三十七頁(yè),共83頁(yè)。3.4.3自建庫(kù)上的實(shí)驗(yàn)對(duì)自建庫(kù)本文采用2折交叉驗(yàn)證算法進(jìn)行實(shí)驗(yàn),結(jié)果如表3.3所示。

表3.3自建庫(kù)上算法的識(shí)別率實(shí)驗(yàn)結(jié)果算法每個(gè)類別訓(xùn)練樣本數(shù)特征維數(shù)識(shí)別率/%算法134×4987.87算法235×1081.80算法337×983.33第三十八頁(yè),共83頁(yè)。四、張量局部和全局信息投影4.1算法背景:

傳統(tǒng)的張量子空間人臉識(shí)別算法沒有同時(shí)利用人臉數(shù)據(jù)的類內(nèi)和類間非線性流形結(jié)構(gòu),所以得到的數(shù)據(jù)分類能力不強(qiáng)。為此,本文提出了一種新的張量子空間算法,即張量局部和全局信息投影算法(TLGP)。該算法具有新的數(shù)據(jù)投影目標(biāo)函數(shù),使得投影后的特征具有很強(qiáng)的分類能力。第三十九頁(yè),共83頁(yè)。4.2投影目標(biāo)函數(shù)4.2.1數(shù)據(jù)的類內(nèi)和類間關(guān)系圖矩陣構(gòu)造:(4-1)

(4-2)

第四十頁(yè),共83頁(yè)。

(4-1)式描述了數(shù)據(jù)的局部信息即數(shù)據(jù)的類內(nèi)(局部)非線性流形結(jié)構(gòu),而(4-2)式描述了數(shù)據(jù)的類間信息,即數(shù)據(jù)的全局信息。因?yàn)橥活悢?shù)據(jù)的分布服從某種特定的低維流形結(jié)構(gòu),所以采用(4-1)式描述。而一般情況下類間數(shù)據(jù)的數(shù)量遠(yuǎn)高于類內(nèi)數(shù)據(jù)的數(shù)量,所以類間數(shù)據(jù)比類內(nèi)數(shù)據(jù)更接近高斯分布,故可以采用(4-2)式描述。第四十一頁(yè),共83頁(yè)。4.2.2數(shù)據(jù)投影后的目標(biāo)函數(shù)當(dāng)和被映射到時(shí),得到和。希望得到的任意映射和它對(duì)應(yīng)的所有同類樣本映射的距離之和最小,并且保持類內(nèi)流形結(jié)構(gòu)即局部流形結(jié)構(gòu);同時(shí)和它對(duì)應(yīng)的所有異類樣本的距離之和最大。于是構(gòu)造下面兩個(gè)目標(biāo)函數(shù):(4-3)(4-4)第四十二頁(yè),共83頁(yè)。為了同時(shí)滿足(4-3)式和(4-4)式,構(gòu)造出如下目標(biāo)函數(shù):

(4-5)第四十三頁(yè),共83頁(yè)。4.3投影矩陣求解推導(dǎo)

對(duì)和按列求和并對(duì)角化可以得到對(duì)角矩陣和,則,;又因?yàn)?,所以可以得到?/p>

(4-6)第四十四頁(yè),共83頁(yè)。

(4-7)第四十五頁(yè),共83頁(yè)??傻玫角蠼釻的目標(biāo)函數(shù)為:

(4-8)同理可得到求解V的目標(biāo)函數(shù)為:

(4-9)第四十六頁(yè),共83頁(yè)。

和分別滿足下面兩式的求解方程:(4-10)

(4-11)第四十七頁(yè),共83頁(yè)。4.4實(shí)驗(yàn)結(jié)果與分析

實(shí)驗(yàn)選用的人臉數(shù)據(jù)庫(kù)為“ORL”、“YALE[71]”,“PIE[72]”。實(shí)驗(yàn)所用的圖像首先進(jìn)行預(yù)處理,首先使所有圖像的左眼和右眼的中心位置縱坐標(biāo)相同;然后將所有圖像裁減并縮放到

。第四十八頁(yè),共83頁(yè)。圖4.1經(jīng)過預(yù)處理后的“ORL”庫(kù)圖像第四十九頁(yè),共83頁(yè)。圖4.2

經(jīng)過預(yù)處理后的“Yale”庫(kù)中的所有圖像

第五十頁(yè),共83頁(yè)。圖4.3“PIE”庫(kù)中經(jīng)過預(yù)處理后的部分圖像第五十一頁(yè),共83頁(yè)。4.4.1在“ORL”庫(kù)上的實(shí)驗(yàn)結(jié)果

從“ORL”庫(kù)每個(gè)人中隨機(jī)抽取4或6幅圖像作為訓(xùn)練樣本其余的圖像作為測(cè)試樣本,分別以“4Train”和“6Train”表示,重復(fù)實(shí)驗(yàn)10次。最后給出的識(shí)別率為10次實(shí)驗(yàn)的平均值。第五十二頁(yè),共83頁(yè)。

表4.1ORL庫(kù)的實(shí)驗(yàn)最高平均識(shí)別率算法4Train6TrainTLDA[58]

91.75%(39)96.43%(82)TMFA[58]

93.5%(71)97.32%(42)TLDP93.25%(105)97.75%(143)TSA[27]

94.3%(101)98.2%(77)TNPE92.96%(94)96.87%(102)TLGP95.75%(70)98.57%(64)第五十三頁(yè),共83頁(yè)。第五十四頁(yè),共83頁(yè)。圖4.4ORL庫(kù)識(shí)別率曲線圖

第五十五頁(yè),共83頁(yè)。4.4.2在“Yale”庫(kù)上的實(shí)驗(yàn)結(jié)果

從“Yale”庫(kù)每個(gè)人中隨機(jī)抽取4或6幅圖像作為訓(xùn)練樣本其余的圖像作為測(cè)試樣本,分別以“4Train”和“6Train”表示,重復(fù)實(shí)驗(yàn)10次。最后給出的識(shí)別率為10次實(shí)驗(yàn)的平均值。第五十六頁(yè),共83頁(yè)。

表4.2Yale庫(kù)的實(shí)驗(yàn)最高平均識(shí)別率算法4Train6TrainTLDA65.7%(44)72.1%(45)TMFA63.9%(180)72.3%(76)TLDP64.6%(189)72.5%(58)TSA64.1%(50)73.4%(33)TNPE64.8%(51)73.2%(54)TLGP66.67%(39)74%(27)第五十七頁(yè),共83頁(yè)。第五十八頁(yè),共83頁(yè)。圖4.5Yale庫(kù)識(shí)別率曲線圖第五十九頁(yè),共83頁(yè)。4.4.3在“PIE”庫(kù)上的實(shí)驗(yàn)結(jié)果“PIE”庫(kù)人臉庫(kù)包含68個(gè)人,其中第38個(gè)人有165幅圖像,而其他人有170個(gè)圖像。這個(gè)庫(kù)中的圖像數(shù)量較多,所以只選取前50個(gè)人,每個(gè)人中隨機(jī)選取80幅圖像進(jìn)行實(shí)驗(yàn)。然后從每個(gè)人已經(jīng)選取的圖像中隨機(jī)抽取40幅圖像作為訓(xùn)練樣本其余的圖像作為測(cè)試樣本,以“40Train”表示,重復(fù)實(shí)驗(yàn)10次。最后給出的識(shí)別率為10次實(shí)驗(yàn)的平均值。第六十頁(yè),共83頁(yè)。

表4.3PIE庫(kù)的實(shí)驗(yàn)最高平均識(shí)別率算法40TrainTLDA91.95%(52)TMFA90.25%(112)TLDP91.47%(88)TSA90.2%(101)TNPE91.2%(112)TLGP93.2%(100)第六十一頁(yè),共83頁(yè)。圖4.6PIE庫(kù)識(shí)別率曲線圖第六十二頁(yè),共83頁(yè)。五、空間光滑流形最大值和最小值

保持人臉識(shí)別算法

5.1算法背景:人臉圖像的像素之間的空間關(guān)系決定了基函數(shù)的值是空間光滑的,例如,如果原始圖像之間的像素是離得較近的,那么基函數(shù)中相應(yīng)的值也應(yīng)該是較為接近的。但是,基于張量子空間的算法不能保證這一條件,基于張量子空間的基函數(shù)可能依然是空間非光滑的。而空間光滑約束解決了這一問題[73]。現(xiàn)有的子空間流形學(xué)習(xí)算法也沒有充分的利用原始數(shù)據(jù)的流形結(jié)構(gòu)。為此本文提出了一種構(gòu)造數(shù)據(jù)的關(guān)系圖矩陣的方法,在空間光滑約束的約束下得到了兩種空間光滑流形最大值和最小值保持算法。第六十三頁(yè),共83頁(yè)。5.2空間光滑約束令代表特定的定義域上的函數(shù),定義域?yàn)?。相?yīng)的作用在上的“拉普拉斯”算子可定義如下[79]:(5-1)拉普拉斯懲罰函數(shù),定義為,具體的定義如下:(5-2)度量了函數(shù)在定義域上的光滑性。第六十四頁(yè),共83頁(yè)。

一個(gè)的人臉圖像可以被展開成一個(gè)的向量:。令是通過某種向量子空間方法得到的基向量(投影函數(shù))。為了不失普適性,也可以被認(rèn)為是定義在網(wǎng)格上的函數(shù)。對(duì)于人臉圖像,其定義域?yàn)橐粋€(gè)二維的矩形區(qū)域,這樣一來,采取來定義就比較方便。一個(gè)定義在區(qū)域上的網(wǎng)格可定義如下:令,這里,,由一系列的二維向量構(gòu)成,并且。在這個(gè)網(wǎng)格上共有個(gè)柵格點(diǎn)。第六十五頁(yè),共83頁(yè)。令表示一個(gè)的矩陣以產(chǎn)生的離散化近似。因此,如果是函數(shù)經(jīng)離散化得到的一個(gè)維的向量,那么將有下面的特性:

(5-3)對(duì)于,有很多種方法來確定[80]。

第六十六頁(yè),共83頁(yè)。本文采用文獻(xiàn)[73]的方法來確定。

(5-4)第六十七頁(yè),共83頁(yè)。

對(duì)于一個(gè)特定的,一個(gè)二維的拉普拉斯的算子的離散化近似是一個(gè)的矩陣:(5-5)為的單位矩陣。對(duì)于一個(gè)維的向量,容易驗(yàn)證,正比于的矩陣形式下的各個(gè)元素附近元素平方誤差的和。所以可以用來衡量在網(wǎng)格上的光滑性。第六十八頁(yè),共83頁(yè)。

設(shè)為通過某種子空間方法所求的投影矩陣,把子空間方法和“Laplacian”懲罰函數(shù)檢驗(yàn)光滑性結(jié)合起來就得到了空間光滑子空間學(xué)習(xí)(SSSL)的目標(biāo)函數(shù)為:

(5-6)式(5-6)中,用以控制光滑的估計(jì)度[73]。表示原始樣本向量集合,和表示按照某種子空間學(xué)習(xí)理論定義的數(shù)據(jù)流形結(jié)構(gòu)矩陣。(5-6)式中的定義為:(5-7)第六十九頁(yè),共83頁(yè)。5.3空間光滑流形最大值和最小值保持(5-8)(5-9)

第七十頁(yè),共83頁(yè)。

(5-10)(5-11)(5-12)第七十一頁(yè),共83頁(yè)。

(5-13)(5-14)(5-15)(5-16)第七十二頁(yè),共83頁(yè)。

(5-17)(5-18)(5-19)

(5-20)第七十三頁(yè),共83頁(yè)。5.4實(shí)驗(yàn)結(jié)果與分析

實(shí)驗(yàn)數(shù)據(jù)庫(kù):“ORL”,“Yale”。對(duì)比實(shí)驗(yàn)算法:S-NPE,S-LPP,S-LDA,

S-MFA[73];

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論