




版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領
文檔簡介
1、.1. 問題 之前我們討論的PCA、ICA也好,對樣本數據來言,可以是沒有類別標簽y的?;叵胛覀冏龌貧w時,如果特征太多,那么會產生不相關特征引入、過度擬合等問題。我們可以使用PCA來降維,但PCA沒有將類別標簽考慮進去,屬于無監(jiān)督的。 比如回到上次提出的文檔中含有“l(fā)earn”和“study”的問題,使用PCA后,也許可以將這兩個特征合并為一個,降了維度。但假設我們的類別標簽y是判斷這篇文章的topic是不是有關學習方面的。那么這兩個特征對y幾乎沒什么影響,完全可以去除。
2、160; 再舉一個例子,假設我們對一張100*100像素的圖片做人臉識別,每個像素是一個特征,那么會有10000個特征,而對應的類別標簽y僅僅是0/1值,1代表是人臉。這么多特征不僅訓練復雜,而且不必要特征對結果會帶來不可預知的影響,但我們想得到降維后的一些最佳特征(與y關系最密切的),怎么辦呢?2. 線性判別分析(二類情況) 回顧我們之前的logistic回歸方法,給定m個n維特征的訓練樣例(i從1到m),每個對應一個類標簽。我們就是要學習出參數,使得(g是sigmoid函數)。 現在
3、只考慮二值分類情況,也就是y=1或者y=0。 為了方便表示,我們先換符號重新定義問題,給定特征為d維的N個樣例,其中有個樣例屬于類別,另外個樣例屬于類別。 現在我們覺得原始特征數太多,想將d維特征降到只有一維,而又要保證類別能夠“清晰”地反映在低維數據上,也就是這一維就能決定每個樣例的類別。 我們將這個最佳的向量稱為w(d維),那么樣例x(d維)到w上的投影可以用下式來計算
4、60; 這里得到的y值不是0/1值,而是x投影到直線上的點到原點的距離。 當x是二維的,我們就是要找一條直線(方向為w)來做投影,然后尋找最能使樣本點分離的直線。如下圖: 從直觀上來看,右圖比較好,可以很好地將不同類別的樣本點分離。 接下來我們從定量的角度來找到這個最佳的w。 首先我們尋找每類樣例的均值(中心點),這里i只有兩個
5、160; 由于x到w投影后的樣本點均值為 由此可知,投影后的的均值也就是樣本中心點的投影。 什么是最佳的直線(w)呢?我們首先發(fā)現,能夠使投影后的兩類樣本中心點盡量分離的直線是好的直線,定量表示就是: J(w)越大越好。 但是只考慮J
6、(w)行不行呢?不行,看下圖 樣本點均勻分布在橢圓里,投影到橫軸x1上時能夠獲得更大的中心點間距J(w),但是由于有重疊,x1不能分離樣本點。投影到縱軸x2上,雖然J(w)較小,但是能夠分離樣本點。因此我們還需要考慮樣本點之間的方差,方差越大,樣本點越難以分離。 我們使用另外一個度量值,稱作散列值(scatter),對投影后的類求散列值,如下 從公式中可
7、以看出,只是少除以樣本數量的方差值,散列值的幾何意義是樣本點的密集程度,值越大,越分散,反之,越集中。 而我們想要的投影后的樣本點的樣子是:不同類別的樣本點越分開越好,同類的越聚集越好,也就是均值差越大越好,散列值越小越好。正好,我們可以使用J(w)和S來度量,最終的度量公式是 接下來的事就比較明顯了,我們只需尋找使J(w)最大的w即可。 先把散列值公式展開
8、; 我們定義上式中中間那部分 這個公式的樣子不就是少除以樣例數的協(xié)方差矩陣么,稱為散列矩陣(scatter matrices) 我們繼續(xù)定義 稱為Within-class scatter matrix。 那么回到上面的公式,使用替換中間部分,得 &
9、#160; 然后,我們展開分子 稱為Between-class scatter,是兩個向量的外積,雖然是個矩陣,但秩為1。 那么J(w)最終可以表示為 在我們求導之前,需要對分母進行歸一化,因為不做歸一的話,w擴大任何倍,都成立,我
10、們就無法確定w。因此我們打算令,那么加入拉格朗日乘子后,求導 其中用到了矩陣微積分,求導時可以簡單地把當做看待。 如果可逆,那么將求導后的結果兩邊都乘以,得 這個可喜的結果就是w就是矩陣的特征向量了。 這個公式稱為Fisher linear discrimination。
11、 等等,讓我們再觀察一下,發(fā)現前面的公式 那么 代入最后的特征值公式得 由于對w擴大縮小任何倍不影響結果,因此可以約去兩邊的未知常數和,得到 至此,我們只需要求出原始樣本的均值和方差就可以求出最佳
12、的方向w,這就是Fisher于1936年提出的線性判別分析。 看上面二維樣本的投影結果圖: 3. 線性判別分析(多類情況) 前面是針對只有兩個類的情況,假設類別變成多個了,那么要怎么改變,才能保證投影后類別能夠分離呢?我們之前討論的是如何將d維降到一維,現在類別多了,一維可能已經不能滿足要求。假設我們有C個類別,需要K維向量(或者叫做基向量)來做投影。 將這K維向量表示為。
13、0; 我們將樣本點在這K維向量投影后結果表示為,有以下公式成立 為了像上節(jié)一樣度量J(w),我們打算仍然從類間散列度和類內散列度來考慮。 當樣本是二維時,我們從幾何意義上考慮: 其中和與上節(jié)的意義一樣,是類別1里的樣本點相對于該類中心點的散列程度。變成類別1中心點相對于樣本中心點的協(xié)方差矩陣,
14、即類1相對于的散列程度。 為 的計算公式不變,仍然類似于類內部樣本點的協(xié)方差矩陣 需要變,原來度量的是兩個均值點的散列情況,現在度量的是每類均值點相對于樣本中心的散列情況。類似于將看作樣本點,是均值的協(xié)方差矩陣,如果某類里面的樣本點較多,那么其權重稍大,權重用Ni/N表示,但由于J(w)對倍數不敏感,因此使用Ni。
15、160; 其中 是所有樣本的均值。 上面討論的都是在投影前的公式變化,但真正的J(w)的分子分母都是在投影后計算的。下面我們看樣本點投影后的公式改變: 這兩個是第i類樣本點在某基向量上投影后的均值計算公式。
16、下面兩個是在某基向量上投影后的和 其實就是將換成了。 綜合各個投影向量(w)上的和,更新這兩個參數,得到 W是基向量矩陣,是投影后的各個類內部的散列矩陣之和,是投影后各個類中心相對于全樣本中心投影的散列矩陣之和。
17、0; 回想我們上節(jié)的公式J(w),分子是兩類中心距,分母是每個類自己的散列度。現在投影方向是多維了(好幾條直線),分子需要做一些改變,我們不是求兩兩樣本中心距之和(這個對描述類別間的分散程度沒有用),而是求每類中心相對于全樣本中心的散列度之和。 然而,最后的J(w)的形式是 由于我們得到的分子分母都是散列矩陣,要將矩陣變成實數,需要取行列式。又因為行列式的值實際上是矩陣特征值的積,一個特征值可以表示在該特征向量上的發(fā)散程度。因此我們使用行列式來計算(
18、此處我感覺有點牽強,道理不是那么有說服力)。 整個問題又回歸為求J(w)的最大值了,我們固定分母為1,然后求導,得出最后結果(我翻查了很多講義和文章,沒有找到求導的過程) 與上節(jié)得出的結論一樣 最后還歸結到了求矩陣的特征值上來了。首先求出的特征值,然后取前K個特征向量組成W矩陣即可。 注意:由于中的 秩為1
19、,因此的秩至多為C(矩陣的秩小于等于各個相加矩陣的秩的和)。由于知道了前C-1個后,最后一個可以有前面的來線性表示,因此的秩至多為C-1。那么K最大為C-1,即特征向量最多有C-1個。特征值大的對應的特征向量分割性能最好。 由于不一定是對稱陣,因此得到的K個特征向量不一定正交,這也是與PCA不同的地方。4. 實例 將3維空間上的球體樣本點投影到二維上,W1相比W2能夠獲得更好的分離效果。
20、160; PCA與LDA的降維對比: PCA選擇樣本點投影具有最大方差的方向,LDA選擇分類性能最好的方向。 LDA既然叫做線性判別分析,應該具有一定的預測功能,比如新來一個樣例x,如何確定其類別? 拿二值分來來說,我們可以將其投影到直線上,得到y(tǒng),然后看看y是否在超過某個閾值y0,超過是某一類,否則是另一類。而怎么尋找這個y0呢?
21、 看 根據中心極限定理,獨立同分布的隨機變量和符合高斯分布,然后利用極大似然估計求 然后用決策理論里的公式來尋找最佳的y0,詳情請參閱PRML。 這是一種可行但比較繁瑣的選取方法,可以看第7節(jié)(一些問題)來得到簡單的答案。5. 使用LDA的一些限制
22、 1、 LDA至多可生成C-1維子空間 LDA降維后的維度區(qū)間在1,C-1,與原始特征數n無關,對于二值分類,最多投影到1維。 2、 LDA不適合對非高斯分布樣本進行降維。 上圖中紅色區(qū)域表示一類樣本,藍色區(qū)域表示另一類,由于是2類,所以最多投影到1維上。不管在直線上怎么投影,都難使紅色點和藍色點
23、內部凝聚,類間分離。 3、 LDA在樣本分類信息依賴方差而不是均值時,效果不好。 上圖中,樣本點依靠方差信息進行分類,而不是均值信息。LDA不能夠進行有效分類,因為LDA過度依靠均值信息。 4、 LDA可能過度擬合數據。6. LDA的一些變種1、 非參數LDA 非參數LDA使用本地信息和K臨近樣本
24、點來計算,使得是全秩的,這樣我們可以抽取多余C-1個特征向量。而且投影后分離效果更好。2、 正交LDA 先找到最佳的特征向量,然后找與這個特征向量正交且最大化fisher條件的向量。這種方法也能擺脫C-1的限制。3、 一般化LDA 引入了貝葉斯風險等理論4、 核函數LDA 將特征,使用核函數來計算。7. 一些問題 上面在多值分類中使用的
25、; 是帶權重的各類樣本中心到全樣本中心的散列矩陣。如果C=2(也就是二值分類時)套用這個公式,不能夠得出在二值分類中使用的。 因此二值分類和多值分類時求得的會不同,而意義是一致的。 對于二值分類問題,令人驚奇的是最小二乘法和Fisher線性判別分析是一致的。
26、下面我們證明這個結論,并且給出第4節(jié)提出的y0值得選取問題。 回顧之前的線性回歸,給定N個d維特征的訓練樣例(i從1到N),每個對應一個類標簽。我們之前令y=0表示一類,y=1表示另一類,現在我們?yōu)榱俗C明最小二乘法和LDA的關系,我們需要做一些改變 就是將0/1做了值替換。 我們列出最小二乘法公式
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
- 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
- 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 云南省龍陵一中2025年物理高二下期末綜合測試模擬試題含解析
- 企業(yè)第一季度營銷工作計劃
- 地熱發(fā)電系統(tǒng)的智能運維與數字化轉型研究-洞察及研究
- 分析生成式人工智能對新聞工作者能力需求的影響及其應對策略
- 拇趾骨折的健康教育
- 牛肉解凍效果及蛋白氧化影響
- 前列腺出血護理課件
- 石油行業(yè)鉆井安全生產標準的制定與實施
- 上市公司治理規(guī)范與原則
- 囊性輸尿管炎個案護理
- 05-衣之鏢-輔行訣湯液經法用藥圖釋義
- LS/T 3240-2012湯圓用水磨白糯米粉
- GB/T 15298-1994電子設備用電位器第一部分:總規(guī)范
- 泥水平衡盾構簡介課件
- 新教科版六下科學4-6《生命體中的化學變化》教案
- 2023高中學業(yè)水平合格性考試歷史重點知識點歸納總結(復習必背)
- 自然指數NatureIndex(NI)收錄的68種自然科學類期刊
- 手術報告審批單
- 《專業(yè)導論光電信息科學與工程》教學大綱
- 廣東省湛江市各縣區(qū)鄉(xiāng)鎮(zhèn)行政村村莊村名明細
- 少兒美術國畫- 少兒希望 《紫藤課件》
評論
0/150
提交評論