奇異值的應(yīng)用-潛在語義索引_第1頁
奇異值的應(yīng)用-潛在語義索引_第2頁
奇異值的應(yīng)用-潛在語義索引_第3頁
奇異值的應(yīng)用-潛在語義索引_第4頁
全文預(yù)覽已結(jié)束

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

1、潛在語義索引(Latent Semantic Indexing)是一個嚴(yán)重依賴于SVD的算法,本文轉(zhuǎn)載自之前 吳軍老師數(shù)學(xué)之美和參考文獻(xiàn)機(jī)器學(xué)習(xí)中的數(shù)學(xué)匯總。在自然語言處理中,最常見的兩類的分類問題分別是,將文本按主題歸類(比如將所有介紹 亞運(yùn)會的新聞歸到體育類)和將詞匯表中的字詞按意思?xì)w類(比如將各種體育運(yùn)動的名稱個 歸成一類)。這兩種分類問題都可用通過矩陣運(yùn)算來圓滿地、同時解決。為了說明如何用矩 陣這個工具類解決這兩個問題的,讓我們先來來回顧一下我們在余弦定理和新聞分類中介紹 的方法。分類的關(guān)鍵是計(jì)算相關(guān)性。我們首先對兩個文本計(jì)算出它們的內(nèi)容詞,或者說實(shí)詞的向量, 然后求這兩個向量的夾角。

2、當(dāng)這兩個向量夾角為零時,新聞就相關(guān);當(dāng)它們垂直或者說正交 時,新聞則無關(guān)。當(dāng)然,夾角的余弦等同于向量的內(nèi)積。從理論上講,這種算法非常好。但 是計(jì)算時間特別長。通常,我們要處理的文章的數(shù)量都很大,至少在百萬篇以上,二次回標(biāo) 有非常長,比如說有五十萬個詞(包括人名地名產(chǎn)品名稱等等)。如果想通過對一百萬篇文 章兩篇兩篇地成對比較,來找出所有共同主題的文章,就要比較五千億對文章?,F(xiàn)在的計(jì)算 機(jī)一秒鐘最多可以比較一千對文章,完成這一百萬篇文章相關(guān)性比較就需要十五年時間。注 意,要真正完成文章的分類還要反復(fù)重復(fù)上述計(jì)算。在文本分類中,另一種辦法是利用矩陣運(yùn)算中的奇異值分解(Singular Value D

3、ecomposition, 簡稱SVD)。現(xiàn)在讓我們來看看奇異值分解是怎么回事。首先,我們可以用一個大矩陣A 來描述這一百萬篇文章和五十萬詞的關(guān)聯(lián)性。這個矩陣中,每一行對應(yīng)一篇文章,每一列對 應(yīng)一個詞。列的元素,是字典中第j個詞在在上面的圖中,M=l,000,000, N=500,000。第i行,第j列的元素,是字典中第j個詞在第i篇文章中出現(xiàn)的加權(quán)詞頻(比如,TF/IDF)。讀者可能已經(jīng)注意到了,這個矩陣非常大,有一百萬乘以五十萬,即五千億個元素。奇異值分解就是把上面這樣一個大矩陣,分解成三個小矩陣相乘,如下圖所示。比如把上面 的例子中的矩陣分解成一個一百萬乘以一百的矩陣X,一個一百乘以一百

4、的矩陣B,和一個 一百乘以五十萬的矩陣Y。這三個矩陣的元素總數(shù)加起來也不過1.5億,僅僅是原來的三千 分之一。相應(yīng)的存儲量和計(jì)算量都會小三個數(shù)量級以上。三個矩陣有非常清楚的物理含義。第一個矩陣X中的每一列表示一類主題,其中的每個非 零元素表示一個主題與一篇文章的相關(guān)性,數(shù)值越大越相關(guān)。最后一個矩陣Y中的每一列 表示100個關(guān)鍵詞,每個key word與500,000個詞的相關(guān)性。中間的矩陣則表示文章主題 和keyword之間的相關(guān)性。因此,我們只要對關(guān)聯(lián)矩陣A進(jìn)行一次奇異值分解,w我們就 可以同時完成了近義詞分類和文章的分類。(同時得到每類文章和每類詞的相關(guān)性)。比如降至2維(rank=2),

5、則document-term的關(guān)系可以在下面二維圖中展現(xiàn):0 60.40,200-027 d-O.e-0,4-0.20,00.2o.d0.6Dimension 2在圖上,每一個紅色的點(diǎn),都表示一個詞,每一個藍(lán)色的點(diǎn),都表示一篇文檔,這樣我們可 以對這些詞和文檔進(jìn)行聚類,比如說stock和market可以放在一類,因?yàn)樗麄兝鲜浅霈F(xiàn)在 一起,real和estate可以放在一類,dads,guide這種詞就看起來有點(diǎn)孤立了,我們就不對他 們進(jìn)行合并了。按這樣聚類出現(xiàn)的效果,可以提取文檔集合中的近義詞,這樣當(dāng)用戶檢索文 檔的時候,是用語義級別(近義詞集合)去檢索了,而不是之前的詞的級別。這樣一減少我

6、們的檢索、存儲量,因?yàn)檫@樣壓縮的文檔集合和PCA是異曲同工的,二可以提高我們的用 戶體驗(yàn),用戶輸入一個詞,我們可以在這個詞的近義詞的集合中去找,這是傳統(tǒng)的索引無法 做到的?,F(xiàn)在剩下的唯一問題,就是如何用計(jì)算機(jī)進(jìn)行奇異值分解。這時,線性代數(shù)中的許多概念, 比如矩陣的特征值等等,以及數(shù)值分析的各種算法就統(tǒng)統(tǒng)用上了。在很長時間內(nèi),奇異值分 解都無法并行處理。(雖然Google早就有了 MapReduce等并行計(jì)算的工具,但是由于奇 異值分解很難拆成不相關(guān)子運(yùn)算,即使在Google內(nèi)部以前也無法利用并行計(jì)算的優(yōu)勢來分 解矩陣。)最近,Google中國的張智威博士和幾個中國的工程師及實(shí)習(xí)生已經(jīng)實(shí)現(xiàn)了奇異 值分解的并行算法,我認(rèn)為這是Google中國對世界的一個貢獻(xiàn)。最后說說個人拙見,這里我們可以把document和term (word)中間加上一層latent semantics 項(xiàng),那么上圖中的X和Y矩陣就可以分別表示同一個latent semantics對不同document之間 的相關(guān)性和同一 latent

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論