信息檢索11-語(yǔ)言模型_第1頁(yè)
信息檢索11-語(yǔ)言模型_第2頁(yè)
信息檢索11-語(yǔ)言模型_第3頁(yè)
信息檢索11-語(yǔ)言模型_第4頁(yè)
信息檢索11-語(yǔ)言模型_第5頁(yè)
已閱讀5頁(yè),還剩60頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

第12講基于語(yǔ)言建模的IR模型LanguageModelsforIR2017/10/172021/6/271提綱

上一講回顧

語(yǔ)言模型

基于統(tǒng)計(jì)建模的IR模型

SLMIR模型討論2021/6/272提綱

上一講回顧

語(yǔ)言模型

基于統(tǒng)計(jì)建模的IR模型

SLMIR模型討論2021/6/273概率檢索模型概率檢索模型是通過(guò)概率的方法將查詢和文檔聯(lián)系起來(lái)定義3個(gè)隨機(jī)變量R、Q、D:相關(guān)度R={0,1},查詢Q={q1,q2,…},文檔D={d1,d2,…},則可以通過(guò)計(jì)算條件概率P(R=1|Q=q,D=d)來(lái)度量文檔和查詢的相關(guān)度。概率模型包括一系列模型,如LogisticRegression(回歸)模型及最經(jīng)典的二值獨(dú)立概率模型BIM、BM25模型等等(還有貝葉斯網(wǎng)絡(luò)模型)。1998出現(xiàn)的基于統(tǒng)計(jì)語(yǔ)言建模的信息檢索模型本質(zhì)上也是概率模型的一種。2021/6/274概率排序原理(PRP)簡(jiǎn)單地說(shuō):如果文檔按照與查詢的相關(guān)概率大小返回,那么該返回結(jié)果是所有可能獲得結(jié)果中效果最好的。嚴(yán)格地說(shuō):如果文檔按照與查詢的相關(guān)概率大小返回,而這些相關(guān)概率又能夠基于已知數(shù)據(jù)進(jìn)行盡可能精確的估計(jì),那么該返回結(jié)果是所有基于已知數(shù)據(jù)獲得的可能的結(jié)果中效果最好的。2021/6/275幾種概率檢索模型基于Logistic回歸的檢索模型經(jīng)典的二值獨(dú)立概率模型BIM經(jīng)典的BM25模型(BestMatch25)2021/6/276Logistic回歸IR模型基本思想:為了求Q和D相關(guān)的概率P(R=1|Q,D),通過(guò)定義多個(gè)特征函數(shù)fi(Q,D),認(rèn)為P(R=1|Q,D)是這些函數(shù)的組合。Cooper等人提出一種做法*:定義log(P/(1-P))為多個(gè)特征函數(shù)的線性組合。則P是一個(gè)Logistic函數(shù),即:*WilliamS.Cooper,FredricC.Gey,DanielP.Dabney,Probabilisticretrievalbasedonstagedlogisticregression,ProceedingsofACMSIGIR'92,p.198-210,June21-24,1992,Copenhagen,Denmark2021/6/277BIM模型(續(xù))對(duì)每個(gè)Q定義排序(Ranking)函數(shù)RSV(Q,D):其中,P(D|R=1)、P(D|R=0)分別表示在相關(guān)和不相關(guān)情況下生成D的概率。Ranking函數(shù)顯然是隨著P(R=1|D)的增長(zhǎng)而增長(zhǎng)。2021/6/278兩種常用的文檔生成的總體分布多元貝努利分布(Multi-variateBernoullidistribution)詞項(xiàng)詞典大小為M,M個(gè)不規(guī)則硬幣分別對(duì)應(yīng)M個(gè)詞項(xiàng),第i個(gè)硬幣朝上的概率為pi假設(shè)M=4(四個(gè)詞項(xiàng)分別為Iyoucanfly),p1=0.7,p2=0.4,p3=0.1,p4=0.05則:P(Icanflyfly)=0.7*(1-0.4)*0.1*0.05多元貝努利分布不考慮出現(xiàn)位置多元貝努利分布考慮出現(xiàn)和不出現(xiàn)2021/6/279兩種常用的文檔生成的總體分布(續(xù))多項(xiàng)式分布(Multinomialdistribution)詞項(xiàng)大小為M,某個(gè)不規(guī)則骰子共有M個(gè)面,每個(gè)面對(duì)應(yīng)一個(gè)詞項(xiàng)(假設(shè)每次拋擲必有某個(gè)面穩(wěn)定朝上或下),第i個(gè)面朝上的概率為pi假定M=4(四個(gè)詞項(xiàng)分別為Iyoucanfly),p1=0.4,p2=0.3,p3=0.2,p4=0.1則:P(Icanflyfly)=P(X1=1,X2=0,X3=1,X4=2)=C*0.4*0.2*0.1*0.1其中C==12多項(xiàng)式分布考慮詞項(xiàng)的多次出現(xiàn)多項(xiàng)式分布不考慮詞項(xiàng)的不出現(xiàn)多項(xiàng)式分布同樣不考慮詞項(xiàng)的出現(xiàn)位置和次序2021/6/2710BIM模型(續(xù))將D看成,于是注:P(ti|R=1)表示在相關(guān)情況下,ti出現(xiàn)在文檔中的概率(也就是說(shuō)某個(gè)、或者某幾個(gè)P(ti|R=1)可以為1),注意:不是在相關(guān)文檔集合中出現(xiàn)的概率,因此所有P(ti|R=1)的總和不為1。這個(gè)可以和前面拋硬幣的過(guò)程對(duì)照一下就明白了。2021/6/2711piqi參數(shù)的計(jì)算ri(35)ni-ri(165)Ri-ri(65)N-Ri-ni+ri(235)相關(guān)Ri(100)不相關(guān)N-Ri(400)包含tini(200)不包含tiN-ni(300)引入平滑因子其中,N、ni分別是總文檔以及包含ti的文檔數(shù)目。Ri、ri分別是相關(guān)文檔及相關(guān)文檔中包含ti的文檔數(shù)目。括號(hào)中列舉的數(shù)值是給出的一個(gè)總文檔數(shù)目為500的計(jì)算例子。則:理想情況下,可以將整個(gè)文檔集合根據(jù)是否和查詢相關(guān)、是否包含ti分成如下四個(gè)子集合,每個(gè)集合的大小已知。2021/6/2712piqi參數(shù)的計(jì)算(續(xù))由于真實(shí)情況下,對(duì)于每個(gè)查詢,無(wú)法事先得到相關(guān)文檔集和不相關(guān)文檔集,所以無(wú)法使用理想情況下的公式計(jì)算,因此必須進(jìn)行估計(jì)有多種估計(jì)方法初始檢索:第一次檢索之前的估計(jì)基于檢索結(jié)果:根據(jù)上次檢索的結(jié)果進(jìn)行估計(jì)2021/6/2713piqi參數(shù)的計(jì)算(續(xù))初始情況:檢索初始并沒(méi)有相關(guān)和不相關(guān)文檔集合,此時(shí)可以進(jìn)行假設(shè):pi是常數(shù),qi近似等于termi在所有文檔集合中的分布(假定相關(guān)文檔很少,Ri=ri=0)IDF因此,BIM在初始假設(shè)情況下,其檢索公式實(shí)際上相當(dāng)于對(duì)所有同時(shí)出現(xiàn)在q和d中的term的IDF的求和2021/6/2714OkapiBM25:一個(gè)非二值模型2021/6/2715本講內(nèi)容(統(tǒng)計(jì))語(yǔ)言模型基于統(tǒng)計(jì)語(yǔ)言建模的IR模型(基本)查詢似然模型一些擴(kuò)展的模型2021/6/2716提綱

上一講回顧

語(yǔ)言模型

基于統(tǒng)計(jì)建模的IR模型

SLMIR模型討論2021/6/2717統(tǒng)計(jì)語(yǔ)言模型(StatisticalLanguageModeling,SLM)SLM廣泛使用于語(yǔ)音識(shí)別和統(tǒng)計(jì)機(jī)器翻譯領(lǐng)域,利用概率統(tǒng)計(jì)理論研究語(yǔ)言。規(guī)則方法:詞、句、篇章的生成比如滿足某些規(guī)則,不滿足該規(guī)則就不應(yīng)存在。統(tǒng)計(jì)方法:任何語(yǔ)言片斷都有存在的可能,只是可能性大小不同對(duì)于一個(gè)文檔片段d=w1w2…wn,統(tǒng)計(jì)語(yǔ)言模型是指概率P(w1w2…wn)求解,根據(jù)Bayes公式,有歷史(history)無(wú)歷史,一元模型最近一個(gè)歷史,二元模型(Bigram)最近N-1個(gè)歷史,N元模型(N-gram)2021/6/2718類比:打撲克中的出牌策略只根據(jù)當(dāng)前牌出牌,一元模型;根據(jù)上一輪牌出牌,二元模型;……2021/6/2719不同模型的例子一元模型(unigram):二元模型(bigram):一階馬爾科夫鏈三元模型(trigram):對(duì)于n-gram,n越大,則模型越復(fù)雜,估計(jì)的參數(shù)(即估計(jì)的概率)也越多。當(dāng)然,當(dāng)數(shù)據(jù)量足夠大的情況下,模型階數(shù)越高越對(duì)片段概率的計(jì)算也越準(zhǔn)確。2021/6/2720課堂思考設(shè)詞典大小為M

,試估計(jì)N元模型要估計(jì)的參數(shù)(概率)空間大小。估計(jì)的參數(shù)數(shù)目為:M+M2+…+MN=(MN+1-M)/(M-1)假定M=1000,N=4,則需要估計(jì)約1012=1萬(wàn)億個(gè)參數(shù),參數(shù)空間巨大!2021/6/2721SLM的一個(gè)應(yīng)用例子拼音輸入法(以下例子中將字看成語(yǔ)言單位):輸入zhongguokexueyuan,到底是:種過(guò)科雪園?重果可薛原?還是中國(guó)科學(xué)院?……一種利用SLM的解決思路:計(jì)算P(種過(guò)科雪園)P(重果可薛原)P(中國(guó)科學(xué)院),看誰(shuí)大!(為簡(jiǎn)單起見(jiàn),這里計(jì)算沒(méi)有考慮拼音,實(shí)際上是計(jì)算P(種過(guò)科雪園|zhongguokexueyuan))一元模型(Unigram)*:P(種過(guò)科雪園)=P(種)P(過(guò))P(科)P(雪)P(園)P(重果可薛原)=P(重)P(果)P(可)P(薛)P(原)P(中國(guó)科學(xué)院)=P(中)P(國(guó))P(科)P(學(xué))P(院)訓(xùn)練:在訓(xùn)練語(yǔ)料庫(kù)中估計(jì)以上各P(X)的值課堂思考:一元模型存在的問(wèn)題?2021/6/2722SLM的一個(gè)應(yīng)用例子(續(xù))二元模型(Bigram):P(中國(guó)科學(xué)院)=P(中)P(國(guó)|中)P(科|國(guó))P(學(xué)|科)P(院|學(xué)),等價(jià)于一階馬爾科夫鏈(MarkovChain)三元模型(Trigram):P(中國(guó)科學(xué)院)=P(中)P(國(guó)|中)P(科|中國(guó))P(學(xué)|國(guó)科)P(院|科學(xué))根據(jù)語(yǔ)料,估計(jì)所使用模型的參數(shù),然后在搜索空間中搜索概率最大的語(yǔ)言片段。以下經(jīng)允許,借用了丁國(guó)棟博士的部分報(bào)告2021/6/2723SLM的參數(shù)估計(jì)理論上說(shuō),在數(shù)據(jù)充足的情況下,利用更多的歷史(高階)的模型更準(zhǔn)確,但是總計(jì)算量也越大數(shù)據(jù)規(guī)??偸怯邢薜?,即用于訓(xùn)練模型參數(shù)的語(yǔ)料存在稀疏性(DataSparseness,即某參數(shù)在訓(xùn)練語(yǔ)料中沒(méi)有出現(xiàn))問(wèn)題。如二元模型中,在訓(xùn)練語(yǔ)料中恰巧沒(méi)有出現(xiàn)“國(guó)科”組合。2021/6/2724數(shù)據(jù)稀疏性數(shù)據(jù)稀疏性導(dǎo)致零概率問(wèn)題,上述稀疏性情況下,如果直接計(jì)算,那么P(中國(guó)科學(xué)院)=0,但是在訓(xùn)練集上不出現(xiàn)的事件并不代表在新的語(yǔ)料上不出現(xiàn)。SLM的一個(gè)重要工作就是進(jìn)行平滑(Smoothing):重新分配概率,即使沒(méi)出現(xiàn)的事件也會(huì)賦予一個(gè)概率。2021/6/272526另一個(gè)角度看語(yǔ)言模型

我們可以把一個(gè)有窮狀態(tài)自動(dòng)機(jī)(finitestateautomaton)看成一個(gè)確定性語(yǔ)言模型(deterministiclanguage)

上述模型可以生成片段“I

wishIwishIwishIwish...”

但是不能生成片段“wishIwish”或“IwishI”

如果上述自動(dòng)機(jī)是帶有概率的,則是概率語(yǔ)言模型(probabilisticLM,也稱統(tǒng)計(jì)語(yǔ)言模型SLM)2021/6/272627一個(gè)概率語(yǔ)言模型的例子

單狀態(tài)概率有窮狀態(tài)自動(dòng)機(jī)—一元語(yǔ)言模型—狀態(tài)發(fā)射概率分布如右表。其中STOP不是詞,而是表示自動(dòng)機(jī)結(jié)束的一個(gè)標(biāo)識(shí)符。這樣,概率

P(frogsaidthattoadlikesfrogSTOP)=0.01·0.03·0.04·0.01·0.02·0.01·0.02 =0.00000000000482021/6/272728兩個(gè)不同的語(yǔ)言模型

string=frogsaidthattoadlikesfrogSTOP

P(string|Md1

)=0.01·0.03·0.04·0.01·0.02·0.01·0.02=0.0000000000048=4.8·10-12 P(string|Md2

)=0.01·0.03·0.05·0.02·0.02·0.01·0.02=0.0000000000120=12·10-12P(string|Md1

)<

P(string|Md2

)

因此,相對(duì)于d1,文檔

d2

與字符串“frogsaidthattoadlikesfrogSTOP”更相關(guān)

2021/6/2728統(tǒng)計(jì)語(yǔ)言建模IR模型(SLMIR)馬薩諸塞大學(xué)(UniversityofMassachusetts,UMass)大學(xué)Ponte、Croft等人于1998年提出。隨后又發(fā)展了出了一系列基于SLM的模型。代表系統(tǒng)Lemur。查詢似然模型:把相關(guān)度看成是每篇文檔對(duì)應(yīng)的語(yǔ)言下生成該查詢的可能性翻譯模型:假設(shè)查詢經(jīng)過(guò)某個(gè)噪聲信道變形成某篇文章,則由文檔還原成該查詢的概率(翻譯模型)可以視為相關(guān)度KL距離模型:查詢對(duì)應(yīng)某種語(yǔ)言,每篇文檔對(duì)應(yīng)某種語(yǔ)言,查詢語(yǔ)言和文檔語(yǔ)言的KL距離作為相關(guān)度度量本講義主要介紹查詢似然模型2021/6/2729從一個(gè)問(wèn)題開(kāi)始課堂思考題:設(shè)有N個(gè)作者,每人都有一篇文章,對(duì)于不在上述N篇文章中的一篇新文檔Q,請(qǐng)問(wèn)最有可能是哪個(gè)作者寫(xiě)的?一個(gè)解決思路:根據(jù)每個(gè)作者寫(xiě)的文章,總結(jié)出每個(gè)作者的寫(xiě)作風(fēng)格,然后再根據(jù)寫(xiě)作風(fēng)格來(lái)判斷Q與誰(shuí)的風(fēng)格最近。2021/6/2730和檢索的類比新文章Q作者1的文章作者2的文章作者N的文章...查詢Q文檔D文檔模型MD2021/6/2731總體分布&抽樣文檔的模型(風(fēng)格)實(shí)際上是某種總體分布文檔和查詢都是該總體分布下的一個(gè)抽樣樣本實(shí)例根據(jù)文檔,估計(jì)文檔的模型,即求出該總體分布(一般假設(shè)某種總體分布,然后求出其參數(shù))然后計(jì)算該總體分布下抽樣出查詢的概率2021/6/2732查詢似然模型(QueryLikelihoodModel)模型推導(dǎo):文檔D的先驗(yàn)分布P(D)假定為均勻分布,則這一項(xiàng)可以去掉。P(D)也可以采用某個(gè)與查詢無(wú)關(guān)的量,如PageRank。QLM中不考慮這一項(xiàng)。2021/6/2733查詢似然模型QLMQLM計(jì)算公式于是檢索問(wèn)題轉(zhuǎn)化為估計(jì)文檔D的一元語(yǔ)言模型MD,也即求所有詞項(xiàng)

w的概率P(w|MD)2021/6/2734QLM概念理解QLM中P(Q|D)本質(zhì)上是P(Q|MD),不能把P(Q|D)稱為文檔D生成查詢Q的概率文檔D和Q都是某個(gè)總體分布的樣本(實(shí)例),樣本(實(shí)例)是不會(huì)產(chǎn)生樣本(實(shí)例)的樣本是不會(huì)再生成其他東西的,樣本只能用來(lái)推斷總體的某些信息,比如總體的某些未知參數(shù)(通過(guò)一篇文章來(lái)推斷作者的風(fēng)格)同樣,不能把P(w|MD)或P(w|D)理解為“w在文檔D中的概率”2021/6/2735QLM求解步驟第一步:根據(jù)文檔D(樣本),估計(jì)文檔模型MD(總體),在一元模型下,即計(jì)算所有詞項(xiàng)

w的概率P(w|MD)第二步:計(jì)算在模型MD下生成查詢Q的似然(即概率)第三步:按照得分對(duì)所有文檔排序2021/6/2736MD的估計(jì)問(wèn)題:已知樣本D,求其模型MD的參數(shù)P(w|MD)。對(duì)于該參數(shù)估計(jì)問(wèn)題,可以采用最大似然估計(jì)(MaximumLikelihoodEstimation,MLE)。MLE:使得觀察樣本出現(xiàn)概率(似然)最大的估計(jì)。一射擊世界冠軍和一菜鳥(niǎo)打靶,其中一人放一槍得到10環(huán),請(qǐng)問(wèn)是誰(shuí)打的?顯然世界冠軍打的可能性大,也就是說(shuō)這是使得10環(huán)這個(gè)事件出現(xiàn)概率最大的估計(jì)。2021/6/2737MD的MLE估計(jì)設(shè)詞項(xiàng)詞典的大小為L(zhǎng),則模型MD的參數(shù)可以記為:MLE估計(jì):關(guān)鍵是如何求,也就是說(shuō)假設(shè)這些參數(shù)已知的情況下,如何求上述概率。2021/6/2738總體分布MD的假設(shè)兩種文本生成模型:多元貝努利模型(概率模型BIM中使用):D是拋L個(gè)(L是詞項(xiàng)詞典的大小)不同的硬幣生成的,每個(gè)硬幣對(duì)應(yīng)一個(gè)詞項(xiàng),統(tǒng)計(jì)所有向上的硬幣對(duì)應(yīng)的詞項(xiàng)便生成文本D。多元貝努利模型中的參數(shù)是每個(gè)硬幣朝上的概率,共有L個(gè)。多項(xiàng)式模型:D是拋1個(gè)L面的骰子拋|D|次生成的,將每次朝上的那面對(duì)應(yīng)的詞項(xiàng)集合起來(lái)便生成文本D。QLM在1998年提出時(shí)采用的是多元貝努利模型,后來(lái)才有人用多項(xiàng)式模型并發(fā)現(xiàn)多項(xiàng)式模型通常優(yōu)于貝努利模型。所以后來(lái)介紹QLM時(shí)大都用多項(xiàng)式模型。2021/6/2739文本生成的多項(xiàng)式模型有一個(gè)L個(gè)面的不規(guī)則骰子,在第i個(gè)面上寫(xiě)著wi,,文檔D=d1d2…dn可以認(rèn)為是拋n次骰子得到的檢索過(guò)程就是根據(jù)觀察樣本D的估計(jì)Q的生成概率,即在已知拋n次的結(jié)果為文檔D的條件下,拋m次的結(jié)果為查詢Q的概率P(Q|MD)=?D=(c(w1,D),c(w2,D),…,c(wL,D)),c(wi,D)是文檔D中wi的出現(xiàn)次數(shù)D=我喜歡基于統(tǒng)計(jì)語(yǔ)言模型的信息檢索模型D=(<我,1>,<喜歡,1>,<基于,1>,<統(tǒng)計(jì),1>,<語(yǔ)言,1>,<模型,2>,<的,1>,<信息,1>,<檢索,1>)2021/6/2740多項(xiàng)隨機(jī)試驗(yàn)多項(xiàng)(Multinomial)隨機(jī)試驗(yàn)是二項(xiàng)隨機(jī)試驗(yàn)(貝努利試驗(yàn))的擴(kuò)展,一篇文檔D可以看成多項(xiàng)隨機(jī)試驗(yàn)的結(jié)果多項(xiàng)隨機(jī)試驗(yàn)由n次相互獨(dú)立的子試驗(yàn)組成每個(gè)子試驗(yàn)含有L個(gè)互斥且完備的可能結(jié)果w1,w2,…,wL。如果L=2則是n重貝努利試驗(yàn),對(duì)應(yīng)二項(xiàng)分布B(n,p):P(X=k)=每個(gè)子試驗(yàn)中wi發(fā)生的概率不變,記為2021/6/2741多項(xiàng)隨機(jī)試驗(yàn)(續(xù))設(shè)隨機(jī)變量X1,X2,…,XL用于記錄n次子試驗(yàn)中w1,w2,…,wL的發(fā)生次數(shù),實(shí)際記錄值為x1,x2,…,xL,x1+x2+…+xL=n,如果某個(gè)wi不出現(xiàn),則對(duì)應(yīng)的xi=0則該多項(xiàng)隨機(jī)試驗(yàn)中w1,w2,…,wL發(fā)生次數(shù)的聯(lián)合分布是一個(gè)多項(xiàng)式分布:2021/6/2742MD的參數(shù)求解求解條件極值問(wèn)題,采用拉格朗日法求解,得到拉格朗日函數(shù):對(duì)每個(gè)θi求偏導(dǎo),令其為0,解得:2021/6/2743一個(gè)MLE估計(jì)的例子D=(<我,1>,<喜歡,1>,<基于,1>,<統(tǒng)計(jì),1>,<語(yǔ)言,1>,<模型,2>,<的,1>,<信息,1>,<檢索,1>)采用MLE估計(jì)有:

P(我|MD)=P(喜歡|MD)=P(基于|MD)=P(統(tǒng)計(jì)|MD)=P(語(yǔ)言|MD)=P(的|MD)=P(信息|MD)=P(檢索|MD)=0.1P(模型|MD)=0.2

其他詞項(xiàng)的概率為02021/6/2744MLE估計(jì)的零概率問(wèn)題對(duì)于任意不屬于D的詞項(xiàng),其概率的MLE估計(jì)值為0(數(shù)據(jù)的稀疏性)。然而,樣本D中不出現(xiàn)的詞,并不代表在新文本中不出現(xiàn)。類比:作者寫(xiě)的一篇文章里面不用某個(gè)詞,并不代表以后不用這個(gè)詞2021/6/2745MLE估計(jì)零概率的一個(gè)例子一個(gè)不規(guī)則的骰子,分別用1-6之間的6個(gè)數(shù)字代表每個(gè)面。假設(shè)連續(xù)拋10次后,觀測(cè)到的結(jié)果序列為2132461232(一篇文檔)。問(wèn):拋3次的結(jié)果序列為325(一個(gè)查詢)的概率是多大?2021/6/2746例子(續(xù))其實(shí)就是求:在已知拋10次的觀測(cè)結(jié)果為2132461232的條件下,拋3次的觀測(cè)結(jié)果為325的概率P(325|2132461232).用pi表示第i個(gè)面朝上的概率,則pi是一個(gè)常數(shù)若已知pi(1<=i<=6),則顯然拋3次的觀測(cè)結(jié)果為325的概率為p3p2p5但是每個(gè)pi未知,已知的只是拋10次的觀測(cè)結(jié)果2132461232。需要由觀測(cè)結(jié)果2132461232去估計(jì)各個(gè)pi(1<=i<=6)。2021/6/2747例子中的MLE估計(jì)拋骰子的例子中:P(325|2132461232)=?估計(jì)pi

,i=1,2,..,6使用最大似然估計(jì),根據(jù)樣本2132461232估計(jì)pi

p1=2/10,p2=4/10,p3=2/10,p4=1/10,p5=0/10,p6=1/10顯然,5沒(méi)有出現(xiàn)在樣本中,不能說(shuō)明該骰子第5面永遠(yuǎn)不會(huì)朝上。更嚴(yán)重的是,P(325|2132461232)=p3p2p5=0!因此,上述的估計(jì)結(jié)果需要調(diào)整,使所有pi>0。思想:從p1,p2,p3,p4的估計(jì)值中扣出一點(diǎn)點(diǎn)給p5最簡(jiǎn)單的方法:Add-One

p1=3/16,p2=5/16,p3=3/16,p4=2/16,p5=1/16,p6=2/16從上述例子總結(jié)出以下幾點(diǎn):

(1)因樣本的數(shù)據(jù)稀疏性,最大似然估計(jì)(MLE)導(dǎo)致零概率問(wèn)題

(2)必須設(shè)法調(diào)整MLE使得所有事件的概率都大于0平滑(smoothing)2021/6/2748數(shù)據(jù)平滑的一般形式在IR中,一般取p(w|C)等于w出現(xiàn)的次數(shù)除以所有詞出現(xiàn)的次數(shù)。Discounted(折扣后的)MaximumLikelihoodReferenceLanguageModelCollectionLanguageModel歸一化系數(shù)2021/6/2749幾種QLM中常用的平滑方法Jelinek-Mercer(JM),0≤λ≤1,文檔模型和文檔集模型的混合課堂提問(wèn),對(duì)于w∈D,折扣后的PDML(w|D)是不是一定小于PML(w|D)?DirichletPriors(Dir),μ≥0,DIR和JM可以互相轉(zhuǎn)化AbsoluteDiscounting(Abs),0≤δ≤1,|D|u表示D中不相同的詞個(gè)數(shù)(u=unique)2021/6/2750QLM的求解過(guò)程圖示w1w2w3…wLP11P12P13…P1LP21P22P23…P2L……………PN1PN2PN3…PNLD1D2DN…√√√√√√先計(jì)算PML,然后采用平滑公式計(jì)算PMLPDML

2021/6/2751文檔排名函數(shù)的轉(zhuǎn)換

將代入最終排名函數(shù):

不影響排名查詢中w的總次數(shù)TFDF長(zhǎng)度2021/6/2752QLM模型小結(jié)檢索問(wèn)題一元模型估計(jì)MLE估計(jì)平滑技術(shù)多項(xiàng)式分布假設(shè)2021/6/2753基本SLMIR模型的擴(kuò)展查詢似然類:文檔建模,計(jì)算查詢的似然,例子--基本QLM模型、翻譯模型等文檔似然類:查詢建模,計(jì)算文檔的似然,例子--BIM模型、相關(guān)性模型(Relevance模型)等模型比較類:文檔建模、查詢建模,計(jì)算兩個(gè)模型的距離,KL距離模型2021/6/2754其它SLMIR模型翻譯模型(TranslationModel)KL距離模型(KLDivergenceModel)2021/6/2755香農(nóng)(Shannon)信道源信息發(fā)送器(編碼器)目標(biāo)信息接收器(解碼器)噪聲信道P(X)P(Y|X)XYX’P(X|Y)=?當(dāng)X是文本時(shí),p(X)就是一個(gè)語(yǔ)言模型一些例子:

語(yǔ)音識(shí)別: X=詞序列 Y=語(yǔ)音信號(hào) 機(jī)器翻譯(中->英): X=英文句子 Y=中文句子

OCR: X=糾錯(cuò)后的詞 Y=錯(cuò)誤的詞語(yǔ) 文檔摘要: X=摘要 Y=文檔

信息檢索: X=文檔 Y=查詢2021/6/2756基于翻譯模型的IR模型基本的QLM模型不能解決詞語(yǔ)失配(wordmismatch)問(wèn)題,即查詢中的用詞和文檔中的用詞不一

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論