2024搜狗信息流算法_第1頁
2024搜狗信息流算法_第2頁
2024搜狗信息流算法_第3頁
2024搜狗信息流算法_第4頁
2024搜狗信息流算法_第5頁
已閱讀5頁,還剩7頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

\h搜狗信息流推薦算法首先要進行一下NLP處理,它的作用就是對文章進行抽象,用有限的、關鍵的topic進行NLPNLP一級的是標簽,標簽是屬于一部分分類,它也是一個集合,比如說NBA這個標簽屬于體育FastTextFastTextcontenttitle中進行分類,分類效果還可以。后來通過研究之后發(fā)現對于文章來說,title和content的FastText93%。后續(xù)優(yōu)化的時候除FastTextTextCNNTextCNN分類模型和FastText模型不一樣,FastText對于一個文章只會對應到一個分類當中,但是標簽不一樣,可以有多個標簽。TextCNN分類模型對進行了卷積計算,能在更因在于做測試集時一篇文章只會打一個標簽,人工評估可以分多個類別。fastText能達到75%,TextCNN能達到88%,然后采用“TextCNN+數據增強+多段結果預測”能達到是概率模型Skip-Gram+層次softMax,下面著重介紹概率模型。詞的轉換概率的建模。采用word2vecSkip-Gram思想,輸入的是文本空間,經過embeddingsoftMax全連接,最后得出一個詞轉換為另一個詞的轉換概率,word2vec設選出概率最大的作為關鍵詞,最終準確率能夠達到89%。ldaCB召回是在用戶畫像維護一個用戶興趣的集合以及相應的權重,線下會維護用戶興趣對應CB第二種就是基于模型排序。我們在召回簡化為對CTR預測,使用的是LR模型。特征的選docdocdocdocdoc間的相關性,進而推薦相關的內容。首先是維護每一個doc相關的文章排序,除此之外還querydoc1query,querydoc1趣,location協(xié)同,人口屬性也是類似。第一種效果最好,后面相對差一些,但是好處如CFitemitemitemuser度。而隱語模型將矩陣進行分解,變成兩個矩陣,將user與item轉化為同一個維度,就是對用戶點擊的分類,就可以直接計算item與user的相似度。目前用的比較多的就是隱語模型,主要用在電影評分領域,在推薦領域也是可以使用。還有一種方式是NCF,就是useritemembeddinguser與item統(tǒng)一到同一個向量空間,通過神經網絡訓練出各自的向量,最后得出用戶與item預估,最常用的點擊率預估模型,速度快,效果好,與人工規(guī)則相比,效果提升顯著。后LRFTRLLRLR果提升明顯。目前用的比較多的是基于深度學習,wide&deepFTRLWide&deeplearning邏輯回歸有一個記憶能力,deep層有泛化能力,wide和deep層的特征需要甄別,能夠時還需要做人工交叉,比如用戶興趣與內容的匹配度,還會利用FM還做自動交叉。FM交叉也需要embedding,目前流行的用deepFM和deep層用同一層embeddingembedding,最后進行NLPNLPNLP合,人力也是一個挑戰(zhàn);視頻在信息流產品比重越來越重,與圖像類似,目前基本以CTR乘以時

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論