2024AI 在個(gè)性化中的應(yīng)用_第1頁
2024AI 在個(gè)性化中的應(yīng)用_第2頁
2024AI 在個(gè)性化中的應(yīng)用_第3頁
2024AI 在個(gè)性化中的應(yīng)用_第4頁
2024AI 在個(gè)性化中的應(yīng)用_第5頁
已閱讀5頁,還剩8頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

AI在個(gè)性化推薦中的應(yīng)用首先介紹下我自己對(duì)AI發(fā)展的理解,AI它不是一個(gè)技術(shù)詞匯,更像一個(gè)廣告詞匯,它在不同階段是有不同含義的。結(jié)合行業(yè)專家經(jīng)驗(yàn)將AI發(fā)展總結(jié)為下面四個(gè)發(fā)展階段:前期階段AlexNet在圖像識(shí)別上的重大突破為標(biāo)志,AI引起了工業(yè)界或者是媒體一個(gè)巨大關(guān)注。我將其總結(jié)為數(shù)據(jù)時(shí)代,這是以大數(shù)據(jù)為基礎(chǔ)的進(jìn)展,這一階段深度學(xué)習(xí)是其代表性技術(shù)。GoogleAlphaGoOPPOOPPOPushPush我們做推薦,離不開數(shù)據(jù),OPPOAI解。簡單介紹一下我們的數(shù)據(jù),有結(jié)構(gòu)化的數(shù)據(jù),用戶在API使用的一些行為統(tǒng)計(jì)、手機(jī)AIOPPOAICTR義理解相對(duì)于AI在圖像識(shí)別、語音識(shí)別由于深度學(xué)習(xí)的出現(xiàn)有巨大的提升而言并沒有很大embedding文本標(biāo)簽這一塊,OPPO由于全網(wǎng)在文本這類數(shù)據(jù)很多,訪問的各種數(shù)據(jù)都可能有,類型因此先根據(jù)url判斷它是屬于小說,然后再細(xì)分它屬于什么小說。下面主要基于深度學(xué)習(xí)方svm發(fā)明后對(duì)分類算法有很大改進(jìn),F(xiàn)acebook提出的fastText就是直接對(duì)一個(gè)文本提取出每一個(gè)詞向量做一個(gè)平均,然后直接用softmax做分類,大多數(shù)情況不錯(cuò),缺點(diǎn)是沒有考慮詞序,而文本詞的先后順序可能是包含巨大信息量的。后面比如CNN、RNN都發(fā)明了各CNNngram我們用到的CNN和RNN模型。CNN主要用的是TextCNN算法,如下圖所示,左邊把一個(gè)文本中、句子中的詞轉(zhuǎn)化為一filterpooling將這些特征輸入softmax函數(shù),最后得到分類結(jié)果。不足是filter_size是固定的,設(shè)計(jì)時(shí)可以用不同filter_size,可以每四個(gè)詞或三個(gè)詞,這樣不同的filter_size相當(dāng)于利用不同的ngram特征。RNN就可以用不同的窗口,目前它也有很多算法。利用TextRNN,還有一個(gè)AttentionAttentionembeddingembedding的分類效果。而我們針對(duì)短文本,只用到詞級(jí)Attention機(jī)制?;痯ush,一個(gè)廣告主要發(fā)給李易峰的粉絲,那你得知道李易峰粉絲都喜歡那些東西,當(dāng)然配,這種強(qiáng)相關(guān)性可解釋性也很強(qiáng)。找相關(guān)性詞也有不同算法,像LDA主題模型我們也嘗試過,下圖右邊左邊是LDA結(jié)果,他確實(shí)可以把同一主題的詞聚類到一起,但是缺點(diǎn)是噪E1和E2R。token,人工篩選構(gòu)造與夫妻關(guān)展,例如句中出現(xiàn)“E_1E_2(E_1,E_2)得到正標(biāo)注。根據(jù)對(duì)“和”和“結(jié)tokenE_1E_2E_1E_2E_1E_2的婚禮”等類似應(yīng)該標(biāo)注為正的樣本。接下來講一下在強(qiáng)化學(xué)習(xí)方面的探索,強(qiáng)化學(xué)習(xí)的一個(gè)基本思想:上面是一個(gè)Agent,類actionRewardagentReward函數(shù)對(duì)設(shè)計(jì)效果Reward27者依據(jù)付費(fèi)額度進(jìn)行reward,如果Reward設(shè)計(jì)不好整個(gè)過程都不會(huì)收斂。學(xué)習(xí)算法是policygradients,針對(duì)Reward是連續(xù)值,action是

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論