![DeepReinforcementLearning(深度強(qiáng)化學(xué)習(xí)分類)_第1頁](http://file3.renrendoc.com/fileroot_temp3/2022-6/9/43c76bb2-49b1-4f62-9226-de07bec824a0/43c76bb2-49b1-4f62-9226-de07bec824a01.gif)
![DeepReinforcementLearning(深度強(qiáng)化學(xué)習(xí)分類)_第2頁](http://file3.renrendoc.com/fileroot_temp3/2022-6/9/43c76bb2-49b1-4f62-9226-de07bec824a0/43c76bb2-49b1-4f62-9226-de07bec824a02.gif)
![DeepReinforcementLearning(深度強(qiáng)化學(xué)習(xí)分類)_第3頁](http://file3.renrendoc.com/fileroot_temp3/2022-6/9/43c76bb2-49b1-4f62-9226-de07bec824a0/43c76bb2-49b1-4f62-9226-de07bec824a03.gif)
下載本文檔
版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
1、強(qiáng)化學(xué)習(xí)分類Policy-basedorvalue-base強(qiáng)化學(xué)習(xí)兩大類,Policy-Based(PolicyGradients)Value-Based(Q-Learning)°Policy-Based直接預(yù)測環(huán)境狀態(tài)下應(yīng)采取Action,Value-Based預(yù)測環(huán)境狀態(tài)下所有Action期望價(jià)值(Q值),選擇Q值最高Action執(zhí)行。Value-Based適合少量離散取值A(chǔ)ction,Policy-Based適合Aciton種類多或連續(xù)取值A(chǔ)ction環(huán)境°PolicyNetwork、ValueNetwork。PolicyGradients方法訓(xùn)練策略網(wǎng)絡(luò)。模型通過
2、學(xué)習(xí)Action在Environment獲得反饋,用梯度更新模型參數(shù)。訓(xùn)練過程,模型接觸到好Action及高期價(jià)值,和差A(yù)ction及低期望價(jià)值。通過樣本學(xué)習(xí),模型逐漸增加選擇好Action概率,降低選擇壞Action概率,完成策略學(xué)習(xí)。直接學(xué)習(xí)當(dāng)前環(huán)境應(yīng)該采取策略,如選擇Actionc概率,或Action具體數(shù)值。策略網(wǎng)絡(luò)是End-to-End(端對端)方法,直接產(chǎn)生最終策略。根據(jù)環(huán)境狀態(tài)和采取行動預(yù)測后續(xù)環(huán)境狀態(tài),利用信息訓(xùn)練強(qiáng)化學(xué)習(xí)模型,是Model-BasedRL°Model-FreeRL直接對策略或Action期望價(jià)值預(yù)測,計(jì)算效率高。復(fù)雜環(huán)境,主要用Model-FreeR
3、L,供給更多樣本訓(xùn)練,彌補(bǔ)沒有Model預(yù)測環(huán)境狀態(tài)問題。Policy-oasedValue-oasedOutlineActor:訓(xùn)練的是策略網(wǎng)絡(luò),輸入state,輸出采取每個(gè)策略的概率,通過梯度下降的方式進(jìn)行訓(xùn)練,不斷得提高reward比較高的行為出現(xiàn)的概率、outline-Inputofneuralnetwork:theobiervetioriofmachinerepresentedvectoror占matrix*Outputneuralnetwork:eachactioncorreEporidjio3parameterupdate參數(shù)更新可以略過,稍微有點(diǎn)復(fù)雜,總的來說每個(gè)狀態(tài)對應(yīng)這一個(gè)
4、rewardR(t),和一個(gè)轉(zhuǎn)移到這個(gè)狀態(tài)的概率p,在與環(huán)境interaction的時(shí)候,如果這個(gè)reward比較大,那么我們提高這個(gè)發(fā)生的概率,否則減小他。GradientAscent嚴(yán)卜滬域+的血恥迂釈鬥伽P(邛)=n=l咖P(Tf)T工gp仏血刃t=lL"韋n=lt=Lh口二亓XI?理問叩卩用間Ifnrrimcthinetakesc1卅血nseirigs"irA(rn)isposi:veknegativeTuningEtoincreasep(aj時(shí))Tuniie白todecreaseValue-based(critic)iisidertheo.mdativeregar
5、dfl(rr)ofCritic:是一個(gè)評估者,預(yù)測環(huán)境狀態(tài)下所有Action期望價(jià)值(Q值),選擇Q值最高Action執(zhí)行。n取決于兩件ctor變強(qiáng)."S-IMPk-Critic*IXR1fnm卩以前的呵光(大馬歩飛).bad苛jj慮齣叵光(大馬步飛)二good;?F帥的人作為一個(gè)critic”,起到評|時(shí)候,大馬步飛不是一步好棋仕討=弱,On-policyoroff-policyactor本身和目前的state。就圖而言,這一步卻可能是好棋。當(dāng)阿光比較弱的這個(gè)分類比較抽象,關(guān)鍵點(diǎn)在于一直在與環(huán)境交互的agent和你想要學(xué)的agent是不是同一個(gè)On-policyV5,Off-policyOn-policy:Theagentleanedandtheagentnt電牯ctingviiiththeewDnmen:isthes
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2025年五股東共同投資協(xié)議文本
- 2025年新型可控氣氛爐項(xiàng)目申請報(bào)告模稿
- 2025年醫(yī)療行業(yè)信息共享合同樣式
- 2025年創(chuàng)意企業(yè)合作協(xié)議標(biāo)準(zhǔn)文本
- 2025年分期付款合同服務(wù)全方位指南
- 2025年供應(yīng)商與采購商海鮮交易合同
- 2025年酸堿平衡調(diào)節(jié)藥項(xiàng)目規(guī)劃申請報(bào)告
- 2025年廢棄土地資源化合同
- 2025年專利申請買賣雙方協(xié)議
- 2025年人才選拔與委托合作協(xié)議標(biāo)準(zhǔn)文本
- 2024年國家公務(wù)員考試《申論》真題(副省級)及答案解析
- 新環(huán)境下人力資源體系建設(shè)方案
- JTS257水運(yùn)工程質(zhì)量檢驗(yàn)標(biāo)準(zhǔn)
- 2024年秋新滬科版物理八年級上冊 第二節(jié) 測量:物體的質(zhì)量 教學(xué)課件
- 火針療法緩解上寒下熱證候群焦慮抑郁情緒的研究
- 7.2維護(hù)祖國統(tǒng)一 (課件) 2024-2025學(xué)年九年級道德與法治上冊 (統(tǒng)編版)
- 2024年六年級語文下冊全冊單元教材分析
- 直播帶貨基本操作流程(直播帶貨流程完整版)
- 2024年江西省中考生物·地理合卷試卷真題(含答案逐題解析)
- 多旋翼無人機(jī)駕駛員執(zhí)照(CAAC)備考試題庫大全-下部分
- 管理學(xué)專業(yè):管理基礎(chǔ)知識試題庫(附含答案)
評論
0/150
提交評論