强化学习经典算法笔记(十三):深度确定性策略梯度算法DDPG的pytorch实现

本文深入解析深度确定性策略梯度(DDPG)算法,介绍其如何解决连续动作空间控制任务中的Q值估计难题。文章涵盖DDPG算法原理、与DQN的区别、确定性策略的优势及PyTorch实现细节。

强化学习经典算法笔记(十三):深度确定性策略梯度算法DDPG的pytorch实现

一、DDPG算法的要点

  1. DDPG适用于连续动作空间的控制任务
  2. DDPG解决了DQN难以对连续动作估计Q值的问题
  3. 确定性策略是指:在某个状态 s t s_t st所采取的动作是确定的。由此带来了Bellman方程的改变。由
    Q π ( s t , a t ) = E s t + 1 ∼ E , a t ∼ π [ r ( s t , a t ) + γ E π [ Q π ( s t + 1 , a t + 1 ) ] ] Q^{\pi}(s_t,a_t)=E_{s_{t+1}\sim E,a_t \sim \pi}[r(s_t,a_t)+\gamma E_{\pi}[Q^{\pi}(s_{t+1},a_{t+1})]] Qπ(st,at)=Est+1E,atπ[r(st,at)+γEπ[Qπ(st+1,at+1)]]
    变成了
    Q μ ( s t , a t ) = E s t + 1 ∼ E [ r ( s t , a t ) + γ Q μ ( s t + 1 , μ ( s t + 1 ) ] Q^{\mu}(s_t,a_t)=E_{s_{t+1}\sim E}[r(s_t,a_t)+\gamma Q^{\mu}(s_{t+1},\mu(s_{t+1})] Qμ(st,a
评论 1
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值