Deep Deterministic Policy Gradient

本文详细介绍了强化学习中Q函数的概念及其应用。包括Q函数如何评估状态动作对的价值,通过贝尔曼方程进行迭代更新的方法,以及如何在线上环境中利用Q函数采取贪心策略进行决策。此外还涉及了Q函数的训练目标及损失函数的定义。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

π:S→P(A)\pi:\mathcal{S} \rightarrow \mathcal{P(A)}π:SP(A)

at∈A=RNa_t\in\mathcal{A} = R^NatA=RN

S\mathcal{S}S : state space

p(st+1∣st,at)p(s_{t+1}|s_t, a_t)p(st+1st,at)

r(st,at)r(s_t,a_t)r(st,at)

Rt=∑i=tTγ(i−t)r(si,ai)R_t = \sum_{i=t}^T\gamma^{(i-t)}r(s_i,a_i)Rt=i=tTγ(it)r(si,ai)

Discounted future reward形式的定义 + 递归形式的计算方式

Bellman Equation

Qμ(st,at)=Ert,st+1∼E[r(st,at)+γQπ(st+1,μ(st+1))]Q^{\mu}(s_t, a_t) = E_{r_t,s_{t+1}\sim E}[r(s_t,a_t) + \gamma Q^{\pi}(s_{t+1},\mu(s_{t+1}))]Qμ(st,at)=Ert,st+1E[r(st,at)+γQπ(st+1,μ(st+1))]

Q函数的训练目标:

Loss(θQ)=Est∼ρβ,at∼β,rt∼E[(Q(st,at∣θQ)−yt)2]Loss(\theta^{Q}) = E_{s_t\sim \rho^{\beta},a_t\sim \beta,r_t\sim E}[(Q(s_t, a_t|\theta^Q) - y_t)^2]Loss(θQ)=Estρβ,atβ,rtE[(Q(st,atθQ)yt)2]

yt=r(st,at)+γQ(st+1,μ(st+1)∣θQ)y_t = r(s_t,a_t) + \gamma Q(s_{t+1}, \mu(s_{t+1})|\theta^Q)yt=r(st,at)+γQ(st+1,μ(st+1)θQ)

线上采用greedy的方式使用Q函数

不太使用户连续动作空间

actor funciton : μ(s∣θμ)\mu(s|\theta^{\mu})μ(sθμ)

critic fucntion : Q(s,a)Q(s, a)Q(s,a)

更新中…

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值