Offline RL :Critic-Guided Decision Transformer for Offline Reinforcement Learning

AAAI 2023
paper
利用价值函数解决序列模型拼接能力的离线算法

Intro

文章提出了一种新的离线强化学习方法,名为“Critic-Guided Decision Transformer”(CGDT)。该方法基于“Return-Conditioned Supervised Learning”(RCSL)范式,旨在解决现有RCSL方法在处理随机环境和需要“stitching”能力的场景中的局限性。CGDT 结合了基于价值的方法来预测长期回报,并利用决策变换器(Decision Transformer)对轨迹进行建模。通过引入一个学习到的价值函数(即“critic”),CGDT 确保了指定目标回报与动作的预期回报之间的直接对齐。这种方法弥合了RCSL的确定性本质与基于价值的方法的概率特征之间的差距。在随机环境和D4RL基准数据集上的实证评估表明,CGDT 优于传统的RCSL方法。这些结果突出了CGDT 在离线RL领域的潜力,并扩展了RCSL在各种RL任务中的适用性。

Method

在这里插入图片描述

Asymmetric Critic Training

采用高斯部分对价值函数Q分布进行建模:
L Q ( ϕ ) = − ∣ τ c − I ( u > 0 ) ∣ log ⁡ Q ϕ ( R t ∣ τ 0 : t − 1 , s t , a t ) , ( 2 ) \mathcal{L}_Q(\phi)=-|\tau_c-\mathbb{I}(u>0)|\log Q_\phi(R_t|\tau_{0:t-1},s_t,a_t),(2) LQ(ϕ)=τcI(u>0)logQϕ(Rtτ0:t1,st,at),(2)
其中 : u = ( R t − μ t ) / σ t , a n d ( μ t , σ t ) ∼ Q ϕ ( ⋅ ∣ τ 0 : t − 1 , s t , a t ) , R t = ∑ t T r t :u=(R_t-\mu_t)/\sigma_t,\mathrm{and}(\mu_t,\sigma_t)\sim Q_\phi(\cdot|\tau_{0:t-1},s_t,a_t), R_t=\sum_t^Tr_t :u=(Rtμ

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值