Domain Adaption : Cross-Domain Policy Adaptation by Capturing Representation Mismatch

ICML 2024
paper
code

Intro

强化学习中,如今实现动力学差异下的域自适应是重要研究课题。本文问题背景设定在源域和目标域之间存在动力学不匹,智能体可以获得足够的源主数据,但只能与目标域进行有限的交互。文章提出表征解耦的方法解决该问题,即只在目标域进行表征学习,源域则是利用表征后的差异作为惩罚项实现reward shaping。该过程有效的原因是策略在不同域之间的gap,是被两域表征差异upper bound。

method

表征学习部

鉴于定理 4.2 的启示,表征应该嵌入更多的目标域信息,而不是强调源域知识,这样表征偏差才能更好地代表动态变化。
在这里插入图片描述

因此,只在目标领域训练状态编码器和状态-动作编码器,
在这里插入图片描述
然后,源域的样本评估表征偏差。用计算出的偏差对源域重新进行惩罚,即将其奖励修改为:
在这里插入图片描述

价值函数优化

采用SAC的方法对二域数据优化,注意源域要进行reward shaping
在这里插入图片描述

策略优化

在线策略优化

采用SAC中优化形式:
在这里插入图片描述

离线策略优化

根据理论4.5,gap的upper bound与策略差异有关
在这里插入图片描述
,因此采用类似TD3+BC中的BC正则:
在这里插入图片描述
其中

伪代码

在这里插入图片描述

结果

在线

在这里插入图片描述

离线

在这里插入图片描述

其他

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值