offline meta-RL | 近期工作速读记录



目录
  • 📌 近期工作 1
    • (UBER) Unsupervised Behavior Extraction via Random Intent Priors [NeurIPS 2023]
    • Entropy Regularized Task Representation Learning for Offline Meta-Reinforcement Learning [AAAI 2025]
    • Robust Task Representations for Offline Meta-Reinforcement Learning via Contrastive Learning [ICML 2022]
    • Meta-DT: Offline Meta-RL as Conditional Sequence Modeling with World Model Disentanglement [NeurIPS 2024]
    • Towards an Information Theoretic Framework of Context-Based Offline Meta-Reinforcement Learning [NeurIPS 2024]
    • Skill-based Meta-Reinforcement Learning [ICLR 2022]
    • Scrutinize What We Ignore: Reining In Task Representation Shift Of Context-Based Offline Meta Reinforcement Learning [ICLR 2025]
    • Generalizable Task Representation Learning for Offline Meta-Reinforcement Learning with Data Limitations [AAAI 2024]
    • Provably Improved Context-Based Offline Meta-RL with Attention and Contrastive Learning [ICLR 2022]
    • (UDS) How to Leverage Unlabeled Data in Offline Reinforcement Learning [ICML 2022]
  • 📌 近期工作 2
    • (IDAQ) Offline Meta Reinforcement Learning with In-Distribution Online Adaptation [ICML 2023]
    • Context Shift Reduction for Offline Meta-Reinforcement Learning [NeurIPS 2023]
    • Text-to-Decision Agent: Offline Meta-Reinforcement Learning from Natural Language Supervision [NeurIPS 2025]
    • Efficient Offline Meta-Reinforcement Learning via Robust Task Representations and Adaptive Policy Generation [IJCAI 2024]
    • Meta-Reinforcement Learning via Exploratory Task Clustering [AAAI 2024]
    • Contextual Transformer for Offline Meta Reinforcement Learning [NeurIPS 2022 workshop]
    • Model-Based Offline Meta-Reinforcement Learning with Regularization
    • Enhancing Online Reinforcement Learning with Meta-Learned Objective from Offline Data [AAAI 2025]
    • Offline Meta-Reinforcement Learning with Online Self-Supervision [ICML 2022]

也请参考:offline meta-RL | 经典论文速读记录


📌 近期工作 1

(UBER) Unsupervised Behavior Extraction via Random Intent Priors [NeurIPS 2023]

  • arxiv:https://arxiv.org/abs/2310.18687
  • pdf:https://arxiv.org/pdf/2310.18687
  • html:https://ar5iv.labs.arxiv.org/html/2310.18687
  • 来源:师兄的工作,NeurIPS 2023。感谢师弟的讲解。
  • 参考博客:直接看这个好了,优快云 | 【论文阅读笔记】UBER:用随机意图从无奖励数据中提取有用行为

主要内容:

  • setting:我们拿到了 single-task 的没有 reward 的 offline 数据集,现在想基于这个数据集,学出来可以做相关 task 的策略。
  • method:直接给这个数据集标注 N 个随机 reward,然后训出来 N 个策略,最后使用 PEX 方法进行 offline-to-online。
  • 理论(根据印象 可能有幻觉):
    • Proposition 4.1 指的是,给定一个 policy,总能构造出来一个 reward,使得这个 policy 是这个 reward 下的最优 policy 之一。
    • Theorem 4.2 指的是,只要目标行为在数据集中有较好的覆盖,我们就能有效地学习它。使用大小为 N 的 offline dataset,这样学出来的最好性能与 optimal policy 的差距,可以被 N bound 住。使用了 linear MDP 和 PEVI 那一套,我不懂这些理论。
    • Theorem 4.3 好像指的是,UBER 使用的构造 random reward 的方法可以离 true reward 足够近,是使用岭回归(ridge regression)来证明的,岭回归 我也不懂。
  • 实验:做了 d4rl 和 metaworld。还没仔细看。搬运参考博客的内容:

结果 1:随机意图确实产生多样且高质量行为。实验显示,UBER提取的行为策略:

  • 性能超越原始数据:特别是在原始数据质量不高时
  • 分布更加多样:回报分布的熵值显著高于原始数据集和行为克隆方法

结果 2:在线学习加速显著。在Mujoco运动任务中,UBER相比基线方法:

  • 学习速度更快:在相同环境步数下获得更高回报
  • 最终性能更好:在多数任务中达到或接近专家水平

结果3:跨任务迁移能力。在 Meta-World 的多任务实验中,UBER 学到的行为策略能够成功迁移到不同的下游任务,证明了其跨任务泛化能力。可能的原因是,随机奖励产生了通用运动原语(如"接近物体"、“精确控制末端执行器”),这些原语在不同任务间可迁移。

Entropy Regularized Task Representation Learning for Offline Meta-Reinforcement Learning [AAAI 2025]

  • arxiv:https://arxiv.org/abs/2412.14834
  • GitHub:https://github.com/MohammadrezaNakhaei/ER-TRL
  • 来源:之前的速读,AAAI 2025。
  • 参考博客:论文速读记录 | 2024.12

主要内容:

  • task encoder \(e(z|c)\) 可能会耦合 behavior policy \(\pi_\beta\)(即生成 offline dataset 的那些 policy)的信息,导致 inference 时,当 agent 遇到 OOD 的 transition 时,encoder 无法推断出正确的 task。
  • 为此,我们希望去最小化 task encoder \(e(z|c)\) 和 behavior policy \(\pi_\beta\) 之间的互信息;通过一个 GAN 来模拟 behavior policy \(\pi_\beta\),其中 generator 用来生成以假乱真的 action, discriminator 用来区分真假 action。
  • 最小化这个互信息,好像等于最大化 \(H(\pi_\beta | p(z_i))\) 的熵;具体细节还没看。

Robust Task Representations for Offline Meta-Reinforcement Learning via Contrastive Learning [ICML 2022]

  • arxiv:https://arxiv.org/abs/2206.10442
  • pdf:https://arxiv.org/pdf/2206.10442
  • html:https://ar5iv.labs.arxiv.org/html/2206.10442
  • 来源:无意中搜到的,ICML 2022。

Meta-DT: Offline Meta-RL as Conditional Sequence Modeling with World Model Disentanglement [NeurIPS 2024]

  • arxiv:https://arxiv.org/abs/2410.11448
  • pdf:https://arxiv.org/pdf/2410.11448
  • html:https://arxiv.org/html/2410.11448v2
  • 来源:看起来是使用 DT 的 offline meta-RL,NeurIPS 2024。

Towards an Information Theoretic Framework of Context-Based Offline Meta-Reinforcement Learning [NeurIPS 2024]

  • arxiv:
  • 好像是提出了一个统一的框架,来总结现有的 offline meta-RL 方法。

Skill-based Meta-Reinforcement Learning [ICLR 2022]

  • arxiv:https://arxiv.org/abs/2204.11828
  • 看起来是使用跟 skill 有关的方法,从 offline dataset 里学一个 meta 策略。

Scrutinize What We Ignore: Reining In Task Representation Shift Of Context-Based Offline Meta Reinforcement Learning [ICLR 2025]

  • arxiv:https://arxiv.org/abs/2405.12001
  • 有可能有点相关。

Generalizable Task Representation Learning for Offline Meta-Reinforcement Learning with Data Limitations [AAAI 2024]

  • arxiv:
  • 有可能有点相关,是 OMRL 的最新工作。

Provably Improved Context-Based Offline Meta-RL with Attention and Contrastive Learning [ICLR 2022]

  • arxiv:https://arxiv.org/abs/2102.10774
  • pdf:https://arxiv.org/pdf/2102.10774
  • html:https://ar5iv.labs.arxiv.org/html/2102.10774
  • 来源:ICLR 2022。好像改进了 focal,使用任务内部的 attention 机制和任务间的对比学习,根据论文标题,还有理论证明。

(UDS) How to Leverage Unlabeled Data in Offline Reinforcement Learning [ICML 2022]

  • arxiv:https://arxiv.org/abs/2202.01741
  • pdf:https://arxiv.org/pdf/2202.01741
  • html:https://ar5iv.labs.arxiv.org/html/2202.01741
  • 来源:ICML 2022。跟我们关注的 setting 是像的,都关注没有 reward label 的 offline 数据集。好像直接拿 zero reward 来作为 reward。

好像基于 CDS 和 UDS,但听说这两个方法不太可复现。

📌 近期工作 2

(IDAQ) Offline Meta Reinforcement Learning with In-Distribution Online Adaptation [ICML 2023]

  • arxiv:https://arxiv.org/abs/2305.19529
  • pdf:https://arxiv.org/pdf/2305.19529
  • html:https://ar5iv.labs.arxiv.org/html/2305.19529
  • 来源:师弟推荐的工作,ICML 2023。
  • 参考博客:优快云 |【论文阅读笔记】IDAQ:离线元强化学习中的分布内在线适应
  • (就算有博客,也还是看不太懂,一是不太了解 multi-task 的具体 setting,二是不太能 get 到 offline 他们讲的 distribution shift 故事…… 找时间好好学一下,可能先看看 focal
  • baseline:FOCAL、MACAW、BOReL。

Context Shift Reduction for Offline Meta-Reinforcement Learning [NeurIPS 2023]

  • arxiv:https://arxiv.org/abs/2311.03695
  • 感觉想解决的问题,好像跟 IDAQ 是类似的,都是去 address offline dataset 和我们真正 rollout 出来的数据的分布不一致。

Text-to-Decision Agent: Offline Meta-Reinforcement Learning from Natural Language Supervision [NeurIPS 2025]

  • arxiv:https://arxiv.org/abs/2504.15046
  • 看起来是最新的结合 LLM 的 offline meta-RL 工作。

Efficient Offline Meta-Reinforcement Learning via Robust Task Representations and Adaptive Policy Generation [IJCAI 2024]

  • 可以看 abstract 的网页:https://dl.acm.org/doi/10.24963/ijcai.2024/500
  • pdf:https://www.ijcai.org/proceedings/2024/0500.pdf
  • 来源:无意中搜到的,IJCAI 2024。看 abstract 感觉解决的不是很重要的问题,但好像是有趣的,不着急看。

Meta-Reinforcement Learning via Exploratory Task Clustering [AAAI 2024]

  • arxiv:https://arxiv.org/abs/2302.07958
  • pdf:https://arxiv.org/pdf/2302.07958
  • html:https://ar5iv.labs.arxiv.org/html/2302.07958
  • 来源:师弟的论文 list,AAAI 2024。看 abstract 感觉没有解决特别重要的问题,但因为是 task clustering,所以想看一下。

Contextual Transformer for Offline Meta Reinforcement Learning [NeurIPS 2022 workshop]

  • arxiv:https://arxiv.org/abs/2211.08016
  • 是 workshop 文章。简单看看吧。

Model-Based Offline Meta-Reinforcement Learning with Regularization

  • arxiv:https://arxiv.org/abs/2202.02929
  • model-based 的 offline meta-RL。

Enhancing Online Reinforcement Learning with Meta-Learned Objective from Offline Data [AAAI 2025]

  • arxiv:
  • 可能有一点相关。

Offline Meta-Reinforcement Learning with Online Self-Supervision [ICML 2022]

  • arxiv:https://arxiv.org/abs/2107.03974
  • pdf:https://arxiv.org/pdf/2107.03974
  • html:https://ar5iv.labs.arxiv.org/html/2107.03974
  • 来源:疑似是 offline meta-RL + offline-to-online 的文章,ICML 2022。感觉不着急读。

感谢师弟和参考博客的讲解🍵


### 基于上下文的离线元强化学习(COMRL)概述 基于上下文的离线元强化学习(Context-based Offline Meta-Reinforcement Learning, COMRL)是一种结合了元学习和离线强化学习的技术,旨在通过从一组预定义的任务中提取通用知识来加速新任务的学习。这种方法特别适用于数据有限或交互成本较高的场景[^1]。 COMRL的核心思想是利用元学习机制捕获任务之间的共享结构,并通过离线数据训练策略以适应未知但相关的新任务。这种方法通常包括以下关键组件: - **任务分布建模**:通过对任务的先验知识进行建模,生成适合的上下文表示。 - **策略优化**:基于上下文信息调整策略参数,使其能够快速适应新任务。 - **离线数据使用**:利用历史数据而非实时交互来提升策略性能。 ### 实现方法 #### 1. 上下文编码器的设计 上下文编码器是COMRL中的重要组成部分,用于从任务数据中提取上下文信息。一种常见的实现方式是使用神经网络对任务数据进行聚合,并生成一个固定维度的上下文向量。例如,可以通过以下代码实现一个简单的上下文编码器: ```python import torch import torch.nn as nn class ContextEncoder(nn.Module): def __init__(self, input_dim, hidden_dim, output_dim): super(ContextEncoder, self).__init__() self.fc1 = nn.Linear(input_dim, hidden_dim) self.fc2 = nn.Linear(hidden_dim, output_dim) def forward(self, x): x = torch.mean(x, dim=0) # 对任务数据进行平均操作 x = torch.relu(self.fc1(x)) return self.fc2(x) ``` #### 2. 策略网络的构建 策略网络需要能够根据上下文信息动态调整其行为。通常,这可以通过将上下文向量与状态输入拼接后传递给策略网络实现。以下是一个示例代码: ```python class PolicyNetwork(nn.Module): def __init__(self, state_dim, context_dim, action_dim): super(PolicyNetwork, self).__init__() self.fc1 = nn.Linear(state_dim + context_dim, 128) self.fc2 = nn.Linear(128, action_dim) def forward(self, state, context): x = torch.cat([state, context], dim=-1) x = torch.relu(self.fc1(x)) return torch.tanh(self.fc2(x)) # 假设动作空间为[-1, 1] ``` #### 3. 训练过程 在训练过程中,COMRL模型需要同时优化上下文编码器和策略网络。常用的损失函数包括策略梯度损失和值函数损失。以下是一个简化的训练框架: ```python def train_comrl(policy_net, context_encoder, data_buffer, optimizer): for batch in data_buffer: states, actions, rewards, contexts = batch predicted_actions = policy_net(states, context_encoder(contexts)) # 计算策略梯度损失 loss = -torch.mean(rewards * predicted_actions) optimizer.zero_grad() loss.backward() optimizer.step() ``` ### 相关研究论文 以下是一些关于COMRL的重要研究论文: - **"Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks"** 提出了元学习的基本框架,为COMRL提供了理论基础[^2]。 - **"Offline Meta-Reinforcement Learning with Value Functions"** 探讨了如何在离线设置中应用元强化学习[^3]。 - **"Contextualized Meta-Policy Search"** 引入了上下文信息以增强策略的泛化能力[^4]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值