2025_NIPS_Predictive Coding Enhances Meta-RL To Achieve Interpretable Bayes-Optimal Belief Represent

文章核心总结

主要内容

该研究聚焦部分可观测环境(POMDPs)下的元强化学习(meta-RL),针对传统元强化学习虽能接近贝叶斯最优策略,但难以学习紧凑、可解释的贝叶斯最优信念状态的问题,提出将自监督预测编码模块融入元强化学习框架。通过在多种POMDP任务(如双臂老虎机、Tiger任务、连续控制任务等)中进行状态机仿真分析,验证了该框架能学习到更接近贝叶斯最优信念的可解释表示,在需要主动信息收集的复杂任务中表现更优,且显著提升泛化能力(零样本泛化和分布外迁移学习)。

创新点
  1. 融合神经科学中的预测编码理论与深度强化学习的辅助预测目标,设计了含变分自编码器(VAE)的元强化学习框架,分离表示学习(预测编码)与策略学习(奖励信号)。
  2. 采用严格的状态机仿真分析,而非仅依赖相关性解码,直接验证元学习表示与贝叶斯最优信念状态的计算等价性。
  3. 系统验证了预测编码对表示学习的关键作用:消融实验表明,KL正则化有助于紧凑表示,而策略梯度对信念状态学习无额外增益。
  4. 覆盖静态/动态、离散/连续等多种POMDP任务,首次系统性验证元强化学习表示与贝叶斯最优解的一致性。

翻译部分(Markdown格式)

Abstract

预测编码增强元强化学习,实现部分可观测性下可解释的贝叶斯最优信念表示
在部分可观测环境中,学习历史的紧凑表示对于规划和泛化至关重要。尽管元强化学习(meta

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值