Stop Regressing: Training Value Functions via Classification for Scalable Deep RL

ICML 2024 Oral
paper
值函数是深度强化学习(RL)的重要组成部分,通常通过均方误差回归进行训练,以匹配引导目标值。然而,事实证明,将基于值的 RL 方法扩展到大型网络具有挑战性。这种困难与监督学习形成了鲜明对比:通过利用交叉熵分类损失,监督方法可以可靠地扩展到大型网络。观察到这一差异,在本文中研究了是否只需使用分类而不是回归来训练值函数,就能提高深度 RL 的可扩展性。研究表明,使用分类交叉熵训练值函数可以显著提高各个领域的性能和可扩展性.

本文提出对Q值分布采用分类分布(categorical distribution):
在这里插入图片描述
而对target Q分布则探索三种设置:1)Two-hot Categorical Distribution 2) Histograms as Categorical Distributions 3) Categorical Distributional RL(C51) .
在这里插入图片描述
实验结果中第二种方案最优:
在这里插入图片描述
而在scale方面也证明基于分类分布的Q值再更大规模的强化学习效果也增加
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值