

原文来源:arXiv
作者:DeepMind
「雷克世界」编译:嗯~阿童木呀、多啦A亮
「机器人圈」正式更名为「雷克世界」,后台回复「雷克世界」查看更多详情。
相信那些时刻关注深度强化学习的人士都知道,深度强化学习社区已经对DQN算法进行了若干次独立的改进。但是,目前尚不清楚这些扩展中的哪些是互补的,同时可以有效地组合在一起。本文研究了DQN算法的六个扩展,并对其组合进行了实证研究。我们的实验表明,从数据效率和最终性能方面来说,该组合能够在Atari 2600基准上提供最为先进的性能。我们还提供详细的消融研究结果(ablation study),该研究结果显示了每个成分对整体性能的影响。

图1:在57 Atari游戏中,中等人类水平的表现。我们将我们的集成智能体(彩虹色)与DQN(灰色)

DeepMind的最新论文研究了DQN算法的六个扩展,并将它们组合成名为「Rainbow」的智能体,实现了在Atari 2600基准上最佳的数据效率和最终性能。Rainbow智能体结合了双DQN、优先化经验回放、竞争网络、多步学习、分布式Q-learning和噪声DQN等组件,大幅提升了性能。实验结果显示,这些组件在很大程度上是互补的,并且在57个Atari游戏中超越了现有基准。
最低0.47元/天 解锁文章
1821

被折叠的 条评论
为什么被折叠?



