强化学习中的奖励机制与学习方法
1. 稀疏奖励问题及初步解决思路
在强化学习(RL)中,稀疏奖励问题较为常见,尤其在离散动作任务(如 GridWorld/Hallway 等)中更为频繁。这是因为这些任务的奖励函数往往是绝对的。而在连续学习任务中,奖励函数通常更具渐进性,一般通过向目标的某种进展来衡量,而非仅仅取决于目标本身。
为了解决稀疏奖励问题,我们可以增加障碍物和目标的数量,即增加负奖励和正奖励。以下是具体操作步骤:
1. 保存场景和项目。
2. 启动训练会话,使用以下代码:
mlagents-learn config/trainer_config.yaml --run-id=grid25x25x5 --train
此代码表示我们运行的样本中障碍物和目标的数量是原来的五倍。
3. 让智能体训练 25,000 次迭代,观察性能提升情况。
4. 让智能体完成训练,并将结果与第一次运行的结果进行比较。
通过增加障碍物和目标的数量,我们能够更快地训练智能体,但可能会看到训练过程出现非常不稳定的循环,并且智能体的表现可能永远无法达到最初的水平。这部分是由于其视野有限,我们只是部分解决了稀疏奖励问题。当然,在这个例子中,我们可以简单地增加目标和障碍物的数量来解决稀疏奖励问题。你可以尝试将障碍物和奖励的数量设置为 25,观察更稳定的长期结果。
然而,在许多 RL 问题中,增加奖励数量并非可行的选择,因此我们需要寻找更巧妙的方法。接下来,我们将介绍几种解决稀疏奖励问题的方法。
超级会员免费看
订阅专栏 解锁全文
1112

被折叠的 条评论
为什么被折叠?



