19、强化学习中的奖励机制与学习方法

强化学习中的奖励机制与学习方法

1. 稀疏奖励问题及初步解决思路

在强化学习(RL)中,稀疏奖励问题较为常见,尤其在离散动作任务(如 GridWorld/Hallway 等)中更为频繁。这是因为这些任务的奖励函数往往是绝对的。而在连续学习任务中,奖励函数通常更具渐进性,一般通过向目标的某种进展来衡量,而非仅仅取决于目标本身。

为了解决稀疏奖励问题,我们可以增加障碍物和目标的数量,即增加负奖励和正奖励。以下是具体操作步骤:
1. 保存场景和项目。
2. 启动训练会话,使用以下代码:

mlagents-learn config/trainer_config.yaml --run-id=grid25x25x5 --train

此代码表示我们运行的样本中障碍物和目标的数量是原来的五倍。
3. 让智能体训练 25,000 次迭代,观察性能提升情况。
4. 让智能体完成训练,并将结果与第一次运行的结果进行比较。

通过增加障碍物和目标的数量,我们能够更快地训练智能体,但可能会看到训练过程出现非常不稳定的循环,并且智能体的表现可能永远无法达到最初的水平。这部分是由于其视野有限,我们只是部分解决了稀疏奖励问题。当然,在这个例子中,我们可以简单地增加目标和障碍物的数量来解决稀疏奖励问题。你可以尝试将障碍物和奖励的数量设置为 25,观察更稳定的长期结果。

然而,在许多 RL 问题中,增加奖励数量并非可行的选择,因此我们需要寻找更巧妙的方法。接下来,我们将介绍几种解决稀疏奖励问题的方法。

2. 课程学习(Cu

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值