在讲解 PPO(Proximal Policy Optimization) 算法的优化目标之前,我们先用一个贴近生活的例子来类比它的核心思想,看看为什么要这样设计,以及它解决了什么问题。
1. 用生活经验类比PPO的核心思想
场景:练习投篮
假设你正在练习投篮——每次投篮(动作)后,你都会根据投篮的结果(奖励)来判断“姿势”是否需要调整。
- 老政策(Old Policy):你之前一直使用的投篮姿势。
- 新政策(New Policy):你打算做一些微调后的投篮姿势,想看看能不能提高命中率。
如果你每次练习都大幅度改变投篮姿势,比如一下子从标准姿势改成单手“乱抛”的动作,那么很可能导致投篮命中率大幅波动,甚至退步。这种情况下,你不能确切知道是姿势调整出了问题,还是单纯运气不好。这就像在强化学习里,如果新策略和旧策略的差异过大,可能会产生极端不稳定的训练结果,甚至导致之前学到的好东西都“推翻重来”。
PPO 的做法就像在每次练投篮时,对新姿势有一个“限制”,确保你不要一下子改动太大,从而在慢慢微调的过程中持续稳定地提高准确率。
2. PPO 的优化目标:为什么要这样设计?
PPO 的核心是在策略更新时,对新旧策略的差异做了“约束”。它通过一个“裁剪(clipping)”操作,来限制策略更新的幅度,避免新旧策略之间出现过大的偏移。
在数值上,PPO 的优化目标可以简化为下面这种“带有裁剪”的形式(省略了一些不必要的细节):

换回投篮的例子:

<

最低0.47元/天 解锁文章
1301

被折叠的 条评论
为什么被折叠?



