最近在读一篇增强学习的综述
DEEP REINFORCEMENT LEARNING : AN OVERVIEW
发现里边介绍SARSA时,伪代码是错误的。
1.TD Learning
2.SARSA
错误就在于,sarsa算法的下一个动作在这次更新时就已经确定了。所以需要在step迭代之前对action进行初始化。
3.Q Learning
TD Learning包含Q Learning和sarsa。
我们说Q Learning是off-policy的,而sarsa是on-policy的。为什么这么说呢?
是因为更新Q时,sarsa是确定好下一个状态和action才进行更新的。但是Q Learning更新时,是选取下一个state的最优动作进行更新,而下一个state实际上采取的action是不能在这次更新时确定的。Q Learning好比是观察你上一次的情况,这次我在做决定。但是sarsa这次更新之前就已经确定好了下一个state和action。这也是Q Learning和sarsa的区别。
这三种方法在特定条件下收敛。根据最优值函数,我们能得到最优策略。
TD Learning,SARSA,Q Learning
最新推荐文章于 2025-07-24 14:56:46 发布
作者读强化学习综述时发现SARSA伪代码有误,需在step迭代前初始化action。TD Learning包含Q Learning和SARSA,Q Learning是off - policy,更新时选下一个state最优动作;SARSA是on - policy,更新前确定下一个state和action,三种方法特定条件下收敛。
2947

被折叠的 条评论
为什么被折叠?



