由于组里新同学进来,需要带着他入门RL,选择从silver的课程开始。
对于我自己,增加一个仔细阅读《reinforcement learning:an introduction》的要求。
因为之前读的不太认真,这一次希望可以认真一点,将对应的知识点也做一个简单总结。
The tabular off-policy methods developed in Chapters 6 and 7 readily extend to semi-gradient algorithms, but these algorithms do not converge nearly as robustly as in the on-policy case. The on-policy distribution is special and is important to the stability of semi-gradient methods.
Methods developed in earlier chapters for the off-policy case extend readily to function approximati

本文总结了Sutton的《强化学习:介绍》第十一章,讨论了离策略方法与函数近似的结合可能导致的不稳定性与发散问题。尽管存在Baird's Counterexample展示的潜在风险,但在某些条件下,如行为策略接近估计策略时,Q-learning可能保持收敛。离策略学习、可扩展的函数近似和bootstrapping的组合是引发不稳定性的重要因素。
最低0.47元/天 解锁文章
2707

被折叠的 条评论
为什么被折叠?



