《强化学习导论》中关于带控制变量的每次决策型方法的理解

本文深入探讨了G策略中的控制变量作用,及其在递归公式中的体现。通过对比V与Q的离轨策略,解析了如何利用Q更新V的值,展示了树回溯算法的思想在概率ρ下的应用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

在这里插入图片描述
从书中前面的介绍中可以看到,G通过加入一个控制变量,来达到降低方法的效果。虽然后面不知道怎么在推导正式公式的时后没有看到1-ρ的身影。。。(这里如果有知道的小伙伴,请留下您的意见)。
在这里插入图片描述
对于后面的这个公式来说,我的理解是:
第一:Gt+1:h也是个递归,还没展开。
第二:这个最终结果就类似树回溯算法,只不过这里用的是ρ。
在这里插入图片描述
这个地方稍微画以下就可以看出。
不知理解是否到位,还请不吝指教!

——————————————————————4.15 14:46————————————————————————
又仔细看了下,发现了这样几个发现:
第一,上面那个是V的离轨策略,下面是Q的离轨策略。
第二,在Q的离轨策略里我们是R+γ(),注意括号里是V,但是虽然是V,但是由于这是关于Q的,因此我们的V是用Q的求和表示的,所以是期望的形式。然后用Q更新V的值。
即可以理解为用下一步的V更新这一步的Q

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值