《强化学习导论》之doubleQ-Learning的理解

本文深入探讨了Q学习中最大化偏差的来源,分析了求取最大值步骤可能导致的不准确性,并解释了通过解耦动作和值来减少这种偏差的方法。同时,提到了在优化过程中使用待优化元素进行max操作带来的潜在问题。

在这里插入图片描述
在这里插入图片描述我的理解是这个最大化偏差来源于Q学习中的求取的最大化这个步骤可能得到的值不准确。然后这个期望,我觉得是讲动作和值解耦,然后从E的表达式来看,求得期望就是从另一个Q得到的动作的期望,默认第一个Q学到的是最大动作,然后第二个Q只求期望。两个没有干扰

同时,在周博磊的视频课程中,也可以认识到,因为我们采取的max这个操作的时候,用的还是待优化的东西,因此不是很准确,有偏差。

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值