价值函数近似

本文介绍了在强化学习中,由于表格存储方法不适用于大规模问题,因此采用价值函数近似器如线性模型、神经网络等来拟合真实价值函数。通过建立误差函数并使用梯度下降法进行优化,寻找最佳参数θ。讨论了随机梯度下降在强化学习中的应用,并详细阐述了MC、TD(0)和TD(λ)三种近似增量求解算法。在训练过程中,通过与环境交互获取样本,迭代优化参数θ。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

价值函数逼近

在传统TD算法、Q-leanring中,V价值和Q价值通常是用表格存储,不适用于大规模问题。可以采用近似器来拟合真实的价值函数。
Q(s,a,θ)≈Qπ(s,a)Q(s,a,\theta) ≈Q_π(s,a)Q(s,a,θ)Qπ(s,a)
V(s,θ)≈Vπ(s)V(s,\theta) ≈V_π(s)V(s,θ)Vπ(s)
用一个带θ\thetaθ参数的函数近似器,来代替真实的价值函数,通过训练,找到合适的参数θ\thetaθ,使得两者的误差尽可能小。(θ\thetaθ是一系列参数的总称,不是指只有一个参数,θT=[θ1,θ2,...]\theta^T=[\theta_1,\theta_2,...]θT=[θ1,θ2,...])
常用的近似器有线性模型神经网络、决策树、最近邻法等。
强化学习的样本数据是非静态的,且非独立同分布(后一个状态往往与前一个状态有很强的关联性),因此要求近似器也要适用于非静态、非独立同分布的数据。

价值函数近似求解

找到了合适的价值函数的近似器V(s,θ)V(s,\theta)V(s,θ),如何找到合适的θ\thetaθ,使得近似器能够真正代替真实Vπ(s)V_π(s)Vπ(s)。建立一个两者的平方误差函数,
J(θ)=E[(Vπ(s)−(V(s,θ))2]J(\theta)=E[(V_π(s)-(V(s,\theta))^2]J(θ)=E[(Vπ(s)(V(s,θ))2]
转化成求函数J(θ)J(\theta)J(θ)的优化问题,即找到θ\thetaθ使得J(θ)J(\theta)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值