时序差分方法

本文介绍了时序差分方法的基本原理,它是强化学习中的一种重要技术,通过结合动态规划和蒙特卡罗方法的优点实现了高效的学习过程。文章详细解释了时序差分方法的公式推导,并对比了Sarsa、Sarsamax(Q学习)和预期Sarsa三种不同的实现方式及其性能特点。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

时序差分方法

动态规划的公式是在每执行一步策略后更新值函数,但必须模型可知;
蒙特卡罗方法对末知模型进行动态值估计,但需要在完成一个采样阶段后才能更新值函数。
而时序差分方法则结合了动态规划和蒙特卡罗方法的思想,做到更高效的免模型学习。

1、公式推导

动态规划:
vπ(s)=E(r+gvπ(s))vπ(s)=E(r+g∗vπ(s′))
EE:数学期望,gg:折扣率;

蒙特卡罗方法:
Vt+1(s)=Vt(s)+a(vt+1(s)Vt(s))Vt+1(s)=Vt(s)+a(vt+1(s)−Vt(s))
Vt(s)Vt(s):t阶段后状态ss的状态值,vt(s)第t阶段状态ss的状态值;

将动态规划中的公式代入蒙特卡罗方法中的公式得:

Vt+1(s)
=Vt(s)+a(E(r+gvπ(s))Vt(s))=Vt(s)+a(E(r+g∗vπ(s′))−Vt(s))
=Vt(s)+a(rt+1+gVt(s)Vt(s))=Vt(s)+a(rt+1+g∗Vt(s′)−Vt(s))

动作值函数也可以使用这公式,因此:

Qt+1(s,a)=Qt(s,a)+a(rt+1+gQt(s,a)Qt(s,a))Qt+1(s,a)=Qt(s,a)+a(rt+1+g∗Qt(s′,a′)−Qt(s,a))

2、类别

根据Qt(s,a)Qt(s′,a′)的选择不同,可以分三种方法:

sarsa0:根据e贪婪策略随机选择下一个状态ss′的动作aa′,并将Qt(s,a)Qt(s′,a′)作为预测的动作值;
Qt+1(s,a)=Qt(s,a)+a(rt+1+gQt(s,a)Qt(s,a))Qt+1(s,a)=Qt(s,a)+a(rt+1+g∗Qt(s′,a′)−Qt(s,a))

sarsamax(Q学习):将下一个状态ss′的最大动作值作为预测的动作值;
Qt+1(s,a)=Qt(s,a)+a(rt+1+gmax(Qt(s,a))Qt(s,a))Qt+1(s,a)=Qt(s,a)+a(rt+1+g∗max(Qt(s′,a′))−Qt(s,a))

预期sarsa:根据e贪婪策略,将下一个状态ss′的状态值作为预测的动作值;
Qt+1(s,a)=Qt(s,a)+a(rt+1+gaA(s)π(a|s)Qt(s,a)Qt(s,a))Qt+1(s,a)=Qt(s,a)+a(rt+1+g∗∑a′∈A(s′)π(a′|s′)∗Qt(s′,a′)−Qt(s,a))

3、性能分析

1、Sarsa 和预期 Sarsa 都是异同策略 TD 控制算法。在这种情况下,我们会根据要评估和改进的相同(e贪婪策略)策略选择动作。

2、Sarsamax 是离线策略方法,我们会评估和改进(e贪婪)策略,并根据另一个策略选择动作。

3、既定策略 TD 控制方法(例如预期 Sarsa 和 Sarsa)的在线效果比新策略 TD 控制方法(例如 Sarsamax)的要好。

4、预期 Sarsa 通常效果比 Sarsa 的要好。

5、Q 学习的在线效果更差(智能体在每个阶段平均收集的奖励更少),但是能够学习最优策略,以及Sarsa 可以获得更好的在线效果,但是学到的是次最优“安全”策略。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值