【算法综述】分层强化学习(HRL)

本文深入探讨了分层强化学习(Hierarchical Reinforcement Learning, HRL)的优势及其三种主要研究思路:基于选项(Option)、基于分层局部策略(HAM)和基于子任务(MAXQ)。HRL通过时间抽象和状态抽象提高效率,允许策略跨越多个时间步,并且能够促进迁移学习。Option着重于构建和发现有用的步骤集合,HAM则提供更灵活的抽象层次,而MAXQ则以子任务为导向,将大任务分解为小任务。SMDP作为半马尔可夫决策过程,是这些方法的基础。通过对这些理论的理解,开发者可以更好地设计和应用强化学习算法解决复杂问题。

对比传统的强化学习算法,分层强化学习(Hierarchical Reinforcement Learning)具有很多优势。目前,对其的研究主要集中在三种思路,分别是基于选项的学习(Option)、基于分层局部策略的学习(HAM)与基于子任务的学习(MAXQ)。

HRL更像是一种结构性的框架,而不是具体的算法形式。

分层的优点

  • 时间上的抽象(Temporal abstraction):由于HRL对时间的抽象,其可以考虑持续一段时间的策略,而不只是一个时间点的策略
  • 迁移/重用性(Transfer/Reusability):HRL的本质是分解问题。在把大问题分解为小问题后,小问题学习到的解决方法可以迁移到别的问题之上。
  • 有效性/有意义(powerful/meaningful)-状态上的抽象(state abstraction):HRL存在类似于attention的机制,即当前的状态中与所解决问题无关的状态不会被关注到。

不同的最优

由于问题被分层解决,存在几种不同的最优:

  • 分层最优(Hierarchically optimal):遵循分层结构,但是每一个子部件不一定是局部最优
  • 回溯最优(recursively optimal):遵循分层结构,每一个子部件一定是局部最优
  • 平面最优(flat optimality):不受层级限制,只用最基本的动作去找到一个最优的策略,一般可以给出最多的选择

SMDP

SMDP也就是半马尔可夫决策过程,它与MDP有一定的区别:

  • 动作action可持续,持续时间(holding time/ transition time)为\tau,此期间状态不改变
  • 数学上也是用<\mathcal{S},\mathcal{A},\mathcal{P},\mathcal{R}>表示,但是在这段持续时间内存在不同的理解
    • P(s',\tau|s,a)
    • R=E[r|s,a,s',\tau]

SMDP QL的基本形式

基于SMDP,QL的基本形式也有所变化:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值