对比传统的强化学习算法,分层强化学习(Hierarchical Reinforcement Learning)具有很多优势。目前,对其的研究主要集中在三种思路,分别是基于选项的学习(Option)、基于分层局部策略的学习(HAM)与基于子任务的学习(MAXQ)。
HRL更像是一种结构性的框架,而不是具体的算法形式。
分层的优点
- 时间上的抽象(Temporal abstraction):由于HRL对时间的抽象,其可以考虑持续一段时间的策略,而不只是一个时间点的策略
- 迁移/重用性(Transfer/Reusability):HRL的本质是分解问题。在把大问题分解为小问题后,小问题学习到的解决方法可以迁移到别的问题之上。
- 有效性/有意义(powerful/meaningful)-状态上的抽象(state abstraction):HRL存在类似于attention的机制,即当前的状态中与所解决问题无关的状态不会被关注到。
不同的最优
由于问题被分层解决,存在几种不同的最优:
- 分层最优(Hierarchically optimal):遵循分层结构,但是每一个子部件不一定是局部最优
- 回溯最优(recursively optimal):遵循分层结构,每一个子部件一定是局部最优
- 平面最优(flat optimality):不受层级限制,只用最基本的动作去找到一个最优的策略,一般可以给出最多的选择
SMDP
SMDP也就是半马尔可夫决策过程,它与MDP有一定的区别:
- 动作action可持续,持续时间(holding time/ transition time)为
,此期间状态不改变
- 数学上也是用
表示,但是在这段持续时间内存在不同的理解
SMDP QL的基本形式
基于SMDP,QL的基本形式也有所变化:

本文深入探讨了分层强化学习(Hierarchical Reinforcement Learning, HRL)的优势及其三种主要研究思路:基于选项(Option)、基于分层局部策略(HAM)和基于子任务(MAXQ)。HRL通过时间抽象和状态抽象提高效率,允许策略跨越多个时间步,并且能够促进迁移学习。Option着重于构建和发现有用的步骤集合,HAM则提供更灵活的抽象层次,而MAXQ则以子任务为导向,将大任务分解为小任务。SMDP作为半马尔可夫决策过程,是这些方法的基础。通过对这些理论的理解,开发者可以更好地设计和应用强化学习算法解决复杂问题。
最低0.47元/天 解锁文章
1237

被折叠的 条评论
为什么被折叠?



