混合动作空间|揭秘创造人工智能的黑魔法(4)

本文深入探讨混合动作空间中的V函数和Q函数,重点讲解基于V函数的H-PPO算法,包括算法原理、网络结构设计、优化过程及实验分析。H-PPO解决了使用Q函数时的过参数化问题,适用于Parameterized和Hierarchically action space,展现出更好的稳定性和收敛性能。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

还记得我们的混合动作空间专栏吗?过去的三篇专栏里,我们介绍了混合动作空间的定义,常见的动作空间预处理方法,并将当前学术界解决混合动作空间的方法总结为以下三类:

  • 基于状态-动作值函数Q的方法

  • 基于状态值函数V的方法

  • 基于动作空间学习和转换的方法

错过的看这里:

混合动作空间 | 创造人工智能的黑魔法(1)_面向连续-离散混合决策的游戏ai智能体强化学习方法_OpenDILab开源决策智能平台的博客-优快云博客
混合动作空间|揭秘创造人工智能的黑魔法(2)_OpenDILab开源决策智能平台的博客-优快云博客
混合动作空间|揭秘创造人工智能的黑魔法(3)_OpenDILab开源决策智能平台的博客-优快云博客

混合动作空间(3)中,我们介绍了基于Q函数的算法。而从本篇专栏起,我们将为大家讲解基于V函数的混合动作空间算法,包括H-PPO、HiPPO、腾讯绝悟、OpenAI Five,AlphaStar等。

混合动作空间中的V函数和Q函数

定义

先来简单回顾一下强化学习里面Q函数、V函数这两个价值函数的定义。

  • V函数指状态价值函数V_\pi (s_t)

       表示从状态s_t出发,使用策略所带来的累计奖赏。

  •  Q函数指状态-动作价值函数

         表示从状态s_t出发,执行动作a且之后使用策略\pi所带来的累计奖赏;

由此可知,如果我们用随机性策略\pi(a|s)来表示在状态

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值