强化学习中的均值场博弈与受限投资组合管理优化
在强化学习领域,均值场博弈(MFG)和受限投资组合管理是两个重要的研究方向。本文将介绍两种创新的方法:均值场近端策略优化(MF - PPO)算法和基于动作空间分解的优化(ADBO)方法,它们分别在均值场博弈和受限投资组合管理问题上展现出了优异的性能。
均值场近端策略优化(MF - PPO)算法
数值结果
为了评估MF - PPO算法的性能,我们将其与深度Munchausen在线镜像下降(D - MOMD)和深度平均网络虚拟博弈(D - ANFP)这两种最先进的算法进行了比较。实验在四房间和迷宫两种环境中进行,采用可利用性指标来衡量算法向均值场纳什均衡(MFNE)的收敛程度。
| 环境 | D - MOMD | D - ANFP | MF - PPO |
|---|---|---|---|
| 四房间 | 64.41 ± 24.84 | 127.37 ± 15.19 | 15.84 ± 1.95 |
| 迷宫 | 153.80 ± 93.05 | 929.54 ± 46.36 | 93.63 ± 38.11 |
从可利用性指标来看,MF - PPO在两种环境中都表现出色。在四房间
超级会员免费看
订阅专栏 解锁全文
68

被折叠的 条评论
为什么被折叠?



