【机器学习】机器学习的基本分类-强化学习-Actor-Critic 方法

Actor-Critic 是一种结合了策略优化(Policy Gradient)和价值函数近似的强化学习算法。它通过同时训练一个 Actor(策略网络) 和一个 Critic(价值网络) 来改进学习效率和稳定性。


核心思想

  1. Actor

    • 负责生成动作,直接表示策略 \pi(a|s; \theta_{\text{actor}}),即在给定状态 s 下选择动作 a 的概率分布。
    • Actor 的目标是通过策略梯度法最大化累计回报。
  2. Critic

    • 负责评估 Actor 的动作质量,使用状态值函数 V(s; \theta_{\text{critic}}) 或动作-状态值函数 Q(s, a; \theta_{\text{critic}})
    • Critic 提供 Actor 的优化方向。
  3. 协作

    • Actor 使用 Critic 提供的值函数或优势函数(Advantage Function)来改进策略。
    • Critic 通过 Actor 的采样结果更新值函数。

算法流程

1. 初始化
  • 初始化 Actor 的策略参数 \theta_{\text{actor}}​。
  • 初始化 Critic 的价值参数
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值