43、强化学习相关元素解析

强化学习相关元素解析

1. 折扣因子与回报

折扣因子 $\gamma$ 用于对预期奖励进行折扣。理论上,折扣率 $0 \leq \gamma \leq 1$ 代表了即时奖励和回报 $G_t$ 中预期奖励之间的关联程度,可分为以下三种情况:
- 当 $\gamma = 0$ 时,$G_t = r_{t + 1}$,即回报仅关注即时奖励 $r_{t + 1}$。
- 当 $0 < \gamma < 1$ 时,$G_t$ 的值是收敛的,相当于预期奖励 $r_{t + 2}, r_{t + 3}, \cdots$ 有边界,将无限期问题转化为有限期问题,其回报等于即时奖励加上部分未来折扣奖励。
- 当 $\gamma = 1$ 时,$G_t = r_{t + 1} + r_{t + 2} + r_{t + 3} + \cdots = \sum_{k = 0}^{\infty} r_{t + k + 1}$,此时 $G_t$ 不收敛。

为确保收敛,通常选择的折扣率为 $0 \leq \gamma < 1$。方程 10.2 被称为有限期模型,而方程 10.3 被称为无限期折扣模型,目前大多数强化学习算法采用后者。智能体的目标是最大化回报,即最大化预期回报。

2. 价值函数

价值函数是将回报与策略联系起来的方式。马尔可夫决策过程的最优控制算法主要通过价值函数计算最优策略。价值函数代表一种评估,通过预期回报衡量智能体所处特定状态或在该状态下执行特定动作的质量,且是针对特定策略定义的。强化学习中有以下两种类型的价值函数:
- 状态价值函数 :策略 $\pi$ 下状态 $s$ 的价值,记为 $V

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值