32、基于内在和外在奖励的约束强化学习

基于内外奖励的约束强化学习

基于内在和外在奖励的约束强化学习

1. 引言

学习代理的主要目标通常由实验者确定。在强化学习中,其目标是最大化一个标量奖励函数,而这个奖励函数需要通过反复试验为每个任务进行设计。虽然实现能有效提升学习能力的算法很重要,但设计合适奖励函数的原则在未来会变得越来越重要。

奖励函数可分为外在奖励和内在奖励两类。在很多情况下,外在奖励除了对应重要事件的少数关键点外,其他地方都为零。尽管设计这样的稀疏奖励函数比设计密集奖励函数更容易,但稀疏奖励会阻碍学习代理的高效学习。相反,内在奖励被视为密集奖励函数,因为它通常根据代理的内部信息(如感官输入)计算得出,所以大部分时间都会给出非零奖励。虽然内在奖励通常与任务无关,但对于设计开放式系统起着重要作用。

近期,一些研究人员对带有内在奖励的学习算法进行了研究。不过,大多数先前的研究并未讨论外在奖励对内在激励学习的负面影响,目前也不清楚外在奖励如何促进或阻碍学习过程。

为解决这个问题,本文从约束优化问题的角度探讨了内在和外在奖励之间的相互作用。学习代理试图在由外在奖励给出的不等式约束下,最大化长期平均内在奖励。为此,提出了一种新的框架——约束策略梯度强化学习(CPGRL),它由策略梯度强化学习(PGRL)算法和梯度投影方法组成。为了评估CPGRL,进行了两个模拟实验:一个简单的三状态马尔可夫决策问题和一个机械臂控制任务。

2. 约束策略梯度强化学习

2.1 公式化

在每个时间步,代理观察到状态 $x \in X$,并以概率 $\mu_{\theta}(x,u): X \times U \to [0, 1]$ 执行动作 $u \in U$,其中 $\theta \i

【直流微电网】径向直流微电网的状态空间建模与线性化:一种耦合DC-DC变换器状态空间平均模型的方法 (Matlab代码实现)内容概要:本文介绍了径向直流微电网的状态空间建模与线性化方法,重点提出了一种基于耦合DC-DC变换器状态空间平均模型的建模策略。该方法通过对系统中多个相互耦合的DC-DC变换器进行统一建模,构建出整个微电网的集中状态空间模型,并在此基础上实施线性化处理,便于后续的小信号分析与稳定性研究。文中详细阐述了建模过程中的关键步骤,包括电路拓扑分析、状态变量选取、平均化处理以及雅可比矩阵的推导,最终通过Matlab代码实现模型仿真验证,展示了该方法在动态响应分析控制器设计中的有效性。; 适合人群:具备电力电子、自动控制理论基础,熟悉Matlab/Simulink仿真工具,从事微电网、新能源系统建模与控制研究的研究生、科研人员及工程技术人员。; 使用场景及目标:①掌握直流微电网中多变换器系统的统一建模方法;②理解状态空间平均法在非线性电力电子系统中的应用;③实现系统线性化并用于稳定性分析与控制器设计;④通过Matlab代码复现扩展模型,服务于科研仿真与教学实践。; 阅读建议:建议读者结合Matlab代码逐步理解建模流程,重点关注状态变量的选择与平均化处理的数学推导,同时可尝试修改系统参数或拓扑结构以加深对模型通用性适应性的理解。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值