Distributed Optimal Tracking Control of DT Multiagent Systems via Event-Triggered RL

Distributed Optimal Tracking Control of Discrete-Time Multiagent Systems via Event-Triggered Reinforcement Learning,2022, Zhinan Peng ,RuiLuo , Jiangping Hu , Senior Member, IEEE,KaiboShi , Member, IEEE, and Bijoy Kumar Ghosh , Life Fellow, IEEE

对离散时间多智能体系统使用强化学习解决事件触发最优控制问题。与传统基于强化学习的时间触发控制多智能体系统的最优协调控制相比,仅在设计的事件被触发时才更新控制,减少计算量和传输负载。actor-critic网络近似性能指标,并在线学习事件触发最优控制。事件触发权重调整方法与传统的时间触发(周期固定)方法相比,仅在触发时调整actor神经网络的权重参数,权重调整是非周期性的。基于事件触发的actor-critic神经网络以学习事件触发最优控制。

文章目的为设计分布式控制器,所以智能体跟随领导者轨迹。

多智能体处理信息交换上计算量大的问题,传统上控制器和执行器在系统运行过程中常更新,采样周期固定,提出非周期采样的事件触发控制方案。对未知或不精确系统动力学提出事件触发控制器。
Assumption1给出通信图网络具有领导者的生成树,且无重复的边。
定义局部不一致误差及其动力学,对MASs求解最优跟踪控制,以找到最优分布式控制,最小化局部性能指标函数
事件触发控制器,定义触发递增序列,触发条件需要依赖触发误差和状态相关触发阈值。该

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值