30、多智能体强化学习与专家指导:原理、挑战与解决方案

多智能体强化学习与专家指导:原理、挑战与解决方案

1. 集中学习与分散执行

将强化学习(RL)的改进与集中学习的样本效率相结合,取得了一些新的成果。其中,多智能体深度确定性策略梯度(MADDPG)算法将DDPG与集中学习、分散执行的方法相结合而闻名。

DDPG(或TD3/PPO等)为智能体在无环境模型的情况下学习策略提供了基础。策略梯度算法为组合多个智能体的梯度提供了理论基础,而值方法中的全局动作值函数可能无法代表局部情况。在训练时采用集中学习方法可以提高样本效率并加速学习,而在评估时,智能体使用独立的策略和局部观察。

其主要动机在于,如果知道所有智能体的动作,就有可能预测或跟踪环境的变化。就像在量子力学中,如果知道宇宙中所有原子的状态和动作,就能预测未来(或过去)。

为了计算单个智能体策略的值,需要知道该智能体策略的结果以及环境中预测的值。但环境会受到其他所有智能体的影响,因此需要提供其他所有智能体的动作信息。从单个智能体的角度来看,多智能体演员 - 评论家算法的公式如下:
- 单智能体演员 - 评论家:∇θJ θ = �πθ ∇θ ln πθ a ∣s Qw s, a
- 多智能体演员 - 评论家:∇θJ θ = �πθ ∇θ ln πθ a ∣s Qw s, a1, a2, ⋯, aN

这就引出了可以有局部、独立的演员,但有集中的评论家的想法。有趣的是,由于每个智能体都学习了演员和评论家,智能体可以有不同的策略和奖励,这意味着该算法在合作和竞争环境中都适用。

大多数演员 - 评论家算法需要策略来生成下一个动作以训练动作值函数。一种简单的解决方案是让每个智能体将策略或所有下一个动作(取决于算法)传

六自由度机械臂ANN人工神经网络设计:正向逆向运动学求解、正向动力学控制、拉格朗日-欧拉法推导逆向动力学方程(Matlab代码实现)内容概要:本文档围绕六自由度机械臂的ANN人工神经网络设计展开,详细介绍了正向逆向运动学求解、正向动力学控制以及基于拉格朗日-欧拉法推导逆向动力学方程的理论Matlab代码实现过程。文档还涵盖了PINN物理信息神经网络在微分方程求解、主动噪声控制、天线分析、电动汽车调度、储能优化等多个工程科研领域的应用案例,并提供了丰富的Matlab/Simulink仿真资源技术支持方向,体现了其在多学科交叉仿真优化中的综合性价值。; 适合人群:具备一定Matlab编程基础,从事机器人控制、自动化、智能制造、电力系统或相关工程领域研究的科研人员、研究生及工程师。; 使用场景及目标:①掌握六自由度机械臂的运动学动力学建模方法;②学习人工神经网络在复杂非线性系统控制中的应用;③借助Matlab实现动力学方程推导仿真验证;④拓展至路径规划、优化调度、信号处理等相关课题的研究复现。; 阅读建议:建议按目录顺序系统学习,重点关注机械臂建模神经网络控制部分的代码实现,结合提供的网盘资源进行实践操作,并参考文中列举的优化算法仿真方法拓展自身研究思路。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值