自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(18)
  • 收藏
  • 关注

原创 【非线性鲁棒控制器_滑模控制学习】_中_小白都能看懂的稳定性证明

系统 x˙=f(x)+u\dot{x}=f(x)+ux˙=f(x)+u,∣f(x)∣<ρ(x)|f(x)|<\rho(x)∣f(x)∣<ρ(x)目标是令x→xdx\rightarrow x _dx→xd​,即e=xd−xe=x_d-xe=xd​−x, e→0e\rightarrow0e→0e˙=x˙d−f(x)−u(1) \dot e=\dot x_d-f(x)-u (1) e˙=x˙d​−f(x)−u(1)令:u=x˙d+ke+ρ∣e∣e(2) u=\dot x_d+ke+\rho\frac{

2025-07-03 09:26:33 431

原创 MPC 中约束优化的讲解

这页 PPT 用 “无约束→等式约束→不等式约束” 的递进,讲了 MPC 里优化问题的约束逻辑:无约束:纯数学最优,实际没用;等式约束:用拉格朗日乘数法把约束揉进优化;不等式约束:最优解可能被 “卡” 在约束边界,得区分 “起作用 / 不起作用” 的约束。理解上述内容,就可以明白 MPC 为啥必须考虑约束,以及约束怎么影响最终控制策略。

2025-07-28 20:03:18 830

原创 【滑模控制概念理解】_滑模函数和误差函数

本文讨论了在阅读《机器人控制系统的设计与matlab仿真》教材时发现的两个相似公式(3.3和3.11)为何命名不同的问题。式3.3被称为"滑模函数",用于滑模控制,定义系统状态跟踪的滑模面;式3.11被称为"误差函数",用于自适应控制,表示滤波误差。虽然两个公式数学形式相似(均为误差与误差导数的线性组合),但命名差异源于它们所属的不同控制理论框架(滑模控制与自适应控制)以及各自的应用背景。这反映了控制理论中同一数学工具在不同理论体系下的术语差异。

2025-07-04 11:05:15 400

原创 【非线性鲁棒控制器_滑模控制学习】_终_五种控制仿真验证

本文通过Simulink仿真对比了五种控制器(滑模控制、两种高增益控制和两种高频控制)在非线性系统$\dot{x}=ax^2+u$中的表现。仿真结果表明:高增益和高频控制器的误差与$\epsilon$参数成反比,$\epsilon$越小误差越小但控制输入越大;滑模控制存在明显抖振问题。通过实验验证了理论推导,即误差满足$|e(t)|\leq\sqrt{\frac{\epsilon}{k}}$的关系,为控制器参数选择提供了依据。该研究完整展示了从模块搭建、实验设计到结果分析的仿真流程。

2025-07-04 10:22:05 1015

原创 【非线性鲁棒控制器_滑模控制学习】_下_基础滑模控制仿真验证

本文介绍了基础滑模控制器的Simulink仿真实现。仿真结果显示误差快速收敛但在0附近振荡,控制输入在±1间剧烈切换,存在明显的抖振现象。该研究完成了从理论推导到仿真验证的全流程,为后续控制器对比实验奠定了基础。

2025-07-03 10:49:45 1336

原创 【非线性鲁棒控制器_sliding mode学习】_上_引入滑模控制

本文介绍了非线性鲁棒控制器的基本原理及其应用。首先解释了鲁棒的含义,即在存在有界误差的情况下保证系统稳定性和性能。通过一个简单的例子展示当系统参数未知但有界时如何设计自适应控制器,并进一步推广到一般情况下的滑模控制方法。文章详细推导了基于李雅普诺夫函数的稳定性证明过程,表明所设计的控制器能确保系统误差指数收敛。最后给出了滑模控制在具体实例中的应用方法,并指出可通过仿真验证控制效果。全文系统地阐述了鲁棒控制的理论基础和实现方法,为处理不确定非线性系统提供了有效的控制策略。

2025-07-02 20:50:27 994

原创 【基于双曲正切函数的滑模控制】

本文对比研究了基于切换函数和双曲正切函数的滑模控制方法。通过理论推导,建立了两种控制器的数学模型,分析了各自的收敛特性。仿真结果表明,在相同参数条件下,采用双曲正切函数的控制器在控制输入信号上表现出更平滑的特性,有效减小了系统抖振。相轨迹分析显示两种方法都能实现误差收敛,但双曲正切函数控制具有更好的动态性能。研究为滑模控制器的参数优化和性能改进提供了理论依据。

2025-06-30 22:37:59 1283

原创 Claude编码实现双曲正切函数的图像+双曲正切函数的两个性质

本文展示了Claude在数学可视化与分析方面的强大能力。通过交互式调试,Claude快速生成了完整的MATLAB代码,绘制了不同ε值下的双曲正切函数及其导数图像,并自动添加了参考线和注释说明。在理论分析部分,Claude详细推导了双曲正切函数的两个重要性质:一个简单恒等式(引理1)和一个有界性结果(引理2)。对于引理2,Claude不仅通过数值方法验证了函数g(t)=t(1-tanh(t))的最大值约为0.2785,还解释了ε参数对函数行为的影响。整个过程体现了Claude在数学推导、代码生成和可视化分析方

2025-06-30 08:43:14 1251

原创 滑模控制简单实例的matlab实现+Claude代码注释

滑模控制系统MATLAB代码摘要 该代码实现了一个完整的滑模控制系统仿真,包含四个主要模块: 控制器模块:采用滑模控制算法,计算控制输入ut。核心公式为ut=J*(-cdth-(1/J)(ks+xitesign(s))),其中包含等价控制部分和切换控制部分。 输入模块:生成期望角度信号(常值1.0弧度)。 被控对象模块:模拟旋转系统动态特性Jθ̈=u+d(t),其中J=2为转动惯量,d(t)=sin(t)为干扰信号。 绘图模块:绘制系统响应曲线和控制信号。 系统参数说明: 滑模面参数c=10 趋近律参数xi

2025-06-29 09:17:38 1046

原创 【读博客/翻译】A Visual Guide to Evolution Strategies 进化策略的视觉指南

进化策略的视觉指南 A Visual Guide to Evolution Strategiesbrief博客地址 链接这个图首先就好有趣!Survival of the fittest.物竞天择,适者生存下面开始正文:在这篇文章中,我借助一些直观的例子来解释进化策略(ES)是如何工作的。我尽量让方程式保持轻松,如果读者希望了解更多细节,我提供了原始文章的链接。这是一系列文章的第一篇,我计划在这里展示如何将这些算法应用到从MNIST、OpenAI Gym、Roboschool到PyBullet

2020-11-12 10:03:18 954 1

原创 【文献阅读】PS 综述 in Continuous Action Domains: an Overview

Policy Search in Continuous Action Domains: an OverviewAbstractContinuous action policy search is currently the focus of intensive research, driven both by the recent success of deep reinforcement learning algorithms and the emergence of competitors base

2020-10-03 09:55:43 1072 1

原创 【文献阅读】ES as a Scalable Alternative to RL(OpenAI 17)

Evolution Strategies as a Scalable Alternative to Reinforcement Learningbrief文章链接该文章是 Open AI 17年发布的,目前有300+的引用量。Abstract【开篇明意】We explore the use of Evolution Strategies (ES), a class of black box optimization algorithms, as an alternative to popular

2020-09-23 20:24:50 2186

原创 【文献阅读】17年进化算法和DRL结合的文章

Improving Exploration in Evolution Strategies for Deep Reinforcement Learning via a Population of Novelty-Seeking AgentsBrief目前该文已经有了上百的引用量,还是有点厉害。文章地址 链接代码链接 code作者来自佛罗里达大学和openAIAbstract【开篇明义】Evolution strategies (ES) are a family of black-box opt

2020-09-14 21:20:11 1788

原创 【文献阅读】Soft Actor-Critic(ERL的前一版)

Soft Actor-Critic: Off-Policy Maximum Entropy Deep Reinforcement Learning with a Stochastic ActorBrief文章链接paper代码链接code作者Sergey Levine来自加州伯克利分校UC BerkeleyAbstract

2020-09-04 16:51:38 879

原创 【文献阅读】RL经典:Benchmarking Deep Reinforcement Learning for Continuous Control

Benchmarking Deep Reinforcement Learning for Continuous ControlBriefpaper 链接paper开源代码code引用量 300++作者Pieter Abbeel来自UC BerkeleyAbstract鉴于RL领域具有很强的时效性,这篇2016年开源的论文在当时应该是非常轰动的。不过时至今日,...

2020-08-31 10:02:01 1639

原创 【文章阅读】BN(2015)理解Batch Normalization批标准化

Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate ShiftBrief该论文是关于 BN, 引用量300+论文链接paperPieter Abbeel Sergey Levine 作者依然是两位大佬

2020-07-19 21:23:40 950

原创 【文献阅读】进化导向的策略梯度RL

Evolution-Guided Policy Gradient in Reinforcement LearningBrief文章链接 paper代码链接code作者 Kagan Tumer作者 另外一个作者是因特尔人工智能研究院的。Intel AI · Ai-Lab俄勒冈州立大学协作机器人与智能系统研究所Collaborative Robotics and Intelligent Systems Institute Oregon State UniversityAbstract文章是在.

2020-07-15 10:54:19 1357

原创 【文章阅读】连续空间增量式RL(策略松弛和加权权重)

【文章阅读】Incremental Reinforcement Learning in Continuous Spaces via Policy Relaxation and Importance WeightingBriefAbstractIntroduction第一段:第二段:第三段:第四段:第五段:第六段:第七段:BackgroundA. Reinforcement Learning in Continuous Spaces连续空间强化学习B. Related Work相关工作第三章方法设计INCRE

2020-07-14 20:33:08 793

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除