【自动控制原理】滞后补偿器_Lag Compensator-笔记

本文探讨了如何通过稳态误差分析单位反馈系统,利用终值定理计算传递函数的稳态误差,并通过Simulink模拟补偿器对系统进行改进。着重讲解滞后补偿器对系统动态特性的影响,以及不同补偿策略对瞬态响应的影响。

从稳态误差的角度入手。

先来看一个简单的单位反馈系统

                                               

 求它的稳态误差,要用到终值定理

 


 例如:一个系统的传递函数为

 则

 它的稳态误差为

 

 我们把这个系统在simulink里看一下。


 下面考虑加一个补偿器。

 即前边所有式子都要乘上一个 \frac{s+z}{s+p}.

稳态误差为

 

 

 滞后补偿器

把博德图画出来我们就可以知道相位是有滞后的。

 

 

 

 分很多种情况,下面列出两种:

 然后放到simulink中,整体👇

 运行👇

 

 

 新增的极点和零点到根上的一个点,产生的角度是差别不大的。

即,新增的一对零点和极点靠近虚轴时,不会对原有系统的根轨迹产生大的影响。

这样就能尽可能地保持原有瞬态响应

相反,如果两个点距离差别非常大,就会对原有瞬态响应产生非常大的影响。

```markdown ### 结果分析与解读 你已成功运行滞后项模型,输出如下: ``` Testing lag = 1 → Lag 7 Best lag: 7, Minimum Train RMSE: 24.8810 ``` --- ### 📊 性能趋势总结 | 滞后阶数 $ p $ | RMSE ↓ | MAE ↓ | R² ↑ | |------------------|--------|-------|------| | 1 | 25.68 | 19.34 | 0.433 | | 2 | 25.66 | 19.38 | 0.435 | | 3 | 25.56 | 19.28 | 0.440 | | 4 | 25.28 | 19.09 | 0.450 | | 5 | 25.08 | 18.98 | 0.448 | | 6 | 24.96 | 18.96 | 0.453 | | **7 (最优)** | **24.88** | **18.88** | **0.457** | - ✅ **RMSE 和 MAE 逐渐下降**:说明增加历史信息有助于提升模型对训练数据的拟合能力。 - ✅ **R² 缓慢上升至 0.4566**:表示模型解释了约 45.7% 的方差,虽不完美但在仅用滞后特征且排除当前输入的情况下合理。 - ⚠️ **注意过拟合风险**:随着滞后阶数增加,参数维度上升(每多一天增加6个特征),可能导致模型记忆噪声而非学习规律。 --- ### 🔍 关键结论 1. **最优滞后阶数为 7 天** - 使用过去 **6 到 1 天前**(即 $ t-7 $ 至 $ t-1 $)的污染物数据预测第 $ t $ 天 AQI 效果最好。 - 表明空气质量具有较强的**周级时间依赖性**,历史趋势在一周内持续影响当前水平。 2. **引入更多历史信息有益但边际效应递减** -lag=1 到 lag=7,RMSE 下降约 3.1%,说明额外历史有帮助,但改进有限。 - 可考虑加入季节性特征或外部变量(如气象)进一步提升性能。 3. **训练集评估结果需谨慎看待** - 当前指标均为**训练集内表现**,反映的是“拟合程度”,不代表泛化能力。 - 建议后续: - 在独立测试集上验证(`X[-365:]`) - 使用时间序列交叉验证(如 `TimeSeriesSplit`)避免乐观偏差 --- ### ✅ 后续优化建议 | 方向 | 建议 | |------|------| | **验证泛化能力** | 在测试集上计算 RMSE/MAE/R²,判断是否过拟合 | | **防止过拟合** | 增加正则化强度、限制最大 lag、使用 PCA 降维 | | **改进特征工程** | 添加滑动均值、波动率、星期效应等时序特征 | | **尝试其他模型** | 如 LSTM、XGBoost + 时间窗口、VAR 模型等 | --- ### 知识点 - **滞后阶数选择原则**:通过比较不同 $ p $ 下的误差指标,选择最优历史长度。 - **训练集性能局限性**:高 R² 不等于好模型,必须结合验证集判断泛化能力。 - **时间序列输入构造**:将历史观测展平为向量是监督学习转换的关键步骤。 ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值