使用模糊支持系统解释黑盒模型
1 引言
在机器学习领域,像深度学习这类非确定性方法能够设计黑盒模型,用于根据给定的实验或模拟数据来估算输入 - 输出映射关系。然而,黑盒模型所定义的输入 - 输出关系往往难以理解。此时,创建一个透明的支持系统来解释黑盒系统的输入 - 输出关系是一种常见的做法。模糊推理系统(FIS)就是这样一种透明模型,它使用可解释的规则库来表示系统知识,因此常被用作支持系统来解释现有的黑盒模型。
2 黑盒模型
2.1 模型概述
本示例中的深度神经网络(DNN)模型模拟了一个采用模型预测控制(MPC)实现的汽车车道保持辅助(LKA)系统。配备 LKA 系统的车辆(自车)有传感器(如摄像头),可测量车道中心线与自车之间的横向偏差和相对偏航角,还能测量当前车道曲率和曲率导数。LKA 系统通过调整自车的前转向角,使自车沿车道中心线行驶,其控制目标是让横向偏差和相对偏航角接近零。
2.2 输入输出
DNN 基于的 LKA 系统使用以下输入来生成输出转向角 u*:
| 输入 | 描述 | 单位 |
| — | — | — |
| 横向速度 Vy | 车辆的横向移动速度 | m/s |
| 偏航角速度 r | 车辆的偏航角变化率 | rad/s |
| 横向偏差 e1 | 车辆与车道中心线的横向距离 | m |
| 相对偏航角 e2 | 车辆与车道中心线的角度偏差 | rad |
| 前一个转向角 u | 上一时刻的转向角 | rad |
| 测量干扰 d | 道路偏航率(纵向速度 * 曲率) | - |
超级会员免费看
订阅专栏 解锁全文
851

被折叠的 条评论
为什么被折叠?



