机器人避障黑盒模型的可解释模糊支持系统
在机器学习领域,黑盒模型(如使用强化学习设计的模型)虽然能有效估计输入 - 输出映射,但难以理解其输入 - 输出关系,也无法解释因果关系和改变系统行为。为解决这些问题,可创建一个透明的支持系统来解释黑盒模型。本文将详细介绍如何开发一个模糊支持系统来解释机器人避障黑盒模型的行为。
开发模糊支持系统的一般步骤
当黑盒模型的原始训练数据不可用时,开发模糊支持系统的一般步骤如下:
1. 为给定的测试数据集生成黑盒模型的输出。
2. 使用测试输入数据和生成的输出数据调整模糊推理系统(FIS)。
3. 最后,比较模型的性能,并使用 FIS 解释黑盒模型的预测结果。
graph LR
A[生成黑盒模型输出] --> B[调整 FIS]
B --> C[比较性能并解释预测]
导航环境
在这个例子中,强化学习(RL)代理在模拟环境中训练机器人导航并避障。导航环境描述了一个在避障的同时到达指定目标的任务。目标方向用从机器人指向目标位置的单位力向量($F_t$)表示,避障方向用从最近障碍物位置指向机器人的单位力向量($F_o$)表示。在 25m x 25m 的模拟环境中,机器人、目标和障碍物用半径为 0.5m 的圆表示。
导航任务是组合力向量,使得合力向量 $F$ 的方向 $\theta$ 为机器人提供无碰撞的方向:
$F = wF_o + (1 - w)F_t$,其中 $0 \leq w \leq 1$
$\theta = \angle F
超级会员免费看
订阅专栏 解锁全文
45

被折叠的 条评论
为什么被折叠?



