自动驾驶可解释性:以机器感知为例
在自动驾驶领域,可解释性是一个至关重要的议题。它不仅涉及技术层面的问题,更与人类和具体情境紧密相关。可解释性意味着有义务向相关利益相关者提供他们自主且负责任地行事所需的系统信息,包括信息的数量和质量都要恰当。下面我们将聚焦自动驾驶中的机器感知功能,探讨不同利益相关者的可解释性需求。
机器感知在自动驾驶中的作用
机器感知是使机器能够解释数据以推断其运行环境的一系列技术。在自动驾驶系统中,这是实现“自主性”的关键要素之一。准确的环境表征对于自动驾驶汽车(CAV)在未知和动态环境中规划未来驾驶行为至关重要。
CAV 通过传感器收集环境信息,常见的传感器包括激光雷达(LiDAR)、摄像头和雷达等。这些传感器的设置旨在实现全方位覆盖,并具备冗余性,以防止因单个传感器故障而导致的漏检。以下是常见传感器的特点:
| 传感器类型 | 安装位置 | 功能 |
| ---- | ---- | ---- |
| 高分辨率 LiDAR 传感器 | 车辆顶部 | 提供 360° 覆盖,返回 3D 点云数据 |
| 低分辨率激光传感器 | 车辆下部 | 用于近距离检测 |
| 摄像头 | 面向各个方向,前向摄像头更受关注 | 提供图像信息,前向摄像头可能具有冗余性和更高分辨率 |
| 雷达 | 前后保险杠 | 在恶劣天气条件下提供障碍物速度信息和检测 |
收集到的原始数据需要通过适当的算法进行解释,以提供丰富且一致的环境表征。数据处理技术主要分为两类:基于机器学习(深度学习)的方法和基于几何/计算机视觉的方法,也分别称为数据驱动和模型驱动的方法。
超级会员免费看
订阅专栏 解锁全文
14万+

被折叠的 条评论
为什么被折叠?



