YOdar:基于不确定性的传感器融合,用于带有摄像头和雷达传感器的车辆检测
(略读)
论文 YOdar: Uncertainty-based Sensor Fusion for Vehicle Detection with Camera and Radar Sensors
摘要
论文中,我们提出了一种基于不确定性的传感器与摄像机和雷达数据融合的方法。两个神经网络的输出,一个处理摄像机,另一个处理雷达数据,以不确定性感知的方式组合。为此,我们收集两个网络的输出和相应的元信息。对于每个预测对象,通过梯度增强方法对收集的信息进行后处理,以产生两个网络的联合预测。在我们的实验中,我们将YOLOv3目标检测网络与定制的一维雷达分割网络相结合,并在nuScenes数据集上评估我们的方法。
我们特别关注夜间场景,其中基于摄像机数据的目标检测网络的能力可能受到限制。我们的实验表明,这种不确定性感知融合方法也具有非常模块化的性质,与单传感器基线相比显著提高了性能,并且在专门定制的基于深度学习的融合方法范围内。
介绍
计算机视觉系统在自动驾驶中面临的最大挑战之一是在任何特定情况下正确识别汽车环境。在有限的计算资源下运行时,必须正确解释不同传感器的数据。除了密集的交通,不同的天气条件,如太阳、大雨、雾和雪,对最先进的计算机视觉系统来说都是一个挑战。先前的研究表明,使用多个传感器,即所谓的传感器融合,可以提高目标检测精度,例如,当组合相机和激光雷达传感器[1{5]时,到目前为止,包含使用雷达数据和另一个传感器的真实街道场景的数据集是一个例外,尽管使用不同传感器