自动驾驶环境感知技术:从传感器融合到数据集应用
1. 引言
深度学习相关滤波和跟踪方法发展迅速。与传统的光流法、卡尔曼滤波法、均值漂移法等算法相比,相关滤波算法在跟踪速度上有优势,而深度学习方法则具有更高的精度。基于相关滤波的目标跟踪可通过快速傅里叶变换有效实现相关计算,计算速度常达每秒数百帧,但该方法通常依赖颜色和纹理等低级特征,可靠性和鲁棒性远不如深度学习方法。深度学习跟踪方法利用深度神经网络提取图像的深层特征,取得了比传统方法更好的跟踪效果。近年来,随着计算机性能的发展,基于深度学习的目标跟踪方法能满足自动驾驶的实时需求。然而,由于自动驾驶场景的特殊性,如交通参与者的相互遮挡和交互,以及驾驶环境的频繁变化,单模态数据常有缺陷,导致跟踪轨迹不足。因此,一些研究人员通过考虑多传感器数据的冗余性和互补性,克服了单传感器数据的缺陷。与目标检测不同,目标跟踪多传感器融合算法不仅能利用不同传感器数据进行融合,还能融合传感器自身的历史信息或交叉融合不同传感器的历史信息。
2. 多传感器融合
单传感器在自动驾驶场景中都有局限性,相机易受光照、视角、遮挡等因素影响,雷达传感器虽对光和颜色等干扰因素有较强鲁棒性,但在恶劣天气条件下也难以完全解决检测问题。常见传感器优缺点对比如下:
| 传感器类型 | 检测距离(m) | 行人检测 | 目标检测 | 目标识别 | 功能 | 优点 | 缺点 |
| — | — | — | — | — | — | — | — |
| 相机 | 50 | ✓ | ✓ | ✓ | 依靠机器视觉算法检测和识别周围环境与物体,检测前方障碍物距离、定位和环境建模 | 能识别物体类型和信号灯颜色,成本低 | 受光照条件影响,依赖学习样本 | <
超级会员免费看
订阅专栏 解锁全文
1049

被折叠的 条评论
为什么被折叠?



