ICCV2019的一篇关于自动驾驶中多目标跟踪的论文
作者:Wenwei Zhang, Hui Zhou, Shuyang Sun, Zhe Wang, Jianping Shi, Chen Change Loy
论文链接:https://arxiv.org/abs/1909.03850
Github链接:https://github.com/ZwwWayne/mmMOT
Abstract
多传感器感知对于确保自动驾驶系统的可靠性和准确性至关重要,而多目标跟踪(MOT)通过跟踪动态对象的顺序运动来改善这一点。当前,用于多传感器多对象跟踪的大多数方法要么由于紧密依赖单个输入源(例如,中心摄像机)而缺乏可靠性,要么由于在后处理中融合了多个传感器的结果而没有充分利用其固有的特性而不够准确。 在这项研究中,我们设计了一个与传感器无关的通用多模态MOT框(mmMOT),其中每个模态(即传感器)能够独立执行其职责以保持可靠性,并通过新颖的多模态融合模块进一步提高其准确性。我们的mmMOT可以以端到端的方式进行训练,可以对每种模态的基本特征提取器和跨模态的邻接估计器进行联合优化。我们的mmMOT还首次尝试在MOT的数据关联过程中对点云的深度表示进行编码。我们进行了广泛的实验,以在具有挑战性的KITTI基准上评估所提出框架的有效性,并报告最先进的性能。
Multi-Object Tracking Framework
tracking-by-detection :
Hui Zhou, Wanli Ouyang, Jian Cheng, Xiaogang Wang, and Hongsheng Li. Deep continuous conditional random fields
with asymmetric inter-object constraints for online multi-object tracking. IEEE TCSVT, 2018. 2
Sarthak Sharma, Junaid Ahmed Ansari, J. Krishna Murthy, and K. Madhava Krishna. Beyond pixels: Leveraging ge-
ometry and shape cues for online multi-object tracking. In ICRA, 2018. 2, 4, 8
本文介绍了一种新的多模态多目标跟踪框架mmMOT,该框架在自动驾驶场景下,通过融合多种传感器数据,提高了目标跟踪的准确性和可靠性。mmMOT采用端到端的训练方式,对不同模态的基础特征提取器和跨模态的邻接估计器进行联合优化,首次尝试在数据关联过程中编码点云的深度表示。
1769

被折叠的 条评论
为什么被折叠?



