【论文复现】AB3DMOT: A Baseline for 3D Multi-Object Tracking and New Evaluation Metrics

文章介绍了AB3MOT这一3D多目标跟踪框架,它扩展了2D卡尔曼滤波和2DIOU匹配到3D空间。作者提供了代码和论文链接。在Ubuntu18.04上配置环境时,需要设置PYTHONPATH。QuickDemo运行时会遇到错误,需下载OXTS数据集和修正代码。文章还详细说明了如何使用mini数据集进行测试,以及如何仅下载必要的15GBKITTI图像数据来获得结果。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1. 前言

AB3MOT是经典的3D多目标跟踪框架,将2D卡尔曼推广到了3D,并将2D IOU匹配推广到了3D。由于论文的原理基本上与2D相同所以作者在文中没有叙述很多细节,要理解具体实现细节,只能看代码。
项目代码
论文地址

2.环境配置

anaconda 官网下载
KITTI数据集 KITTI这是会发现很大如果简单测试可以先不下载,我是先按照README测试了QuickDemo后,最后测试的完整数据集,因为校园网很贵,或者凌晨下载,凌晨不要钱,总之你如果下载数据集不方便可以跳过继续看。
在这里插入图片描述参考链接1:
ubuntu18.04配置AB3DMOT多目标跟踪算法,详细配置流程–暧昧的呆呆猫

按照官方README一步一步来,遇到问题参考“参考链接1”,最后添加环境变量:

sudo gedit ~/.bashrc
加入
export PYTHONPATH=${PYTHONPATH}:/home/rock/AB3DMOT
export PYTHONPATH=${PYTHONPATH}:/home/rock/AB3DMOT/Xinshuo_PyToolbox
注意rock是我的用户名字,改成你的,还要注意文件夹结构的对应
source ~/.bashrc

在这里插入图片描述

3.QuickDemo

此时准备好环境后直接运行QuickDemo会报错,因为文件跟代码存在问题,首先是需要OXTS数据集文件
在这里插入图片描述
KITTI官网下载。并在AB3MOT/data/KITTI/目录下新建tracking文件夹,此时提醒你已有文件夹,删除重建好了,因为原始的丢失了
在这里插入图片描述
将下载好的文件解压进去,最好使用linux的标准的解压命令Ubuntu 常用解压与压缩命令-蕉叉熵
,有时解压由于编码问题也会出现莫名bug.
你可以看到data目录下有个mini的文件夹,复制里面训练集与测试集的calib与image_02到相应的tracking文件夹下在这里插入图片描述
此时运行README的QuickDemo还是报错,哎(当时我在想不是吧大佬的代码这么多bug!!!),后来我发现读懂代码是复现大佬代码的第一道门槛,嘿嘿
修改代码,
在这里插入图片描述
因为mini数据集不全,所以把AB3MOT/AB3MOT_libs/utils.py中验证集的参数改为
在这里插入图片描述
为什么呢,看下图,因为复制的mini只有这两个,原始代码是完整KITTI数据集的
在这里插入图片描述
此时运行,发现成功了结果在AB3MOT/results/KITTI/pointrcnn_val_H1_thres
在这里插入图片描述
分别是图片与视频,由于图片很少所以视频很短,接下来需要下载KITTI数据集,复现长的视频序列。

4.KITTI数据集测试

刚开始你会发现官网让你下载完整数据集,然后看到数据集大小,就劝退了,后来经过细细阅读代码,我发现只需要下载15G的图像数据即可:
在这里插入图片描述
在这里插入图片描述
并不需要雷达的35GB除非你想可视化点云的。因此我只下载左相机的,一定看清楚左相机,数据集后面也有描述。漫长的等待,其实就是吃了饭的功夫,嘿嘿~
删除tracking中原先的图像数据,解压新的。剩下的跟QuickDemo的命令一样,结果存放位置也一样。

python3 main.py --dataset KITTI --split val --det_name pointrcnn
python3 scripts/post_processing/trk_conf_threshold.py --dataset KITTI --result_sha pointrcnn_val_H1
python3 scripts/post_processing/visualization.py --result_sha pointrcnn_val_H1_thres --split val

在这里插入图片描述
打开就是结果的视频了,0001.mp4见复现结果,接下来慢慢研究,嘿嘿

复现结果

请添加图片描述
tip:markdown图片gif居中小技巧
在这里插入图片描述
后缀加入#pic_center

03-25
### AB3DMOT 技术概述 AB3DMOT(Associative Benchmark for 3D Multi-Object Tracking)是一种针对三维多目标跟踪的任务设计的技术框架或评估方法。该技术通常涉及计算机视觉中的物体检测、运动估计以及轨迹预测等领域,广泛应用于自动驾驶、机器人导航以及其他需要实时感知环境的应用场景。 #### 1. **背景与定义** AB3DMOT 提供了一种标准化的方式,用于衡量不同算法在处理复杂动态环境中多个移动对象的能力。这种技术的核心在于如何有效地关联来自不同时刻的检测结果,并生成连续的对象轨迹[^2]。具体来说,它依赖于先进的深度学习模型来提取特征并建立时间序列上的联系。 #### 2. **关键技术组件** ##### (a) 物体检测 为了实现高质量的目标追踪,首先需要精确地识别图像或者点云数据中的各个独立个体。这一步骤可以借助诸如 PointPillars 或 CenterPoint 这样的先进神经网络完成,它们专门优化了对于 LiDAR 扫描输入的支持性能[^3]。 ```python import torch from models import PointPillarsNet def detect_objects(lidar_data): model = PointPillarsNet() detections = model(torch.tensor(lidar_data)) return detections ``` ##### (b) 轨迹管理 一旦获得了当前帧内的所有潜在目标位置,则需通过某种机制决定哪些新发现对应已知实例的历史记录扩展路径。常用的方法包括匈牙利匹配算法及其变体形式IOU Tracker, Kalman Filter等辅助工具共同作用下形成最终决策链条[^4]。 ##### (c) 性能评价指标 MOTA(Multiple Object Tracking Accuracy), MOTP(Mean Overlap Precision)等一系列专用度量标准被用来量化系统表现优劣程度。这些数值越高表明解决方案越接近理想状态即完全无误地再现真实世界发生的一切变化过程[^5]。 #### 3. **应用场景与发展前景** 随着传感器硬件成本下降和技术进步推动计算能力提升,基于LiDAR和其他模态融合方案构建起来的大规模公开测试集合如nuScenes本身也促进了此类研究方向快速发展壮大趋势明显可见一斑[^6]。未来几年内我们可以预见更多创新成果涌现出来进一步缩小理论极限距离实际部署之间差距直至达成真正意义上的全自动化驾驶体验为止。
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

RockWang.

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值