多目标跟踪MOT——对ByteTrack算法的一些理解

ByteTrack是一种多目标跟踪(MOT)方法,它使用YOLOX检测器并改进了数据关联策略,关联每个检测框而非仅限于高分框,从而减少目标丢失。该模型通过保留低分检测框并利用其与轨迹的相似性来恢复真实目标。数据关联过程包括两次匹配,一次针对高分检测框,一次针对低分检测框,有效地处理遮挡和运动模糊问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1.前言

    多目标跟踪,既MOT(Multiple Object Tracking),它一般由检测器模块和数据关联模块两个模块组成,它的作用是在事先不知道目标情况的前提下,对视频中用户感兴趣的目标,如行人、汽车、动物等进行检测并赋予ID进行轨迹跟踪的技术。
    大多数方法通过关联分数高于阈值的检测框来获取标识。检测分数低的物体,例如被遮挡的物体,被简单地扔掉,这会带来不可忽视的真实物体缺失和碎片化的轨迹。基于此背景,论文《ByteTrack: Multi-Object Tracking by Associating Every Detection Box》中提出了一个基于目标检测(Tracking-by-detection)的多目标跟踪模型-ByteTrack,通过关联每个检测框而不是仅关联高分检测框来进行跟踪。对于低分检测框,我们利用它们与轨迹的相似性来恢复真实对象并过滤掉背景检测。论文里着重介绍了一个数据关联模型-Byte,但它并没有提出一个新的检测器模块,使用了YOLOX作为它的检测器模块。
    
文章地址:https://arxiv.org/pdf/2110.06864.pdf
代码地址:https://github.com/ifzhang/ByteTrack

2.检测器模块

    ByteTrack模型使用YOLOX作为检测器模块,YOLOX是2021年提出的高性能检测器,YOLOX将YOLO系列探测器切换到了无锚模式,而且采用了其他先进的检测技术,包括去耦头、强数据增强、多阳性和有效的标签分配策略Simota,以实现先进的目标检测性能,网络结构图如图所示,这里不介绍太多。
文章地址:https://arxiv.org/abs/2107.08430
在这里插入图片描述

3.数据关联模块

    数据关联模块是多目标跟踪模型的核心,它首先计算轨迹和检测盒之间的相似度,然后根据相似度采用不同的策略进行匹配,BYTE方法与以往的只保留高分检测盒的数据关联方法不同,它几乎保留了每个检测框,并将其分为高分检测框和低分检测框。它首先将高分检测框与现有的轨迹相关联。一些轨迹不匹配是因为它们与适当的高分检测框不匹配,这通常在发生遮挡、运动模糊或大小更改时发生。然后,它将低分检测框与这些不匹配的轨迹相关联,以恢复低分检测框中的对象,并同时滤除背景。
    BYTE的输入是视频序列V,以及对象检测器DET,检测分数阈值τ,它的输出是视频的轨迹T,每个轨迹包含每个帧中对象的包围盒和标识。
    1)对于视频中的每一帧,首先使用检测器DET获得检测框和分数,然后根据检测分数阈值τ将所有的检测框分为DHigh和DLow两部分。对于得分高于τ的检测框放入高分检测箱DHigh中,得分低于τ的检测框放入DLow中(算法1中的第3至13行),然后采用卡尔曼滤波对每个轨迹的当前帧中的新位置进行预测(算法1中第14至16行)。
    2)对高分检测框DHigh和所有的轨迹(包括TLost)之间执行第一次关联。相似度可以通过检测框DHIGH和预测轨迹框之间的IOU或Re-ID特征距离来计算。然后,采用匈牙利算法完成基于相似度的匹配。未匹配的检测保存在Dremain中,未匹配的轨迹保存在Tremain中(算法1中的第17至19行)
    3)在第一次关联之后,对Dlow和Tremian执行第二次关联,关联过程跟第一次关联大体类似,但论文中指出,第二次关联时只单独使用IOU作为相似性,因为低分检测框通常包含严重的遮挡或运动模糊,并且外观特征不可靠。保留Tremain里未匹配的轨迹,删除DLow中所有未匹配的低分检测框,将它们视为背景。(算法1中的第20至21行)
    4)两次关联后,不匹配的轨迹将被删除。但是算法1中并没有介绍这些轨迹再生的过程,实际上第二次关联后剩下的未匹配的轨迹Tremain,将会被放入TLost中。对于TLost中的每个轨迹,只有当它存在超过30个帧时才会被删除。
    5)最后将会对Dremain里未匹配的高分检测框初始化为新的轨迹(算法1中的第23至25行)。每个单独帧的输出是当前帧中轨迹T的边界框和标识(不输出Tloost的框和身份)。
    
    注:个人理解认为,这里的轨迹即文章中的 “tracklet”,可以理解为已经被确定身份即赋予ID的检测,每对第 i 帧进行关联的时候,就是由第 i-1 帧(不一定是i-1帧,也可各几帧进行关联)中的轨迹与第i帧的检测进行关联,关联成功的检测即可被赋予ID即成为轨迹。

算法1如下:
在这里插入图片描述
    第 i 帧关联示意图。为了图像的简洁,我没有将Dremain区和Tremain区等画出来,建议在对上述算法1叙述中有初步理解以后再看示意图。
在这里插入图片描述

4.展示

    官方提供的运行demo展示。

在这里插入图片描述

### ByteTrack 跟踪算法简介 ByteTrack 是一种基于多目标跟踪(Multiple Object Tracking, MOT)的经典算法,其设计旨在解决实时性和准确性之间的平衡问题。该算法的核心思想是通过结合检测器的结果与卡尔曼滤波预测的位置来实现高效的目标跟踪[^1]。 #### 核心特点 ByteTrack 的主要特点是模块化的设计方式,允许用户灵活替换不同的检测模型以适应特定场景需求。这种灵活性使得它在实际工程应用中更加便捷和高效。具体来说,ByteTrack 将检测结果作为输入,并利用关联逻辑完成对象的持续追踪过程[^1]。 --- ### ByteTrack 算法原理 ByteTrack 的工作流程可以分为以下几个部分: #### 1. **检测阶段** 在此阶段,使用任意预训练好的目标检测模型生成候选框列表。这些候选框包含了当前帧中的所有可能目标位置及其置信度分数。值得注意的是,这一环节完全独立于后续跟踪操作,因此支持多种类型的检测框架集成[^1]。 #### 2. **初始化新轨迹** 对于每一个未被分配到已有轨迹的新检测框,如果满足一定条件,则会创建一个新的轨迹实例用于记录此物体的信息序列。通常情况下,这一步骤依赖于设定阈值判断是否应该启动新的跟踪路径[^1]。 #### 3. **数据关联** 这是整个 ByteTrack 中最复杂也是最关键的部分之一——如何将不同时间戳下的观测对应起来形成连贯的对象运动描述?为此采用了匈牙利匹配方法配合 IOU (Intersection over Union) 度量标准来进行初步筛选;随后再引入外观特征相似性约束进一步提升精度[^1]。 以下是简化版的数据关联伪代码表示: ```python def associate_detections_to_trackers(detections, trackers): iou_matrix = compute_iou_matrix(detections, trackers) matched_indices = linear_assignment(-iou_matrix) unmatched_detections = [] unmatched_trackers = [] for d in range(len(detections)): if d not in matched_indices[:,0]: unmatched_detections.append(d) for t in range(len(trackers)): if t not in matched_indices[:,1]: unmatched_trackers.append(t) matches = [] for m in matched_indices: if iou_matrix[m[0],m[1]] < threshold: unmatched_detections.append(m[0]) unmatched_trackers.append(m[1]) else: matches.append((m[0],m[1])) return matches, unmatched_detections, unmatched_trackers ``` #### 4. **状态更新与删除旧轨迹** 随着时间推移,某些目标可能会暂时离开视野范围或者彻底消失不见。针对这种情况,ByteTrack 设置了一个超时机制:当某个轨迹连续若干帧都没有找到合适的配对关系时即视为丢失并予以清除。 --- ### 原理图说明 由于无法直接展示图像文件,请参考如下文字描述构建想象中的 ByteTrack 流程结构图: - 输入端接收来自视频流每一帧的画面截图; - 接着送入选定的目标检测网络提取感兴趣区域坐标集合; - 输出后再经过一系列处理步骤包括但不限于过滤低质量建议、执行双向匹配策略直至最终得到稳定可靠的轨迹集合作为结果返回给调用方。 理想化的示意图形应当呈现分层递进式的布局形式,从顶层到底部依次罗列各个功能组件名称及其相互间的关系箭头指向。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值