Learning Spatio-Temporal Transformer for Visual Tracking——精读笔记

本篇精读笔记,对原文重要部分做了严格翻译,如摘要和总结。对正文部分做了提炼,对重点部分突出标注。对参考文献做了分类。本文内容较长,如果时间有限可以直接跳到感兴趣的小节阅读。

论文地址:https://openaccess.thecvf.com/content/ICCV2021/papers/Yan_Learning_Spatio-Temporal_Transformer_for_Visual_Tracking_ICCV_2021_paper.pdf

本文提出了一种以编解码(encoder-decoder) transformer为核心的新的跟踪架构,称为STARK。编码器对目标对象和搜索区域之间的全局时空特征依赖关系进行建模,而解码器通过学习一个query embedding来预测目标对象的空间位置。目标跟踪作为一个直接的包围盒预测问题,不使用任何建议或预定义的锚点。通过编解码transformer,目标的预测只需使用一个简单的全卷积网络,直接估计目标的角点。整个方法是端到端的,不需要余弦窗口、包围盒平滑等后处理步骤,大大简化了现有的跟踪管线。在5个具有挑战性的短期和长期基准上达到了SOTA性能,并且可以实时运行,比Siam R-CNN快6倍。代码和模型在这里:https://github.com/researchmm/Stark

1. 介绍

在过去的几年里,基于卷积神经网络的目标跟踪取得了显著的进展。但是,卷积核不善于对图像内容和特征的长期相关性进行建模,因为它们只处理时间或空间的局部邻域。目前流行的跟踪器,包括离线跟踪器和在线学习的跟踪器,几乎都是建立在卷积运算上的。通常,这些方法只对图像内容的局部关系建模效果较好。这样的缺陷可能会降低模型处理全局上下文信息的能力,例如有大尺度变化或频繁进出视线的对象。

以前的Siamese跟踪器只利用空间信息进行跟踪,而在线方法使用历史预测进行模型更新。虽然这些方法取得了成功,但并没有直接建立空间和时间之间的关系。本文工作,借助于transformer对全局依赖性建模的优越能力,来整合用于跟踪的空间和时间信息,生成用于定位目标的具有辨识力的时空特征。

1.1 新架构的三个组件

  • Encoder。接受输入:起始目标、当前帧、一个动态更新的模板。包含一个自注意模块用来学习输入序列之间的关系。
  • Decoder。学习一个query embedding来预测目标的空间位置。
  • Prediction head。一个基于角点的预测头用于估计当前帧中目标对象的包围盒;一个学习分数头来控制动态模板图像的更新。

大量实验表明,本文方法在多个数据集,以及短时跟踪和长时跟踪赛道都达到了SOTA。不像之前的跟踪模型,有多个模块组成,比如:跟踪器、目标验证模块、全局检测器等。本文方法只需要训练一个端到端的网络。模型更简单,速度也很快。见图一。
在这里插入图片描述

1.2 重要参考论文

  • Attention is all you need。开创性的提出了Transformer。

    Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In NIPS, 2017.

  • End-to end object detection with transformers。本文受这篇启发。

    [DETR] Nicolas Carion, Francisco Massa, Gabriel Synnaeve, Nicolas Usunier, Alexander Kirillov, and Sergey Zagoruyko. End-to end object detection with transformers. In ECCV, 2020

1.3 贡献总结

  • 提出了一种新的基于transformer的视觉跟踪架构。它能够捕获视频序列中空间和时间信息的全局特征依赖关系。
  • 整个方法是端到端的,不需要余弦窗、包围盒平滑等后处理步骤,大大简化了现有的跟踪管线。
  • 提出的跟踪器在五个具有挑战性的短时和长时基准数据集上实现了最先进的性能(state-of-the-art, SOTA),并且可以实时速度运行。
  • 建立了一个新的大规模跟踪基准数据集,以缓解小尺度数据集的过拟合问题。

2. 相关工作

2.1 Transformer在语言和视觉领域的应用

Transformer最初是由Vaswani等人提出用来解决机器翻译任务,现在已成为语言建模的主流架构。Transformer将序列作为输入,扫描序列中的每个元素并了解它们的依赖关系。这一特点使得Transformer在捕获序列数据中的全局信息方面具有内在的优势。近年来,Transformer在视觉任务中显示出巨大的潜力,如:图像分类,目标检测,语义分割,多目标跟踪等。

2.1.1 与DETR做比较

本文工作灵感受DETR启发,但也有所不同:

  1. 研究问题不同。DETR是为目标检测设计的,而本文工作是研究目标跟踪。
  2. 网络输入不同。DETR将整张图作为输入,而STARK的输入是三元组,包括一个搜索区域和两个模板。
  3. 查询设计和训练策略不同。DETR使用100个对象查询,并在训练期间使用匈牙利算法将预测与GT进行匹配。相反,STARK只使用一个查询,并且总是将其与GT进行匹配,而不使用匈牙利算法。
2.1.2 其他使用Transformer做目标跟踪的工作
  1. TransTrack. 它的特点有:

    • 编码器将当前帧和前一帧的图像特征作为输入
    • 它有两个解码器,分别以学习到的对象查询和最后一帧中的查询作为输入。针对不同的查询,将编码器的输出序列分别转换为检测盒和跟踪盒。
    • 使用匈牙利算法基于IoU对预测的两组包围盒做匹配

    Peize Sun, Yi Jiang, Rufeng Zhang, Enze Xie, Jinkun Cao, Xinting Hu, Tao Kong, Zehuan Yuan, Changhu Wang, and Ping Luo. TransTrack: Multiple-object tracking with transformer. arXiv preprint arXiv:2012.15460, 2020.

  2. TrackFormer. 它的特点有:

    • 只将当前的帧特征作为编码器输入
    • 只有一个解码器,学习到的对象查询和上一帧跟踪结果相互作用
    • 它仅通过注意力操作来关联跟踪结果,不依赖于任何额外的匹配

    Tim Meinhardt, Alexander Kirillov, Laura Leal-Taixe, and Christoph Feichtenhofer. TrackFormer: Multi-object tracking with transformers. arXiv preprint arXiv:2101.02702, 2021

2.2 空间-时间信息挖掘

根据对时间和空间信息的利于,可以将现有的跟踪器分为两类。

2.2.1 空间跟踪器

大多数离线Siamese跟踪器都是纯空间跟踪器,将目标跟踪视为初始模板和当前搜索区域之间的模板匹配问题。为了提取模板与搜索区域在空间维度上的关系,大多数跟踪器采用了各种不同的相关性,包括朴素相关性、深度相关和点相关。虽然近年来取得了显著的进展,但这些方法只捕捉了局部相似性,而忽略了全局信息。相比之下,Transformer中的自注意机制可以捕捉长期关系,适合于配对任务。

2.2.2 空间-时间跟踪器

这一类跟踪器又可以分为两类:基于梯度和无梯度。

  • 基于梯度。在推理时需要计算梯度。其中的经典工作之一是MD-Net,它用梯度下降来更新特定的层。为了提高优化效率,后面的工作采用了更先进的优化方法,如高斯-牛顿法或基于元学习的更新策略。然而,现实世界中许多部署深度学习的设备都不支持反向传播,这限制了基于梯度方法的应用。

    [MD-Net] Hyeonseob Nam and Bohyung Han. Learning multi–domain convolutional neural networks for visual tracking. In CVPR, 2016

  • 无梯度。利用一个额外的网络来更新Siamese跟踪器的模板。另一个代表作LTMU学习元更新器来预测当前状态是否足够可靠,以用于长期跟踪中的更新。虽然这些方法是有效的,但它们造成了空间和时间的分离。

    [LTMU] Kenan Dai, Yunhua Zhang, Dong Wang, Jianhua Li, Huchuan Lu, and Xiaoyun Yang. High-performance longterm tracking with meta-updater. In CVPR, 2020.

2.3 跟踪管线和后处理

以前的跟踪器的跟踪管线比较复杂。首先生成大量具有置信度的包围盒提案,然后使用各种后处理来选择最优的包围盒作为跟踪结果。常用的后处理方法有余弦窗、尺度或宽高比惩罚、包围盒平滑、基于tracklet的动态规划等。虽然效果较好,但后处理对超参数敏感。虽然有一些跟踪器试图简化跟踪管线,但它们的性能仍然远远落后于最先进的跟踪器。本文工作试图缩小这一差距,通过预测每帧中的单个包围盒来实现最佳性能。

3. 方法

3.1 A Simple Baseline Based on Transformer

在这里插入图片描述

如图二,这个简单的基准框架包含三个组件:一个卷积主干,一个编解码transformer,和一个包围盒预测头。

3.1.1 Backbone

可以使用任意的卷积网络作为特征提取的主干。在不失通用性的情况下,采用ResNet作为主干。具体的说,除了去掉最后一阶和全连接层外,其他保持不变。主干的输入是一对图像:起始目标的模板图像z和当前帧的搜索区域x。输出是对应的两个特征图。

Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun. Deep residual learning for image recognition. In CVPR, 2016. (引用数马上破10w了)

3.1.2 Encoder

堆叠了N个编码器层。主干输出的特征图在送到编码器之前需要预处理,经过一个瓶颈层将通道数从D降到d,然后展平和拼接。根据原始Transformer的置换不变性(permutation-invariance),给输入序列增加了正弦位置嵌入(sinusoidal positional embeddings)。编码器捕获序列中所有元素之间的特征依赖关系并用全局上下文信息增强原始特征,使模型可以学到具有辨识力的特征用于定位目标。

3.1.3 Decoder

堆叠了M个解码器层。将一个查询和编码器的输出作为输入。移除了DETR中的匈牙利算法。在编解码器注意力模块,目标查询可以注意到模板上的所有位置和搜索区域特征,因此最后预测的包围盒也比较稳定。

3.1.4 Head

在这里插入图片描述

DETR使用一个三层感知机来预测包围盒坐标,但是,GFLoss指出直接对坐标回归相当于拟合一个狄拉克δ分布函数,缺乏对数据集二义性和不确定性的考虑。为了改进,设计了一个新的预测头,来估算包围盒四个角的概率分布。如图三。步骤:

  1. 从编码器输出序列中取出搜索区域特征。

  2. 计算搜索区域特征和解码器输出内嵌(embedding)之间的相似度。

  3. 相似度分数逐像素乘以搜索区域特征,来增强重要区域。

  4. 新的特征序列改造成特征图f,然后喂给一个简单的全卷积网络(FCN)。

  5. FCN由L个堆叠的Conv-BN-ReLU层组成,输出两个概率图 P t l ( x , y ) P_{tl}(x, y) Ptl(x,y) P b r ( x , y ) P_{br}(x,y) Pbr(x,y),分别代表包围盒左上角和右下角坐标。

  6. 通过公式二计算角点概率分布的期望,得到包围盒坐标。

( x t l ^ , y t l ^ ) = ( ∑ y = 0 H ∑ x = 0 W x ⋅ P t l ( x , y ) , ∑ y = 0 H ∑ x = 0 W y ⋅ P t l ( x , y ) ) , ( x b r ^ , y b r ^ ) = ( ∑ y = 0 H ∑ x = 0 W x ⋅ P b r ( x , y ) , ∑ y = 0 H ∑ x = 0 W y ⋅ P b

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

superbin

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值