
目标跟踪之孪生网络文献阅读
文章平均质量分 89
目标跟踪方向的文献阅读笔记
菜菜子hoho
一枚菜菜子
展开
-
CVPR-2018- DensSiam: End-to-End Densely-Siamese Network with Self-Attention Model for Object Trackin
为了在保持泛化能力、高精度和速度的情况下,减少参数数量,并克服同一时间下只处理一个局部领域而造成的外观模型局限和对外观变化不鲁棒的问题。原创 2022-07-31 21:37:24 · 169 阅读 · 0 评论 -
CVPR-2021-Alpha-Refine: Boosting Tracking Performance by Precise Bounding Box Estimation 阅读笔记
论文地址:https://arxiv.org/abs/2012.06815代码地址:https://github.com/MasterBin-IIAU/AlphaRefine动机:现有的跟踪器存在低质量的包围框估计问题,设计一个特别的细化模块可能更有助于包围框的估计。优点:Alpha- Refine是独立训练的,可以以即插即用的方式直接应用于任何现有的跟踪器,不需要额外的训练或修改基础跟踪器。Alpha-Refine整体架构:Alpha-Refine整体架构描述:采用具有两个输入孪原创 2022-05-03 21:17:13 · 969 阅读 · 3 评论 -
CVPR-2021- Graph Attention Tracking 阅读笔记
目录一、 动机二、 主要贡献三、 主要内容图注意信息的嵌入目标感知的图形注意力跟踪四、 实验结果论文地址:https://openaccess.thecvf.com/content/CVPR2021/papers/Guo_Graph_Attention_Tracking_CVPR_2021_paper.pdf代码地址:https: // git. io/ SiamGAT创新点:提出了一个图形注意模块(GAM)来实现部分到部分的信息传播,而不是模板和搜索区域之间的全局信息传播。一、 动机由于目原创 2022-03-07 17:19:55 · 4417 阅读 · 4 评论 -
ECCV-2020- Ocean: Object-aware Anchor-free Tracking 阅读笔记
论文地址:https://arxiv.org/pdf/2006.10721.pdf代码地址:https://github.com/researchmm/TracKit目录一、 动机二、 主要贡献三、 主要内容算法整体架构:特征提取特征融合回归任务分类任务目标定位在线更新分支损失四、 实验结果一、 动机基于锚框的孪生网络跟踪方法在精度上取得了显著的进步,但更鲁棒的改进却收到了限制,其中的原因在于基于锚的方法中的回归网络只训练在正锚盒上(即IoU≥0.6)。这种机制使细化与目标对象重叠很小的锚变得困原创 2021-12-13 10:00:50 · 3562 阅读 · 0 评论 -
CVPR-2018-DensSiam: End-to-End Densely-Siamese Network with Self-Attention Model for Object Tracking
CVPR-2018- DensSiam: End-to-End Densely-Siamese Network with Self-Attention Model for Object Tracking 阅读笔记论文地址:https://arxiv.org/abs/1809.02714主要创新点:加入Self-Attention模块(第一个具有自我注意模块的孪生网络跟踪算法)。一、 动机为了在保持泛化能力、高精度和速度的情况下,减少参数数量,并克服同一时间下只处理一个局部领域而造成的外观模型局限原创 2021-11-24 19:07:48 · 2057 阅读 · 0 评论 -
ECCV-2018-StructSiam: Structured Siamese Network for Real-Time Visual Tracking阅读笔记
论文地址:http://openaccess.thecvf.com/content_ECCV_2018/papers/Yunhua_Zhang_Structured_Siamese_Network_ECCV_2018_paper.pdf代码地址:(没有开源?)一、 动机现有的基于深度学习的目标追踪方法大多是从全局角度描述目标外观,对非刚性目标的外观变化和局部遮挡比较敏感,为解决该问题,作者提出了一种局部结构学习方法。该方法同时考虑目标的局部模式及其结构关系,更灵活地处理非刚性外观变化和部分遮挡,从而原创 2021-11-10 21:56:34 · 3204 阅读 · 0 评论 -
CVPR-2019- SiamDW: Deeper and Wider Siamese Networks for Real-Time Visual Tracking 阅读笔记
目录一、 动机二、 主要贡献三、 主要内容总结了四个基本准则来缓解网络架构中结构因素的负面影响Deeper and Wider Siamese Networks四、 实验结果五、 结论论文地址:https://arxiv.org/abs/1901.01660代码地址:https://github.com/researchmm/SiamDW创新点:首先,提出了一组基于bottleneck残差块的CIR单元,其次,通过堆叠CIR单元设计了两种更深更宽的网络。并在SiamFC和SiamRPN基础上进行了应原创 2021-10-27 21:47:09 · 873 阅读 · 0 评论 -
CVPR-2020-Siam R-CNN: Visual Tracking by Re-Detection 阅读笔记
目录论文地址代码地址创新点缺点ROI Align的简单介绍一、 动机二、 主要内容Siam R-CNN:Tracklet Dynamic Programming Algorithm(TDPA):边界盒到分割(Box2Seg)网络:训练细节:三、 实验结果论文地址https://arxiv.org/pdf/1911.12836.pdf代码地址https://www.vision.rwth-aachen.de/page/siamrcnn创新点① 提出了一种难例挖掘策略,用于分辨干扰物;② 提出了动原创 2021-10-25 19:29:03 · 883 阅读 · 0 评论 -
CVPR-2020-SiamAttn: Deformable Siamese Attention Networks for Visual Object Tracking 阅读笔记
目录一、 动机二、 主要贡献三、 主要内容1、Siamese-based Trackers2、Deformable Siamese Attention ModuleSelf-AttentionCross-AttentionDeformable AttentionRegion Proposals3、Region Refinement Module4、Training Loss四、 实验结果五、 结论论文地址:https://openaccess.thecvf.com/content_CVPR_2020/p原创 2021-10-11 16:30:15 · 3551 阅读 · 1 评论 -
CVPR-2019-C-RPN: Siamese Cascaded Region Proposal Networks for Real-Time Visual Tracking 阅读笔记
论文地址:https://arxiv.org/pdf/1812.06148.pdf代码地址:https://bitbucket.org/hengfan/crpn/src/master/https://drive.google.com/file/d/1rhSYcQcQtHocXjiOTZ13vZedC61kbIVC/view两个创新点:① 联级的RPN网络② 提出Feature Transfer Block (FTB)来更好的融合多层feature map一、 动机SiamRPN在背景杂波和原创 2021-09-08 21:10:21 · 551 阅读 · 0 评论 -
ECCV-2018-DaSiamRPN: Distractor-aware Siamese Networks for Visual Object Tracking阅读笔记
论文地址:http://openaccess.thecvf.com/content_ECCV_2018/papers/Zheng_Zhu_Distractor-aware_Siamese_Networks_ECCV_2018_paper.pdf代码地址:https://github.com/foolwood/DaSiamRPN创新点:训练方法、LOSS函数、local-to-global动机首先,大多数孪生网络跟踪方法中使用的特征只能区分前景和非语义背景。语义背景总是被认为是干扰物,当背景杂乱时原创 2021-09-07 20:43:05 · 574 阅读 · 0 评论 -
CVPR-2018-SiamRPN++: Evolution of Siamese Visual Tracking with Very Deep Networks 阅读笔记
论文和代码地址:SiamRPN++: Evolution of Siamese Visual Tracking with Very Deep Networks (bo-li.info)目录一、 动机二、 主要贡献三、 主要内容一个重要发现:原因分析:① 什么是平移不变性?Tips:② 什么是对称性?SiamRPN++网络架构:组成部分一 —— ResNet-driven Siamese Tracking:组成部分二 —— Layer-wise Aggregation:组成部分三 —— Depthwise原创 2021-06-26 17:27:42 · 473 阅读 · 0 评论 -
CVPR-2018-SiamRPN:High Performance Visual Tracking with Siamese Region Proposal Network阅读笔记
论文地址:https://link.youkuaiyun.com/?target=http%3A%2F%2Fopenaccess.thecvf.com%2Fcontent_cvpr_2018%2Fpapers%2FLi_High_Performance_Visual_CVPR_2018_paper.pdf论文代码:https://github.com/makalo/Siamese-RPN-tensorflowhttps://github.com/songdejia/Siamese-RPN-pytorch一、 动机原创 2021-06-08 15:40:26 · 223 阅读 · 0 评论 -
CVPR-2020-SiamBAN:Siamese Box Adaptive Network for Visual Tracking阅读笔记
论文地址:https://arxiv.org/pdf/2003.06761.pdf论文代码:https://github.com/hqucv/siamban一、 动机:现有的追踪器大多依赖于多尺度测试和预定义的锚框来对目标进行精确地位,但这样就需要先验知识和一系列设计候选盒子的超参数,所以为了解决这个问题设计了更加灵活通用的SiamBAN。该算法将视觉跟踪问题视为一个并行分类和回归问题,直接对目标进行分类,并在统一的FCN中回归其边界框。并且,神经科学家已经表明,生物视觉初级视觉皮层可以快速有效地从复原创 2021-05-19 14:23:32 · 1445 阅读 · 0 评论 -
ECCV-2016-SiamFC:Fully-Convolutional Siamese Networks for Object Tracking 阅读笔记
论文地址:https://arxiv.org/pdf/1606.09549.pdf论文代码地址:https://github.com/bertinetto/siamese-fc一、 动机如果使用深度卷积网络来实现目标追踪的话,在跟踪目标事先不知道的时候需要在线执行SGD来调整网络权值,计算负荷过大,无法实现实时速度,并且需要固定输入图像大小。二、 主要贡献① 训练一个在一个更大的搜索图像中定位一个样本图像的孪生网络。② 设计了一个新颖的孪生体系结构,它对搜索图像完全卷积:通过计算两个输入的互相原创 2021-04-28 17:16:05 · 300 阅读 · 0 评论 -
AAAI-2020-SiamFC++:Towards Robust and Accurate Visual Tracking with Target Estimation Guidelines阅读笔记
论文代码地址:https://github.com/MegviiDetection/video_analystAAAI 2020论文未开源,需要可留言一、 写作动机以往的方法提出了多种目标状态估计方法,但很少考虑到视觉跟踪问题本身的特殊性。跟踪问题可以被视为分类任务和估计任务的组合。第一个任务是通过分类提供一个鲁棒的目标粗定位。第二个任务是估计一个准确的目标状态,通常用一个边界框表示。虽然现代跟踪器已经取得了显著的进步,但令人惊讶的是,它们用于第二个任务(即目标状态估计)的方法有很大的不同。基于这一原创 2021-04-23 21:12:15 · 520 阅读 · 0 评论 -
CVPR-2016-SINT:Siamese Instance Search for Tracking阅读笔记
SINT阅读笔记一、 动机二、 贡献三、 主要内容四、 实验结果五、 结论论文地址:https://arxiv.org/pdf/1605.05863.pdf论文代码地址:https://github.com/taotaoorange/SINT一、 动机建议学习匹配机制,而不是明确地为特定的行为建模二、 贡献① 建议从外部视频数据中学习一个用于跟踪的通用匹配函数,以稳健地处理一个对象在视频序列中可能经历的常见外观变化。学习到的函数可以不需要任何调整,直接应用到新的跟踪视频中。这些视频中的目标对象是原创 2021-04-15 11:31:48 · 474 阅读 · 0 评论 -
CVPR-2019-TADT:Target-Aware Deep Tracking阅读笔记
论文地址:https://arxiv.org/abs/1904.01772论文matlab代码地址:https://github.com/XinLi-zn/TADT论文python代码地址:https://github.com/ZikunZhou/TADT-python动机: 视觉跟踪中的目标可以是任意形式的,从通用图像中预先训练的CNN模型不知道感兴趣的目标对象,并且在将其与背景分离时效果较差。 即使目标对象出现在预训练模型的训练集中,从最后的卷积层获取的深层特征往往只保留高级视觉信息,原创 2021-04-13 11:24:50 · 653 阅读 · 0 评论