
计算机视觉
文章平均质量分 93
卷积神经网络、自监督学习、目标跟踪、姿态估计、动作识别
Yore_
这个作者很懒,什么都没留下…
展开
-
WHAT SHOULD NOT BE CONTRASTIVE IN CONTRASTIVE LEARNING
WHAT SHOULD NOT BE CONTRASTIVE IN CONTRASTIVE LEARNING一、背景介绍: 现在的自监督对比学习方法,大多通过学习对不同的数据增强保持不变,从而学习到一个好的视觉表征。这里就隐含地假设了一组特定地表示不变性,(比如颜色不变性),但是如果下游任务不满足这种假设条件时,(比如区分黄色轿车和红色轿车),这种方法可能就会对任务起到反作用。 对于数据增强来说,我们在网络中引入的每一种增强都是鼓励网络对该种变换保持不变性。 如上图所示,自监督对比学习原创 2022-03-30 15:46:06 · 2341 阅读 · 0 评论 -
SlowFast Networks for Video Recognition
SlowFast Networks for Video Recognition [ICCV-2019]一、背景介绍: 首先作者提出的想法: 我们一般处理2D图像的时候,很自然地会对称的处理两个维度x,y,但如果是加了时间维度的视频呢?运动是方向的时空对应物,但所有时空方向的可能性都不相等 慢动作比快动作更有可能发生,这个有生物学依据:作者提到论文中的方法是受灵长类生物 细胞生物学研究的启发,存在两类细胞,P细胞和M细胞,M细胞在高时间频率下工作,对快速的时间变化做出反应,而P细胞在低时间频率下提供原创 2022-03-30 15:43:37 · 2408 阅读 · 0 评论 -
Siam-RPN
Siam-RPN1. 研究动机:在Siam-FC中,作者提出的算法首次将孪生网络引入了目标跟踪的领域,实现了端到端的训练,它是一个兼容了速度和精度的算法,在3个尺度变换和5个尺度变换的条件下,跟踪的速率分别达到了86 fps和58 fps。Siam-FC需要多尺度测试,在跟踪阶段分别生成不同尺度的搜索框,进行跟踪,选取得分结果最好的作为跟踪结果。Siam-FC没有做回归去调整候选框的位置。本篇论文提出的Siam-RPN可以说是对Siam-FC的改进,在速度和精度上都有提升。速度上达到了160 FP原创 2022-03-30 15:42:23 · 1984 阅读 · 0 评论 -
SiamFC
一、背景介绍:[参考资料]:https://zhuanlan.zhihu.com/p/148516834https://www.jiqizhixin.com/articles/2017-05-14目标跟踪的方法一般分为两种模式: 生成式模型和鉴别式模型生成式模型: 早期的一些目标跟踪算法都属于是生成式模型跟踪算法的研究,比如: Meanshift、Particle Filter(粒子滤波)、基于特征点的光流法等等。**此类方法首先建立目标模型或者提取目标特征, 在后续帧中进行相似特征搜索原创 2022-03-30 15:41:13 · 3283 阅读 · 0 评论 -
Vision Transformer综述翻译
视觉Transformer综述摘要 Transformer是一种基于最初应用在自然语言处理领域上的自注意力机制的深度神经网络。受Transformer强表征能力的启发,研究人员将它扩展到计算机视觉任务上。与卷积网络和循环网络等其他网络类型相比,基于Transformer的模型在各种视觉基准上表现出竞争性甚至更好的性能。在这篇文献综述,我们通过将这些可视化Transformer模型应用在不同类别的任务中,并且对它们的优缺点进行了分析。特别地,主要类别包括基本图像分类、高级视觉、低级视觉和视频处理。也会原创 2022-03-30 15:35:37 · 2083 阅读 · 0 评论 -
ViT网络模型
一、背景介绍:自2017年Google提出的Transformer结构以来,迅速引发一波热潮,最初《Attention is all you need》这篇论文的提出是针对于NLP领域的,通过自注意力机制代替传统处理序列数据时采用的循环神经网络结构,不仅实现了并行训练,提升了训练的效率,同时也在应用中取得很好的结果。之后的一段时间中,各种基于Transformer改进的网络结构涌现出来,在不同领域中都达到SOTA的效果。2020年Google又提出了《AN IMAGE IS WORTH 16X16 WO原创 2022-03-30 15:33:14 · 19116 阅读 · 3 评论 -
注意力机制
最近在看注意力机制,开始是从Google 2017年的那篇Attention is all you need的论文读起,在大概了解了自注意力机制以后,还是有很多疑问,所以就查阅了很多资料,试图梳理一下注意力机制的发展脉络。下面列出的参考资料都是我认为很不错的内容,统一在开篇列出。本文并不涉及太多深入的讲解,更多的是想从宏观的角度出发,对注意力机制的发展过程做一个简要的梳理,比如每一个阶段遇到什么问题?是如何解决的?解决的方案本身又存在什么问题?正是这些问题推动了它的进一步的发展。参考资料:论文:原创 2022-03-30 15:30:59 · 2476 阅读 · 0 评论