
计算机视觉
文章平均质量分 77
SanKinPlus
曾想玩玩算法 奈何水不出CVPR
展开
-
Multi-Attention Multi-Class Constraint for Fine-grained Image Recognition笔记
Multi-Attention Multi-Class Constraint for Fine-grained Image Recognition(ECCV2018)细粒度图像分类一直是一个颇具挑战性的问题,起因是细粒度图像很多存在类间方差小而类内方差大的问题,这样比一般的图像分类难度就大很多。细粒度图像分类有两个关键点,一个是关键性区域定位,二是从关键性区域学得辨别性特征,当前有很多方法在朝这...原创 2018-12-06 14:44:28 · 1475 阅读 · 0 评论 -
Learning a Discriminative Filter Bank within a CNN for Fine-grained Recognition论文翻译
Learning a Discriminative Filter Bank within a CNN for Fine-grained Recognition细粒度分类一直是图像分类中的一个难点,近年来基于深度学习的图像分类发展迅速,细粒度分类也发展出了很多优秀的模型,早期的多阶段模型是通过引入一个辅助网络来融合位置信息到主分类网络中,或者通过一个复杂的特征编码方式来获得高阶特征统计,而最近的端...原创 2018-12-11 15:52:14 · 2598 阅读 · 0 评论 -
PG GAN
PROGRESSIVE GROWING OF GANS FOR IMPROVED QUALITY, STABILITY, AND VARIATION翻译为改善质量,稳定性和可变性的GANS的渐进增长Tero Karras , Timo Aila , Samuli Laine , Jaakko Lehtinen ftkarras,taila,slaine,jl...转载 2019-01-11 10:43:36 · 818 阅读 · 0 评论 -
BAM: Bottleneck Attention Module算法笔记
论文地址姊妹篇BAM: Bottleneck Attention Module这是CBAM的姊妹篇,原班人马打造,不得不服摘要:在这项工作中,我们把重心放在了Attention对于一般深度神经网络的影响上,我们提出了一个简单但是有效的Attention 模型—BAM,它可以结合到任何前向传播卷积神经网络中,我们的模型通过两个分离的路径 channel和spatial, 得到一个A...原创 2019-01-23 16:01:25 · 13590 阅读 · 4 评论 -
Self-Attention 最新进展
Attention注意力,起源于Human visual system(HVS),个人定义的话,应该类似于 外界给一个刺激Stimuli,然后HVS会第一时间产生对应的 saliency map,注意力对应的应该就是这个显著性区域。这其中就涉及很多 bottom-up 及 top-down 的 physiological 原理~总的来说,就是 区域权值学习 问题...转载 2019-02-20 15:41:08 · 727 阅读 · 0 评论 -
Attention综述
整理了近来看过的几篇用于计算机视觉方向的Attention论文1.Residual Attention Network首次成功将极深卷积神经网络与人类视觉注意力机制进行了有效的结合本文提出了一种可堆叠的网络结构。与ResNet中的Residual Block结构相似,本文所提出的网络结构也是通过一个ResidualAttention Module的结构进行堆叠,可使网络模型能够很容易的达到很...原创 2019-04-02 13:51:56 · 995 阅读 · 0 评论