
注意力机制
DRACO于
这个作者很懒,什么都没留下…
展开
-
超强半监督学习 MixMatch
人类的学习方法是半监督学习,他们能从大量的未标记数据和极少量的标记数据学习,迅速理解这个世界。半监督学习最近有没有什么大的突破呢?我的Twitter账号被这篇 《The Quiet Semi-Supervised Revolution》【1】博客刷屏了。这篇博客介绍了 DeepMind 的 MixMatch 【2】方法,此方法仅用少量的标记数据,就使半监督学习的预测精度逼近监督学习。深度学习领域的未来可能因此而刷新。以前的半监督学习方案,一直以来表现其实都很差。你可能会想到 BERT 和 GPT,这两个原创 2020-12-18 11:28:01 · 1189 阅读 · 1 评论 -
CVPR_W2020Attribute-guided Feature Extraction and Augmentation Robust Learning for Vehicle Re-id详解
摘要车辆再识别是智能交通系统和智慧城市的核心技术之一,但类内多样性和类间相似性对现有方法提出了巨大的挑战。本文提出了一种利用属性信息,同时引入两种新的随机增益的多导学习方法,以提高训练过程中的鲁棒性。在此基础上,提出了一种属性约束方法和分组重排序策略来优化匹配结果。在CVPR 2020 AI城市挑战赛中,获得了66.83%的mAP和76.05%的rank-1准确率。本文提出的方法主要针对车辆ReID任务提取鲁棒特征,最后采用集成和重排序方法对结果进行优化。1.提出了一种利用属性信息进行车辆ReI原创 2020-12-16 15:05:34 · 677 阅读 · 3 评论 -
注意力机制总结senet cbam ecanet scnet gcnet
注意力机制大概分为以下,Spatial domain,Channel domain,Mixed domain以及Self-attention。接下来简单介绍这部分方法。SE-Net: Squeeze-and-Excitation NetworksSE-Net应用比较多,其基本原理是对于每个输出channel,预测一个常数权重,对每个channel加权一下。结构如下图:第一步每个通道H*W个数全局平均池化得到一个标量,称之为Squeeze,然后两个FC得到01之间的一个权重值,对原始的每个Hx原创 2020-12-08 19:37:34 · 10977 阅读 · 3 评论 -
ECA-Net: Efficient Channel Attention for Deep Convolutional Neural Networks论文详解
论文链接:https://arxiv.org/abs/1910.03151代码地址:https://github.com/BangguWu/ECANet原创 2020-12-03 10:04:28 · 3146 阅读 · 0 评论 -
CVPR2020 Improving Convolutional Networks with Self-Calibrated Convolutions论文详解 SC-Net 注意力机制
论文:http://mftp.mmcheng.net/Papers/20cvprSCNet.pdf代码:https://github.com/MCG-NKU/SCNet《Improving Convolutional Networks with Self-calibrated Convolutions》 CVPR2020 南开大学程明明团队(将多尺度引入Resnet中的Res2Net)CNN的最新进展主要致力于设计更复杂的体系结构,以增强其特征表示能力,各种卷积模块工作层出不穷,性能涨点明显,包原创 2020-11-26 20:21:22 · 1808 阅读 · 2 评论