【论文阅读】一些轻量的有效的attention module的介绍

本文介绍了深度学习中广泛采用的注意力机制模块,如CBAM、BAM和CoordinateAttention等。这些模块通过通道注意力和空间注意力提升模型对特征图重要性的识别。CBAM结合了通道和空间注意力,BAM利用膨胀卷积扩大感受野,而CoordinateAttention综合通道和位置信息。这些方法在减少参数量的同时提高了模型性能,适用于多种神经网络架构。

最近在看论文,发现很多的论文都用到了attentive moudule。
这也得益于越来越多的实验证明自注意力机制对于:什么是重要的?这个问题的合理解决。相比传统的直接生成特征图,对于每一个item进行同样的卷积提取特征等操作,让神经网络来自己学习哪部分是前景,哪部分是背景噪声,不重要,加入一个attentive module是一个很聪明的办法。
现在学术界涌现出许多的attentive module的设计方法,主要还是应用在2d目标检测领域。
这篇博客主要是对于一些开源的影响力大的模块进行一个介绍。

CMBA

论文题目:CBAM: Convolutional Block Attention Module
eccv2018 已经开源
在这里插入图片描述
这篇文章思考了两个问题,对于一个输入的特征图(HWC),什么(what)是重要的,以及哪一块(where)是重要的。
在这里插入图片描述

所以文章架构如上,这个attention module主要包含两个部分:
channel attention module
这个部分解决(what)的问题。
对于输入的特征图,这是个什么东西?我们在网络中常用的方法又max pool 和mean pool。这两种featuer aggregation的方法各有优劣,文章将两者结合起来进行操作。
在这里插入图片描述
其实没啥好说的,有深度学习

评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值