cbam- Convolutional Block Attention Module

1. 论文地址:

https://arxiv.org/pdf/1807.06521v2.pdf

 

2. eccv-2018

3. 创新点:

1)提出conventional block attention module,能嵌入到其他网络模块中;不需要额外层。

2)对分类来看,作者试验最多错误率降低1个点左右

4. 模块示意图

 

针对resnet 做了嵌入示意图:

 

5. 没有复杂数学计算,以通道和空间换取性能提升。(感觉像融合了下特征)

6.一些结果:imagenet-1k分类

7.结论:

可能会有一点提升,但停留在通道注意力和空间注意力等思想层面,实质创新较小。

8.一些repo:

https://github.com/bruinxiong/Modified-CBAMnet.mxnet

 

9其他:

同期还有差不多的论文。https://arxiv.org/pdf/1807.06514.pdf

其他分析博客:

https://blog.youkuaiyun.com/qq_14845119/article/details/81393127

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值