【即插即用】ECA-Net: Efficient Channel Attention for Deep Convolutional Neural Networks——2020CVPR

在这里插入图片描述

  引用:Wang, Qilong, et al. “ECA-Net: Efficient channel attention for deep convolutional neural networks.” Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2020.
  论文题目:ECA-Net: Efficient Channel Attention for Deep Convolutional Neural Networks
  论文链接:下载地址(不用看)
  论文代码:下载地址(不用看)
  直接Copy!! 试

1、作用

ECA模块旨在通过引入一种高效的通道注意力机制来增强深度卷积神经网络的特征表示能力。它着重于捕获通道间的动态依赖关系,从而使网络能够更加精确地重视对当前任务更重要的特征,提升模型在各种视觉任务上的性能。

2、机制

ECA模块的核心机制是通过一个简单而高效的一维卷积来自适应地捕捉通道之间的依赖性,而无需降维和升维的过程。这种设计避免了传统注意力机制中复杂的多层感知机(MLP)结构,减少了模型复杂度和计算负担。ECA通过计算一个自适应的核大小,直接在通道特征上应用一维卷积,从而学习到每个通道相对于其他通道的重要性。

3、独特优势

1、计算高效

ECA模块通过避免使用复杂的MLP结构,大幅降低了额外的计算成本和模型参数。这种高效的设计使得ECA能够在不增加显著计算负担的情况下,为模型带来性能提升。

2、无需降维升维

与传统的注意力机制相比,ECA模块无需进行降维和升维的操作,这样不仅保留了原始通道特征的信息完整性,还进一步减少了模型复杂度。

3、自适应核大小

ECA模块根据通道数自适应地调整一维卷积的核大小,使其能够灵活地捕捉不同范围内的通道依赖性,这种自适应机制使得ECA在不同规模的网络和不同深度的层次中都能有效工作。

4、易于集成

由于其轻量级和高效的特性,ECA模块可以轻松地嵌入到任何现有的CNN架构中,无需对原始网络架构进行大的修改,为提升网络性能提供了一种简单而有效的方式。

4、代码

import torch
from torch import nn
from torch.nn import init

# 定义ECA注意力模块的类
class ECAAttention(nn.Module):

    def __init__(self, kernel_size=3):
        super().__init__()
        self.gap = nn.AdaptiveAvgPool2d(1)  # 定义全局平均池化层,将空间维度压缩为1x1
        # 定义一个1D卷积,用于处理通道间的关系,核大小可调,padding保证输出通道数不变
        self.conv = nn.Conv1d(1, 1, kernel_size=kernel_size, padding=(kernel_size - 1) // 2)
        self.sigmoid = nn.Sigmoid()  # Sigmoid函数,用于激活最终的注意力权重

    # 权重初始化方法
    def init_weights(self):
        for m in self.modules():
            if isinstance(m, nn.Conv2d):
                init.kaiming_normal_(m.weight, mode='fan_out')  # 对Conv2d层使用Kaiming初始化
                if m.bias is not None:
                    init.constant_(m.bias, 0)  # 如果有偏置项,则初始化为0
            elif isinstance(m, nn.BatchNorm2d):
                init.constant_(m.weight, 1)  # 批归一化层权重初始化为1
                init.constant_(m.bias, 0)  # 批归一化层偏置初始化为0
            elif isinstance(m, nn.Linear):
                init.normal_(m.weight, std=0.001)  # 全连接层权重使用正态分布初始化
                if m.bias is not None:
                    init.constant_(m.bias, 0)  # 全连接层偏置初始化为0

    # 前向传播方法
    def forward(self, x):
        y = self.gap(x)  # 对输入x应用全局平均池化,得到bs,c,1,1维度的输出
        y = y.squeeze(-1).permute(0, 2, 1)  # 移除最后一个维度并转置,为1D卷积准备,变为bs,1,c
        y = self.conv(y)  # 对转置后的y应用1D卷积,得到bs,1,c维度的输出
        y = self.sigmoid(y)  # 应用Sigmoid函数激活,得到最终的注意力权重
        y = y.permute(0, 2, 1).unsqueeze(-1)  # 再次转置并增加一个维度,以匹配原始输入x的维度
        return x * y.expand_as(x)  # 将注意力权重应用到原始输入x上,通过广播机制扩展维度并执行逐元素乘法

# 示例使用
if __name__ == '__main__':
    block = ECAAttention(kernel_size=3)  # 实例化ECA注意力模块,指定核大小为3
    input = torch.rand(1, 64, 64, 64)  # 生成一个随机输入
    output = block(input)  # 将输入通过ECA模块处理
    print(input.size(), output.size())  # 打印输入和输出的尺寸,验证ECA模块的作用

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值