resnet 优化之cbam

1. cbam

https://blog.youkuaiyun.com/qq_44666320/article/details/105694019

https://blog.youkuaiyun.com/qq_38410428/article/details/103694759

2. se net

class ChannelAttention(nn.Module):
    def __init__(self, in_planes, ratio=16):
        super(ChannelAttention, self).__init__()
        self.avg_pool = nn.AdaptiveAvgPool2d(1)
        self.max_pool = nn.AdaptiveMaxPool2d(1)

        self.fc1   = nn.Conv2d(in_planes, in_planes // 16, 1, bias=False)
        self.relu1 = nn.ReLU()
        self.fc2   = nn.Conv2d(in_planes // 16, in_planes, 1, bias=False)

        self.sigmoid = nn.Sigmoid()

    def forward(self, x):
        avg_out = self.fc2(self.relu1(self.fc1(self.avg_pool(x))))
        max_out = self.fc2(self.relu1(self.fc1(self.max_pool(x))))
        out = avg_out + max_out
        return self.sigmoid(out)
class SpatialAttention(nn.Module):
    def __init__(self, kernel_size=7):
        super(SpatialAttention, self).__init__()

        assert kernel_size in (3, 7), 'kernel size must be 3 or 7'
        padding = 3 if kernel_size == 7 else 1

        self.conv1 = nn.Conv2d(2, 1, kernel_size, padding=padding, bias=False)
        self.sigmoid = nn.Sigmoid()

    def forward(self, x):
        avg_out = torch.mean(x, dim=1, keepdim=True)
        max_out, _ = torch.max(x, dim=1, keepdim=True)
        x = torch.cat([avg_out, max_out], dim=1)
        x = self.conv1(x)
        return self.sigmoid(x)

在ResNet网络中添加注意力机制
注意点:因为不能改变ResNet的网络结构,所以CBAM不能加在block里面(也可以加在block里面,此时网络不能加载预训练参数),因为加在block里面网络结构发生了变化,所以不能用预训练参数。

              加在最后一层卷积和第一层卷积不改变网络,可以用预训练参数。

就是你如果希望使用预训练模型。那么就加在第一层卷积和 最后一层卷积后面 

如果你从头训:随便你加在哪里 

### 如何在 ResNet 中集成 CBAM 为了提升 ResNet 的性能,在其中引入卷积块注意模块 (CBAM) 是一种有效的方法。具体来说,可以在 ResNet 的每个残差单元之后加入 CBAM 模块,从而让网络能够更专注于重要的特征区域。 #### 实现方法 1. **定义 CBAM 类** 首先创建一个 Python 类 `CBAM` 来封装通道和空间注意力机制: ```python import torch.nn as nn import torch class ChannelAttention(nn.Module): def __init__(self, in_planes, ratio=16): super(ChannelAttention, self).__init__() self.avg_pool = nn.AdaptiveAvgPool2d(1) self.max_pool = nn.AdaptiveMaxPool2d(1) self.fc1 = nn.Conv2d(in_planes, in_planes // ratio, 1, bias=False) self.relu1 = nn.ReLU() self.fc2 = nn.Conv2d(in_planes // ratio, in_planes, 1, bias=False) self.sigmoid = nn.Sigmoid() def forward(self, x): avg_out = self.fc2(self.relu1(self.fc1(self.avg_pool(x)))) max_out = self.fc2(self.relu1(self.fc1(self.max_pool(x)))) out = avg_out + max_out return self.sigmoid(out) class SpatialAttention(nn.Module): def __init__(self, kernel_size=7): super(SpatialAttention, self).__init__() assert kernel_size in (3, 7), 'kernel size must be 3 or 7' padding = 3 if kernel_size == 7 else 1 self.conv1 = nn.Conv2d(2, 1, kernel_size, padding=padding, bias=False) self.sigmoid = nn.Sigmoid() def forward(self, x): avg_out = torch.mean(x, dim=1, keepdim=True) max_out, _ = torch.max(x, dim=1, keepdim=True) x = torch.cat([avg_out, max_out], dim=1) x = self.conv1(x) return self.sigmoid(x) class CBAM(nn.Module): def __init__(self, channel_in, reduction_ratio=16, spatial_kernel=7): super(CBAM, self).__init__() self.channel_attention = ChannelAttention(channel_in, reduction_ratio) self.spatial_attention = SpatialAttention(spatial_kernel) def forward(self, x): out = self.channel_attention(x) * x out = self.spatial_attention(out) * out return out ``` 2. **修改 ResNet 结构** 接着需要调整原始的 ResNet 架构文件,通常是在每一个 Bottleneck 或 BasicBlock 后面添加上述定义好的 CBAM 层: ```python from torchvision.models.resnet import Bottleneck def make_layer(block, planes, blocks, stride=1, cbam=None): downsample = None layers = [] for i in range(blocks): layer = block(...) # Add CBAM after each residual connection if cbam is not None: layer.add_module('cbam', cbam(layer.out_channels)) layers.append(layer) return nn.Sequential(*layers) ``` 请注意这里的伪代码仅展示了概念性的改动方式;实际项目中可能还需要考虑更多细节问题,比如 batch normalization 参数传递等[^1]。 通过这种方式,可以使得经过改进后的 ResNet 不仅仅依赖于传统的卷积层来进行特征抽取,而是借助 CBAM 提供的关注力引导来更好地捕捉图像中的关键信息,进而达到提高分类精度的效果[^2]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值