Bottleneck结构(附代码)

本文介绍了ResNet网络中的Bottleneck结构,该结构通过1x1卷积减少通道数,接着使用3x3卷积进行特征提取,最后再用1x1卷积恢复通道数,从而在增加网络深度的同时减少了计算复杂度。Bottleneck设计在保持模型准确性的同时,有效控制了计算资源的消耗。代码展示了BottleneckBlock的实现细节,包括批量归一化、卷积和残差连接等操作。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Bottleneck结构出现在resnet中,参考paper
结构如下
在这里插入图片描述
左边是一个resnet block,右边是一个和它时间复杂度类似的bottleneck block。

bottleneck由三层组成:1x1, 3x3, 1x1,其中1x1负责缩小放大channel。

为什么要用这个结构呢,paper里是这样说的:
一般来说,增加网络的深度可以提高accuracy, 但是会增加计算量,而bottleneck既增加了深度,计算量又可以得到节约。

参考代码

class Bottleneck2D(nn.Module):
    expansion = 2

    def __init__(self, inplanes, planes, stride=1, downsample=None):
        super(Bottleneck2D, self).__init__()

        self.bn1 = nn.BatchNorm2d(inplanes)
        self.conv1 = nn.Conv2d(inplanes, planes, kernel_size=1)
        self.bn2 = nn.BatchNorm2d(planes)
        self.conv2 = nn.Conv2d(planes, planes, kernel_size=3,
                               stride=stride, padding=1)
        self.bn3 = nn.BatchNorm2d(planes)
        self.conv3 = nn.Conv2d(planes, planes * 2, kernel_size=1)
        self.relu = nn.ReLU(inplace=True)
        self.downsample = downsample
        self.stride = stride

    def forward(self, x):
        residual = x

        out = self.bn1(x)
        out = self.relu(out)
        out = self.conv1(out)

        out = self.bn2(out)
        out = self.relu(out)
        out = self.conv2(out)

        out = self.bn3(out)
        out = self.relu(out)
        out = self.conv3(out)

        if self.downsample is not None:
            residual = self.downsample(x)

        out += residual

        return out

引用\[1\]:梯度爆炸现象的一种解释是指在神经网络中,当网络层数过多时,参数优化过程中会出现loss反而升高的现象。为了解决这个问题,研究人员提出了ResNet残差神经网络。通过添加残差块,可以防止神经网络的退化问题。\[1\]引用\[3\]:ResNet通过shortcut的方法让信息跨层传播,被跨越的层拟合的就是shortcut连接的两层之间的残差。当残差为0时,就是恒等映射;当残差不为0时,就能在恒等映射的基础上补充学习残差。为了进一步改进ResNet,可以调整残差块内部顺序,先经过ReLU再进行加和,并尝试加入Bottleneck结构来节省计算开销。\[3\] 根据以上引用内容,改进的ResNet代码可以包括以下几个方面的改动: 1. 调整残差块内部顺序,先经过ReLU后再进行加和。 2. 使用方法res_layer_maker动态地生成含有多个连续卷积核的残差块。 3. 在网络中尝试加入Bottleneck结构来节省计算开销,先压缩通道数,经过3x3卷积核后再提升通道数。 4. 先使用Adam算法进行快速下降,再用SGD调优。 这些改进可以提高ResNet的性能和效率。 #### 引用[.reference_title] - *1* [Python基于改进Resnet和Vgg新冠肺炎分类[源码&部署教程]](https://blog.youkuaiyun.com/cheng2333333/article/details/126726374)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insert_down28v1,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* *3* [Pytorch搭建ResNet(完整代码)](https://blog.youkuaiyun.com/u013310820/article/details/128380843)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insert_down28v1,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

蓝羽飞鸟

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值