Bottleneck结构(附代码)

本文介绍了ResNet网络中的Bottleneck结构,该结构通过1x1卷积减少通道数,接着使用3x3卷积进行特征提取,最后再用1x1卷积恢复通道数,从而在增加网络深度的同时减少了计算复杂度。Bottleneck设计在保持模型准确性的同时,有效控制了计算资源的消耗。代码展示了BottleneckBlock的实现细节,包括批量归一化、卷积和残差连接等操作。

Bottleneck结构出现在resnet中,参考paper
结构如下
在这里插入图片描述
左边是一个resnet block,右边是一个和它时间复杂度类似的bottleneck block。

bottleneck由三层组成:1x1, 3x3, 1x1,其中1x1负责缩小放大channel。

为什么要用这个结构呢,paper里是这样说的:
一般来说,增加网络的深度可以提高accuracy, 但是会增加计算量,而bottleneck既增加了深度,计算量又可以得到节约。

参考代码

class Bottleneck2D(nn.Module):
    expansion = 2

    def __init__(self, inplanes, planes, stride=1, downsample=None):
     
### Bottleneck 结构概述 Bottleneck 层是在深度残差网络(ResNet)中引入的重要组件,旨在减少计算量的同时保持甚至提高性能。这种结构通过特定的设计降低了模型的参数数量和计算复杂度,从而提高了训练效率[^2]。 ### 实现细节 典型的 Bottleneck 单元由三个卷积层组成: 1. **第一个卷积层 (1×1)**:该层主要用于降维操作,通常会将输入通道数减小到原来的四分之一。这一步骤可以显著减少后续处理的数据量。 2. **第二个卷积层 (3×3)**:此层负责空间上的特征提取工作,在较小维度的空间内执行标准的卷积运算来捕捉图像局部特征。 3. **第三个卷积层 (1×1)**:最后再利用另一个 1x1 的卷积核恢复原始的通道数目,以便于与其他部分相加形成恒等映射。 以下是 Python 中基于 PyTorch 框架的一个简单实现示例: ```python import torch.nn as nn class Bottleneck(nn.Module): expansion = 4 def __init__(self, inplanes, planes, stride=1, downsample=None): super(Bottleneck, self).__init__() # First layer reduces dimensionality with a 1x1 convolution. self.conv1 = nn.Conv2d(inplanes, planes, kernel_size=1, bias=False) self.bn1 = nn.BatchNorm2d(planes) # Second layer applies spatial filtering using a 3x3 convolution. self.conv2 = nn.Conv2d(planes, planes, kernel_size=3, stride=stride, padding=1, bias=False) self.bn2 = nn.BatchNorm2d(planes) # Third layer restores original dimensions via another 1x1 convolutions. self.conv3 = nn.Conv2d(planes, planes * self.expansion, kernel_size=1, bias=False) self.bn3 = nn.BatchNorm2d(planes * self.expansion) self.relu = nn.ReLU(inplace=True) self.downsample = downsample self.stride = stride def forward(self, x): residual = x out = self.conv1(x) out = self.bn1(out) out = self.relu(out) out = self.conv2(out) out = self.bn2(out) out = self.relu(out) out = self.conv3(out) out = self.bn3(out) if self.downsample is not None: residual = self.downsample(x) out += residual out = self.relu(out) return out ``` 上述代码展示了如何构建一个完整的 Bottleneck 块,并将其应用于 ResNet 架构之中。
评论 1
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

蓝羽飞鸟

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值