【Interview】 ResNet系列/ Inception系列/ MobileNet系列/ ShuffleNet系列 网络结构图

本文介绍了深度学习中用于图像识别的多个经典网络结构,包括VGG、ResNet及其变体PreAct-ResNet,GoogLeNet的Inception系列,Xception,ResNeXt,MobileNet系列,ShuffleNet系列,DenseNet和SENet。这些网络通过创新的卷积结构和优化技术,实现了高效且准确的图像识别。

VGG

2014
Very Deep Convolutional Networks for Large-Scale Image Recognition

ResNet

2015
Deep Residual Learning for Image Recognition

  • Residual Representations / Shortcut Connections

PreAct-ResNet

2016
Identity Mappings in Deep Residual Networks

  • 为了构造identity mapping f(y) = y,因此作者对activation functions(BN和reLU)进行更改.那么在forward或者backward的时候,信号都能直接propagate from 一个unit to other unit。

GoogLeNet

Inception V1

2014
Going deeper with convolutions

  • 利用1x1的卷积解决维度爆炸

Inception V2

2015
v2:Batch Normalization: Accelerating Deep Network Training by

### ResNet、DenseNet 和 Inception 模型对比 #### 架构特点 ResNet引入了残差块的概念,解决了深层网络中的梯度消失问题。通过跳跃连接(skip connections),允许信息绕过某些层直接传递给后续层[^5]。 DenseNet进一步发展了这一理念,采用密集连接的方式,即每一层与其后的所有层都存在直接连接关系。这种设计不仅促进了特征重用还缓解了退化问题的发生[^1]。 Inception系列模型则专注于构建更加高效的架构来替代单纯的堆叠更多层数的做法。该家族成员利用多尺度卷积核以及维度缩减技术,在维持甚至提升精度的前提下大幅降低了计算复杂性和资源消耗[^2]。 #### 参数效率与性能表现 由于采用了独特的跨层链接机制,ResNet能够在不显著增加额外参数的情况下支持极深的网络结构,从而实现了更好的泛化能力和更高的准确性[^3]。 相比之下,尽管DenseNet拥有更多的连接路径,但由于每层只增加了少量通道数作为输出,整体上仍然保持着较低数量级的权重矩阵规模。这有助于减轻过拟合风险并加速收敛过程。 对于Inception而言,借助于创新性的模块组合形式——特别是早期版本里的Factorization into smaller convolutions策略——成功地压缩了所需存储空间占用量而不牺牲识别效果[^4]。 #### 应用场景适应性 当面对硬件条件受限的任务环境时,比如移动设备端部署或是实时处理需求较高的场合下,轻量化且高效能的Inception变体往往成为首选方案之一。 而在追求极致精确度的应用领域内,则可以考虑使用具有更深拓扑特性的ResNet或DenseNet,因为它们能够更好地捕捉数据集内部复杂的模式分布规律。 ```python import torch.nn as nn class BasicBlock(nn.Module): # Example of a basic block used in ResNet expansion = 1 def __init__(self, in_channels, out_channels, stride=1): super(BasicBlock, self).__init__() ... def dense_block(num_layers, growth_rate, bn_size, drop_rate): layers = [] for i in range(num_layers): layer = _DenseLayer(growth_rate=growth_rate, bn_size=bn_size, drop_rate=drop_rate) layers.append(layer) return nn.Sequential(*layers) class InceptionA(nn.Module): # Simplified version of an inception module def __init__(self, input_channels, pool_features): super(InceptionA, self).__init__() ... ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值