ResNet在2015年由微软实验室提出,斩获当年ImageNet竞赛中分类任务第一名,目标检测第一名。获得COCO数据集中目标检测第一名,图像分割第一名。
网络中的亮点:
1、超深的网络结构(突破1000层)
2、提出residual模块
3、使用Batch Normalization加速训练(丢弃dropout)
残差结构如下:

若同样,输入为256维的特征向量,右边的结构的参数比左边少。
不同层数的网络表格:

左边主分支与shortcut的输出特征矩阵shape是必须相同的,可以直接相加。右边,对于虚线处,需要reshape到统一大小。下面给出详细的ResNet50结构。

Batch Normalization
Batch Normalization的目的是使我们的一批( Batch)feature map满足均值为0,方差为1的分布规律。附上一个链接,解释得非常非常非常详细Batch Normalization。视评讲解链接如下
本文详细介绍微软ResNet在2015年的突破,包括超深网络结构、residual模块和BatchNormalization的应用,以及其在ImageNet竞赛中的卓越表现。深入探讨了ResNet50的结构和BN的作用,适合理解深度学习中的关键组件。
简单介绍(笔记)&spm=1001.2101.3001.5002&articleId=118975196&d=1&t=3&u=db8b7d484d4f4b549a692edfb75a68d5)
673

被折叠的 条评论
为什么被折叠?



