no.6 ResNet网络结构 BN层以及迁移学习详解

论文:《Deep Residual Learning for Image Recongnition》 kaiming he ,jian sun等人

ResNet 在2015年由微软实验室提出,斩获当年ImageNet竞赛中分类任务的第一名,目标检测第一名。获得coco数据集中目标检测,图像分割的第一名。就是一种非常牛掰的网络。我们可以叫它残差网络。

LeNet5、AlexNet、VGG-16、GoogLeNet、ResNet50原理及其结构 - 简书 (jianshu.com)这个链接里面做的图比较高清

(壹)网络当中的亮点:

(一)网络结构非常深(作者在原论文当中尝试搭建1000层的网络

(二)提出Residual模块

(三)使用Batch Normalization加速训练(丢弃Dropout)

(一)网络结构加深就一定好吗?

加深层数产生的问题:

1 梯度消失或者梯度爆炸:如果我们的权重<1在反向传播中就会慢慢的变成0,如果>1,在一层层的反向传播中就会导致梯度爆炸。

如何处理(处理方法发有哪些):(1)对数据进行标准化处理(2)权重初始化(3)BN层

2 退化问题(degradation problem):随着网络加深,效果反而不好。但是残差网络很好的解决了这一问题,如下图,随着网络的加深,反而我们的错误率越低。

(二)Residual结构(残差结构)

 左边这副是针对网络深度较小的网络设置残差结构,右边是深层次的网络所搭建的残差结构,

34-layars , 50、101、152-layars。

我们提到过,神经网络的目标是减少参数。

我们经计算:右

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值