深度学习入门-6(批量归一化与残差网络,优化与深度学习,梯度下降)

本文探讨了深度学习中的批量归一化、残差网络、稠密连接网络等网络结构,以及梯度下降、随机梯度下降等优化方法。详细介绍了批量归一化的应用、残差块的设计理念、DenseNet的构建模块,并讨论了凸优化、梯度消失等问题。

一、批量归一化

1、批量归一化(BatchNormalization)
  • 对输入的标准化(应用在浅层模型)
    处理后的任意一个特征在数据集中所有样本上的均值为0、标准差为1。
    标准化处理输入数据使各个特征的分布相近

  • 批量归一化(应用在深度模型)
    利用小批量上的均值和标准差,不断调整神经网络中间输出,从而使整个神经网络在各层的中间输出的数值更稳定。

(1)对全连接层做批量归一化

位置:全连接层中的仿射变换和激活函数之间。

全连接:

在这里插入图片描述
批量归一化:
在这里插入图片描述
这⾥ϵ > 0是个很小的常数,保证分母大于0
在这里插入图片描述
在这里插入图片描述

(2)对卷积层做批量归⼀化

位置:卷积计算之后、应⽤激活函数之前。

如果卷积计算输出多个通道,我们需要对这些通道的输出分别做批量归一化,且每个通道都拥有独立的拉伸和偏移参数。

计算:对单通道,batchsize=m,卷积计算输出=pxq 对该通道中m×p×q个元素同时做批量归一化,使用相同的均值和方差。

(3)预测时的批量归⼀化

训练:以batch为单位,对每个batch计算均值和方差。
预测:用移动平均估算整个训练数据集的样本均值和方差。

2、残差网络(ResNet)

深度学习的问题:深度CNN网络达到一定深度后再一味地增加层数并不能带来进一步地分类性能提高,反而会招致网络收敛变得更慢,准确率也变得更差。

(1)残差块(Residual Block)

恒等映射:
左边:f(x)=x
右边:f(x)-x=0 (易于捕捉恒等映射的细微波动)
在这里插入图片描述
在残差块中,输⼊可通过跨层的数据线路更快 地向前传播。

(2)ResNet模型

卷积(64,7x7,3)
批量一体化
最大池化(3x3,2)

残差块x4 (通过步幅为2的残差块在每个模块之间减小高和宽)

全局平均池化

全连接

3、稠密连接网络(DenseNet)

在这里插入图片描述

(1)主要构建模块:
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值