批量归一化
对输入的标准化(浅层模型)
处理后的任意一个特征在数据集中所有样本上的均值为0、标准差为1。
标准化处理输入数据使各个特征的分布相近
批量归一化(深度模型)
利用小批量上的均值和标准差,不断调整神经网络中间输出,从而使整个神经网络在各层的中间输出的数值更稳定。


参考 伯禹课程
残差网络
残差网络(ResNet)
深度学习的问题:深度CNN网络达到一定深度后再一味地增加层数并不能带来进一步地分类性能提高,反而会招致网络收敛变得更慢,准确率也变得更差。
残差块(Residual Block)
恒等映射:
左边:f(x)=x
右边:f(x)-x=0 (易于捕捉恒等映射的细微波动)
稠密连接DenseNet

主要构建模块:
稠密块(dense block): 定义了输入和输出是如何连结的。
过渡层(transition layer):用来控制通道数,使之不过大。
def conv_block(in_channels, out_channels)

本文深入探讨深度学习关键概念,包括批量归一化、残差网络、稠密连接DenseNet及优化方法。批量归一化确保深层模型稳定,残差网络解决深度CNN收敛难题,DenseNet通过密集连接提升效率。同时,解析梯度下降、随机梯度下降等优化算法,助力深度模型高效训练。
最低0.47元/天 解锁文章
37万+

被折叠的 条评论
为什么被折叠?



