卷积神经网络(CNN)是深度学习(DL)模型的一种
1、在整个神经网络结构中,通常分为:卷积层、池化层、归一化层、非线性层和全连接层。
有关各层的详细作用及工作原理见博客
https://blog.youkuaiyun.com/yjl9122/article/details/70198357
2、其中有许多不易理解的名词,有关解释见博客
https://blog.youkuaiyun.com/weixin_40013463/article/details/80577738
3、卷积神经网络训练时常选择将反向传播和监督学习相结合的方式,使用梯度下降来优化网络,训练流程主要包含前向传播阶段、反向传播阶段两个阶段。其工作过程简述如下:在正向传播中,数据从输入层输入,经过隐藏层逐层提取分析之后,传播到输出层,在逐层提取的过程中,每层神经元的输出只传递给下一层的神经元[9]。到了输出层,将当前输出值和期望输出值作比较,若两者有误差不满足要求,则进行反向传播。误差信号从输出层向隐藏层进行逐层反向传播,直到传至输入层,然后按照传播的误差调整各个隐藏层的每个神经元的权重系数,一直重复这个步骤,直到收敛到误差信号的最小值,也即BP算法。
4、再次理解参考以下博主http://blog.youkuaiyun.com/hjimce/article/details/47323463
本文仅自己学习参考,供自己复习用
本文深入解析卷积神经网络(CNN)结构,包括卷积层、池化层等关键组件,阐述其训练过程,如前向传播和反向传播,并提及梯度下降优化策略。适合深度学习初学者及进阶者参考。
2380

被折叠的 条评论
为什么被折叠?



