本文主要总结一下神经网络几种训练机制,不仅简单介绍这几种训练机制的步骤和优缺点,而且从发展,进化的角度理清训练机制不断改进的思路和解决方案,以加深对这几种网络的理解,文中没有公式,适合DL入门者。
BP
BP(back propagation ),也叫误差反传播,是传统神经网络(相对于深度神经网络)中采用的训练机制。改方法通过随机设定网络参数的初值,计算输入在当前网络下的输出结果,然后根据输出与label(真值)之间的差值,采用迭代算法对整个网络的参数整体调整,直到收敛。
特点:
(1):采用梯度下降法,迭代地整体调整网络参数
(2):随机初始化网络参数
(3):采用有标签数据训练
缺点:
(1):整体调整过程中,误差(校正)信号会越来越小,梯度会越来越稀疏

本文探讨神经网络训练机制,重点讲解BP算法和自动编码器(AE)。BP通过误差反传播训练,但存在梯度消失、局部最优等问题。AE通过无监督学习进行特征学习,可逐层训练并有监督微调用于分类。DAE是AE的改进版,引入噪声提升网络泛化能力,能学习更鲁棒的输入表示。
最低0.47元/天 解锁文章
1427

被折叠的 条评论
为什么被折叠?



