(一)以多组不同参数值初始化多个神经网络,去其中误差最小的作为结果
(二)使用“模拟退火”技术
模拟退火在每一步都以一定的概率接受比当前解更差的结果,从而有助于跳出局部最小值。在每次迭代过程中,接受’“次优解”的概率要随着时间的推移而逐渐降低,从而保证算法稳定。
(三)使用随机梯度下降
每次随机选取一个样本进行梯度下降,在梯度下降时加入了随机因素。即便陷入了局部最小点,它计算出的梯度可能仍不为零,这样就有机会跳出局部最小继续搜索。
本文介绍了三种有效策略帮助神经网络训练跳出局部最小值:多参数初始化、模拟退火技术和随机梯度下降。通过这些方法,可以提高模型的泛化能力和训练效果。
(一)以多组不同参数值初始化多个神经网络,去其中误差最小的作为结果
(二)使用“模拟退火”技术
模拟退火在每一步都以一定的概率接受比当前解更差的结果,从而有助于跳出局部最小值。在每次迭代过程中,接受’“次优解”的概率要随着时间的推移而逐渐降低,从而保证算法稳定。
(三)使用随机梯度下降
每次随机选取一个样本进行梯度下降,在梯度下降时加入了随机因素。即便陷入了局部最小点,它计算出的梯度可能仍不为零,这样就有机会跳出局部最小继续搜索。
1704
2754
7065

被折叠的 条评论
为什么被折叠?