最近在学习神经网络的相关知识,希望通过写博客记录下学习时的感悟,督促、勉励自己。
正则化
关于神经网络优化的主要方面是避免神经网络的过拟合,提高模型的泛化能力,常用的方法有:L1、L2正则化,dropout、权重的初始化等。其中正则化在深度学习中的线性传播中用的最多,在反向求导的过程中起到惩罚权重的作用。
L2正则化原理其实很简单:
J=J+λ2m∑ww2
其中λ是一个超参数,范围[0,1],m为输入batch中数据的数量,ω则是我们训练的深井网络中每一层的权重矩阵,这里进行的运算是对每一个权重矩阵进行了矩阵的2-范数运算(即每个元素的平方然后求总和)。
我们对损失函数进行了修改之后,反向传播的求导也会发生改变,对ω求导可得:
ddw(12λmW2)=λmw
然后对对应层的ω进行更新:
w=w−dJdw(learning_rate)−λmW(lear
深度学习中的L2正则化:原理与实现

本文探讨了神经网络优化中的L2正则化,以防止过拟合并提升模型泛化能力。通过理解正则化的概念,特别是L2正则化如何使权重接近于0,来降低复杂度,从而降低过拟合风险。同时,介绍了L2正则化的实际代码实现。
最低0.47元/天 解锁文章
3086

被折叠的 条评论
为什么被折叠?



