神经网络笔记 - Regularization

神经网络的过拟合可通过Regularization缓解,包括L2正则化(修改代价函数为C=−1n∑xj[yjlnalj+(1−yj)ln(1−alj)]+12n∑ww2)、L1正则化(C=−1n∑xj[yjlnalj+(1−yj)ln(1−alj)]+12n∑w|w|)和Dropout方法。Dropout在每次训练时随机删除一半隐藏层神经元。Regularization降低网络复杂度,遵循Occam's Razor原则。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

神经网络的过拟合(Over fitting) 是神经网络学习的难点, 常规的解决方案是增加学习的样本数, 但是训练样本的搜集往往比较困难,而且样本数增加, 学习成本也随之提高. 另一个比较简单的方法来减少过拟合就是Regularization.
Regularization 的方法有多种:

  • L2 Regularization
    修改代价函数(C)为:

    C=1nxj[yjlnalj+(1yj)ln(1alj)]+12nww2

  • L1 Regularization
    修改代价函数为:

    C=1nxj[yjlnalj+(1yj)ln(1alj)]+12nw|w|

  • Dropout
    Dropout的训练方法有些奇异, 每次做Back-propagation的时候, 随即删除隐藏层中一半的神经元, 迭代多次后得到网络参数.

为什么Reggularization 可以减轻过拟合(over-fitting)呢? 这个问题大概难以回答吧, 也许从Occam’s Razor 可以得到一些启发, Occam’s Razor 的描述如下:
Entities should not be multiplied unnecessary(如无必要,勿增实体)
Regularization就是试图降低网络的复杂度吧。

Reference:

http://neuralnetworksanddeeplearning.com/

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值