深度学习笔记-正则化

-通过正则化消除过度拟合,下面为公式介绍和解释

  • J(w,b)=1m∑i=1mL(y^(i),y(i))+λ2m∣∣w∣∣22\frac{1}{m}\sum_{i=1}^{m}L(\hat{y}^{(i)},y^{(i)})+\frac{\lambda}{2m}||w||{^2_2}m1i=1mL(y^(i),y(i))+2mλw22
  • L2L_2L2正则化: ∣∣w∣∣22=∑j=1nxwj2=wTw||w||{^2_2}=\sum_{j=1}^{n_x} {w_j}^2=w^Tww22=j=1nxwj2=wTw,
    ∣∣w∣∣22||w||{^2_2}w22被称为参数W的L2L_2L2范数
  • 只对W进行正则化是因为W是一个高维参数,基本上包含了所有维度
  • λ\lambdaλ是正则化参数,应该较大,避免过拟合,即避免数据权值矩阵过大
  • 放在多层网络中变成了“ +λ2m∑l=1L∣∣w[l]∣∣F2+\frac{\lambda}{2m}\sum_{l=1}^{L}||w^{[l]}||{^2_F}+2mλl=1Lw[l]F2
    L为层
    ∣∣W[l]∣∣F2=∑i=1n[l−1]∑j=1n[l](wij[l])2w:(n[l−1],n[l])||W^{[l]}||{^2_F}=\sum_{i=1}^{n^{[l-1]}}\sum_{j=1}^{n^{[l]}}(w{^{[l]}_{ij}})^2\qquad w:(n^{[l-1]},n^{[l]})W[l]F2=i=1n[l1]j=1n[l](wij[l])2w:(n[l1],n[l])
    “Frobenius norm” 弗罗贝尼乌斯范数
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值