12 权重衰退 [动手学深度学习v2]

"这篇博客探讨了使用均方范数作为正则化手段来控制模型复杂度。通过设置参数范数上限,可以实现硬性或柔性的限制。文章介绍了当λlambdaλ为不同值时对模型的影响,并详细阐述了参数更新的梯度下降法则,以及在深度学习中权重衰减的概念。"

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

  1. 使用均方范数作为硬性限制

    • 通过限制参数值的选择范围来控制模型容量
      min ⁡ ℓ ( w , b )  subject to  ∥ w ∥ 2 ≤ θ \min \ell(\mathbf{w}, b) \quad \text { subject to }\|\mathbf{w}\|^{2} \leq \theta min(w,b) subject to w2θ
    • 通常不限制 b b b (限不限制都差不多)
    • 小的 θ \theta θ意味着更强的正则项
  2. 使用均方范数作为柔性限制

    • 对每个 θ \theta θ,都可以找到 λ \lambda λ使得之前的目标函数等价于下面
      min ⁡ ℓ ( w , b ) + λ 2 ∥ w ∥ 2 \min \ell(\mathbf{w}, b)+\frac{\lambda}{2}\|\mathbf{w}\|^{2} min(w,b)+2λw2
      可以通过拉格朗日乘子来证明

    • 超参数 λ \lambda λ控制了正则项的重要程度

      • λ = 0 \lambda=0 λ=0:无作用
      • λ → ∞ \lambda \rightarrow \infty λ w ∗ → 0 \mathbf{w}^* \rightarrow \mathbf{0} w0
  3. 参数更新法则

    • 计算梯度
      ∂ ∂ w ( ℓ ( w , b ) + λ 2 ∥ w ∥ 2 ) = ∂ ℓ ( w , b ) ∂ w + λ w \frac{\partial}{\partial \mathbf{w}}\left(\ell(\mathbf{w}, b)+\frac{\lambda}{2}\|\mathbf{w}\|^{2}\right)=\frac{\partial \ell(\mathbf{w}, b)}{\partial \mathbf{w}}+\lambda \mathbf{w} w((w,b)+2λw2)=w(w,b)+λw

    • 时间 t t t更新参数
      w t + 1 = ( 1 − η λ ) w t − η ∂ ℓ ( w t , b t ) ∂ w t \mathbf{w}_{t+1}=(1-\eta \lambda) \mathbf{w}_{t}-\eta \frac{\partial \ell\left(\mathbf{w}_{t}, b_{t}\right)}{\partial \mathbf{w}_{t}} wt+1=(1ηλ)wtηwt(wt,bt)

      通常 η λ < 1 \eta \lambda < 1 ηλ<1,在深度学习中通常叫做权重衰退

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值