PyTorch学习笔记(25) 正则化 weight_decay

本文介绍了正则化的概念,它用于减小模型的方差,从而提高泛化能力。特别地,文章详细探讨了L2正则化,也称为权值衰减,以及如何在PyTorch中实现这一技术。通过调整目标函数,将L2正则化项加入,影响权重更新的规则,以避免过拟合。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Regularzation 正则化

Regularzation:减小方差的策略
误差可分解为:偏差,方差与噪声之和。即 误差 = 偏差 + 方差 + 噪声 之和
偏差度量了学习算法的期望预测与真实结果的偏离程度,即刻画了学习算法本身的拟合能力
方差度量了同样大小的训练集的变动所导致的学习性能的变化,即刻画了数据扰动所造成的影响
噪声则表达了在当前任务上任何学习算法所能达到的期望泛化误差的下界

损失函数:衡量模型输出与真实标签的差异

损失函数(Loss Function):

损失函数:衡量模型输出与真实标签的差异
 Loss  = f ( y ∧ , y ) \text { Loss }=f\left(y^{\wedge}, y\right)  Loss =f(y,y)
代价函数(Cost Function):
C o s t = 1 N ∑ i N f ( y i ∧ , y i ) Cost=\frac{1}{N} \sum_{i}^{N} f\left(y_{i}^{\wedge}, y_{i}\right) Cost=N1iNf(yi,yi)
目标函数(Objective Function):
KaTeX parse error: Can't use function '$' in math mode at position 2: $̲Obj=$ Cost $+$ …

L1 Regularzation Term :

∑ i N ∣ w i ∣ \sum_{i}^{N}\left|\boldsymbol{w}_{i}\right| iNwi

L2 Regularzation Term :

∑ i N w i 2 \sum_{i}^{N} w_{i}^{2} iNwi2

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值