@创建于:20211019
正则化(Regularization) 是机器学习中对原始损失函数引入额外信息,以便防止过拟合和提高模型泛化性能的一类方法的统称。也就是目标函数变成了原始损失函数+额外项,常用的额外项一般有两种,英文称作ℓ1−norm和ℓ2−norm,中文称作L1正则化和L2正则化,或者L1范数和L2范数(实际是L2范数的平方)。
L1正则化和L2正则化可以看做是损失函数的惩罚项。所谓惩罚是指对损失函数中的某些参数做一些限制。对于线性回归模型,使用L1正则化的模型叫做Lasso回归,使用L2正则化的模型叫做Ridge回归(岭回归)。

更详细内容请参考:
深入理解L1、L2正则化
机器学习中正则化项L1和L2的直观理解
正则化是机器学习中提升模型泛化能力的关键技术,通过在损失函数中添加惩罚项来避免过拟合。L1正则化(Lasso回归)和L2正则化(Ridge回归)是两种常见的方法,分别通过对参数施加L1范数和L2范数的约束来简化模型并减少特征权重的绝对值,从而达到模型压缩和稳定性的目的。
1684

被折叠的 条评论
为什么被折叠?



