正则化是机器学习中用于防止过拟合的一种技术。它通过在损失函数中加入一个惩罚项,限制模型的复杂度,从而提高模型的泛化能力。常见的正则化方法包括L1正则化(Lasso)和L2正则化(Ridge),还有结合了两者优点的Elastic Net。以下是对这些正则化方法的详细说明,包括原理、用法、使用场景、作用及其优缺点。
L1正则化(Lasso)
原理
L1正则化通过在损失函数中加入所有特征系数绝对值之和的惩罚项来限制模型的复杂度。其损失函数形式为:
L ( w ) = 1 n ∑ i = 1 n ( y i − x i ⊤ w ) 2 + λ ∑ j = 1 m ∣ w j ∣ L(\mathbf{w}) = \frac{1}{n} \sum_{i=1}^n \left( y_i - \mathbf{x}_i^\top \mathbf{w} \right)^2 + \lambda \sum_{j=1}^m |w_j| L(w)=n1i=1∑n(yi−xi⊤w)2+λj=1<