在上一篇文章中我们写到了L1损失函数和L2损失函数,本文将讲述L1正则化和L2正则化。损失函数和正则化是作用不同的两个部分,我们将在文中对其进行辨析。
L1和L2正则化
假设我们考虑一个回归问题,数据集 D = { ( x 1 ⃗ , y 1 ) , ( x 2 ⃗ , y 2 ) , ⋯   , ( x n ⃗ , y n ) } D = \left\lbrace (\vec{x_1},y_1),(\vec{x_2},y_2),\cdots,(\vec{x_n},y_n) \right\rbrace D={ (x1,y1),(x2,y2),⋯,(xn,yn)},此处我们选择L2损失函数,则模型优化的目标为: min w ⃗ ∑ i = 1 n ( y i − w ⃗ T x i ) 2 \min_{\vec{w}} \sum_{i=1}^{n}(y_i-\vec{w}^Tx_i)^2 wmini=1∑n(yi−