机器学习经典算法:添加模型正则化提高泛化能力(岭回归)

正文

模型正则化 Regularization 是通过 约束模型参数值的大小 实现解决模型方差过大(过拟合)问题的一种 标准处理手段。通过模型正则化处理可以在保持模型具有较高复杂度的前提下 提高模型的泛化能力

0、衡量向量的大小与长度(Lp范数)

Lp范数: 数学上表达为向量各个元素绝对值p次方和的1/p次方 ∥ x ⃗ ∥ p = ( ∑ i = 1 n ∣ x i ∣ p ) 1 p \|\vec x\|_{p} = (\sum_{i=1}^{n}|x_{i}|^{p})^{\frac {1}{p}} x p=(i=1nxip)p1
该数学形式与 明可夫斯基距离 : ( ∑ i = 1 n ∣ X i ( a ) − X i ( b ) ∣ p ) 1 p (\sum_{i=1}^{n}{|X_i^{(a)} - X_i^{(b)}|^{p }})^{\frac{1}{p}} (i=1nXi(a)Xi(b)p)p1 一致,当 p p p取不同值时明可夫斯基距离可以具体化为不同的类型。

对于向量的Lp范数,其实度量的是 空间中向量到坐标原点的距离:

  • p = 1     p=1\,\,\, p=1 时,L1范数 度量了向量到原点的 曼哈顿距离
  • p = 2     p=2\,\,\, p=2 时,L2范数 度量了向量到原点的 欧氏距离 ;
  • p → ∞ p \to \infty p时,L∞范数 计算了向量中元素的绝对值最大值: ∥ x ∥ ∞ = max ⁡ ( ∣ x 1 ∣ , ∣ x 2 ∣ , … , ∣ x n ∣ ) \|x\|_\infty = \max(|x_1|, |x_2|, \dots, |x_n|) x=max(x1,x2,,xn)
      \,

一般数据分析领域几乎不会涉及 p > 2 p \gt 2 p>2 的距离。

1、L2正则项的应用——岭回归(Ridge Regression)

在线性回归任务中,寻找最优参数的优化目标为
使得    ∑ i = 1 m ( y ( i ) − y ^ ( i ) ) → ∑ i = 1 m ( y ( i ) − θ 0 − θ 1 x 1 ( i ) − . . . − θ n x n ( i ) ) → M S E ( y ( i

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

倪桦

有帮助的话请杯咖啡吧,谢谢!

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值