线性回归linear regression

本文详细探讨了线性回归中的均方误差作为损失函数,并介绍了使用梯度下降法及正规方程法求解参数θθθ的方法。进一步讨论了解决非线性问题的三种策略:多项式回归、核函数(在L2L_2L2正则化条件下)和局部加权线性回归。文章还提到了独立同分布假设下εivarepsilon_iεi​的高斯分布特性,以及特征归一化对梯度下降法的重要性。
  1. 损失函数:均方误差

  2. 使用梯度下降法求解 θ \theta θ

  3. 正规方程法 θ = ( X T X ) − 1 X T Y \theta = (X^TX)^{-1}X^TY θ=(XTX)1XTY,没有正则化项

  4. 如何解决非线性的问题
    方法1:推广到多项式回归
    方法2:核函数,前提是ridge回归,即加了 L 2 L_2 L2正则化
    表示定理:凡是进行 L 2 L_2 L2正则化的线性问题都可以使用核函数的技巧。但是!!!通常不采用这个方法,因为每个样本点都必须参与核计算,这带来的计算复杂度是相当高的。!!!!!并不像SVM一样具有稀疏解!!!
    方法3:局部加权线性回归

  5. 通过极大化对数似然可以推导出最小二乘
    独立同分布假设, ε i \varepsilon_i εi服从均值为0,方差为 σ 2 \sigma^2 σ2的高斯分布。

扩展:如果机器学习模型使用梯度下降法求最优解时,归一化往往非常有必要,否则很难收敛甚至不能收敛

[1] 表示定理的证明
https://blog.youkuaiyun.com/qq_34993631/article/details/79345889
[2] 局部加权线性回归
https://www.cnblogs.com/czdbest/p/5767138.html

https://blog.youkuaiyun.com/wyl1813240346/article/details/78562654
[3] 特征归一化
https://www.zhihu.com/question/274640730/answer/376781767

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值