-
损失函数:均方误差
-
使用梯度下降法求解 θ \theta θ
-
正规方程法 θ = ( X T X ) − 1 X T Y \theta = (X^TX)^{-1}X^TY θ=(XTX)−1XTY,没有正则化项
-
如何解决非线性的问题
方法1:推广到多项式回归
方法2:核函数,前提是ridge回归,即加了 L 2 L_2 L2正则化
表示定理:凡是进行 L 2 L_2 L2正则化的线性问题都可以使用核函数的技巧。但是!!!通常不采用这个方法,因为每个样本点都必须参与核计算,这带来的计算复杂度是相当高的。!!!!!并不像SVM一样具有稀疏解!!!
方法3:局部加权线性回归 -
通过极大化对数似然可以推导出最小二乘
独立同分布假设, ε i \varepsilon_i εi服从均值为0,方差为 σ 2 \sigma^2 σ2的高斯分布。
扩展:如果机器学习模型使用梯度下降法求最优解时,归一化往往非常有必要,否则很难收敛甚至不能收敛
[1] 表示定理的证明
https://blog.youkuaiyun.com/qq_34993631/article/details/79345889
[2] 局部加权线性回归
https://www.cnblogs.com/czdbest/p/5767138.html
https://blog.youkuaiyun.com/wyl1813240346/article/details/78562654
[3] 特征归一化
https://www.zhihu.com/question/274640730/answer/376781767
本文详细探讨了线性回归中的均方误差作为损失函数,并介绍了使用梯度下降法及正规方程法求解参数θθθ的方法。进一步讨论了解决非线性问题的三种策略:多项式回归、核函数(在L2L_2L2正则化条件下)和局部加权线性回归。文章还提到了独立同分布假设下εivarepsilon_iεi的高斯分布特性,以及特征归一化对梯度下降法的重要性。
1167

被折叠的 条评论
为什么被折叠?



