最小二乘法:使平方误差最小。有两种方法:线性和非线性。
线性最小二乘的解存在解析的形式,是closed-form,比较直观,就是等下要推导的……
非线性最小二乘的解没有closed-form,是要通过迭代来求得,比如梯度下降法……
本文主要讨论线性回归模型中最小二乘法线性解法的推导。
参考:Andrew Ng《机器学习》第二集
本文聚焦于线性回归模型中最小二乘法的线性求解方式,探讨其解析形式。线性最小二乘解具有封闭形式,而非线性解则需迭代求解,如梯度下降法。内容主要围绕线性回归模型中最小二乘法的推导过程展开,参考自Andrew Ng的《机器学习》课程。
最小二乘法:使平方误差最小。有两种方法:线性和非线性。
线性最小二乘的解存在解析的形式,是closed-form,比较直观,就是等下要推导的……
非线性最小二乘的解没有closed-form,是要通过迭代来求得,比如梯度下降法……
本文主要讨论线性回归模型中最小二乘法线性解法的推导。
参考:Andrew Ng《机器学习》第二集
808
6224

被折叠的 条评论
为什么被折叠?