
在学习线性回归的时候,会用最小二乘给出目标函数,但是为什么用最小二乘法作为目标函数,理论上可以证明。
利用极大似然估计解释最小二乘法:
重要前提
1、各个样本之间是独立的
2、误差服从均值是0,方差是σ² 的高斯分布(中心极限定理)

本文通过极大似然估计的方法解释了为什么在线性回归中选择最小二乘法作为目标函数。文章首先介绍了使用最小二乘法的前提条件:样本间的独立性和误差的正态分布特性,并进一步探讨了这些条件如何支撑最小二乘法的有效性。

在学习线性回归的时候,会用最小二乘给出目标函数,但是为什么用最小二乘法作为目标函数,理论上可以证明。
利用极大似然估计解释最小二乘法:
重要前提
1、各个样本之间是独立的
2、误差服从均值是0,方差是σ² 的高斯分布(中心极限定理)


被折叠的 条评论
为什么被折叠?