线性回归可能大家都会觉得很熟悉了,玩过机器学习的人还会觉得这个low low的,其实,线性回归在数理统计的角度下,还是有很多值得考察的地方的。
1、一元线性回归
线性回归,自然就想到最小二乘法了。线性回归说白了就是确定斜率和截距,他们的计算方法如下所示。
斜率的确定很有意思,协方差除以独立变量的方差。所以,协方差、独立变量方差、斜率,知道两个就可以获得第三个;结合之前的相关系数,那么,可以互推的情况就很多了。
评价一个线性回归拟合的好不好,直观上有残差平方和,SSR。在数理统计的框架下,评价的指标更加丰富。
TSS是不考虑回归,数据自身

这篇笔记探讨了线性回归在数理统计中的应用,包括一元和多元线性回归。一元线性回归介绍了斜率和截距的计算、评估指标如R^2和自由度的概念。多元线性回归则涉及了F-分布和假设检验,并指出加入过多变量可能导致的问题,提出了调整后的R^2指标来惩罚变量数量。
最低0.47元/天 解锁文章
1万+

被折叠的 条评论
为什么被折叠?



