多元回归与一元回归不同
与一元回归相比,多元回归有两点不同:
1、新增了一个假定,多元回归的假定为:
-
Y的平均值能够准确的被由X组成的线性函数模型呈现出来;
-
解释变量和随机扰动项不存在线性关系;
-
解释变量之间不存在线性关系或强相关;
-
假设随机误差项e是一个均值为0的正态分布;
-
假设随机误差项e的方差恒定;
-
误差独立。
2、多元线性回归会面临变量选择的问题
模型自变量增加后,即便使用聚类等手段进行变量压缩,也不能将自变量的相关性完全剔除,这便会导致具有相关性的自变量溜进模型。由于自变量间关系不同,建模所选择的策略也会不同,模型的结果相对也会有较大差异,SAS中一般会使用selection参数进行变量控制,这个参数即为变量选择提供准则与方法。
多元线性回归的多重共线性
多元线性回归的自变量间不能具有多重共线性,但实际构建模型时经常会遇到自变量间高度重叠的情况,即自自变量间高度相关,一般SAS中使用VIF参数进行自变量相关性的检验。
如下为多元线性回归的SAS实现代码及VIF检验参数解读:

本文探讨了多元回归模型与一元回归的不同,强调了多元线性回归中的变量选择问题和多重共线性的影响。通过SAS实现代码展示了如何检查和处理多重共线性,并提出了业务理解在变量选择中的重要性。建议在模型构建时,根据业务需求,结合全子集回归和逐步回归等方法进行变量选择。
最低0.47元/天 解锁文章
1099

被折叠的 条评论
为什么被折叠?



