首先,多元回归是干什么用的?
在回归分析中,如果有两个或两个以上的自变量,就称为多元回归。实际应用中,一种现象常常是与多个因素相联系的,由多个自变量的最优组合共同来预测或估计因变量,比只用一个自变量进行预测或估计更有效,更符合实际。总的来说,回归分析就是用来做预测的,多元回归要比一元回归更加高效实用。

如果线性回归方程存在,那么我们要求出每一项 X 前的系数

求 Q 的最小值,把预测值代入之后,分别对

按照上面的方法求得各个系数之后,要对方程的显著性和偏回归系数进行检验。即求得的回归方程是否达到统计意义,是否达到0.05的显著水平。和一元回归不同的是这里的系数叫做偏回归系数,因为自变量的个数多于一个。

首先对总偏差平方和进行分解,分解为回归平方和与残差平方和。对于回归方程来讲,残差平方和越小越好,因为它对应的是预测值与样本值之间的差异。这里和一元回归类似,采用 F 检验。目的就是检验:回归平方和是否大于残差平方和(F的右尾检验),如果大于,那么就可以说该方程具有统计意义。

其中m是变量个数,n是样本容量,有了两个自由度可以求得F分布曲线。可以通过曲线在0.01或者0.05的临界值与求得的 F 值进行比较,判断回归方程是否显著。

通过把数据代入计算,求得 F 的值为8.28 与0.01对应临界值相比,大于临界值。则与0.05对应的临界值相比也是大的,所以建立的回归方程具有统计学意义。




这里4个 F 值相加并不等于总的平方和133.7107,因为m个自变量之间可能会存在某种相关性。只有当m个自变量相互独立的时候,才会相等。

t 检验和 F 检验的结果是一样的。

不能因为

变量标准化也就是把变量的均值变为0,方差变为1的一组新的变量。

