【计量经济学】【高教版】第一次作业(7、8、10)

第二次

7.假设有人做了如下的回归:
yi=β0^+β1^xi+eiy_i=\widehat{\beta_0}+\widehat{\beta_1}x_i+e_iyi=β0+β1xi+ei
其中,yi,xiy_i,x_iyi,xi分别为Yi,XiY_i,X_iYi,Xi关于各自均值的离差。问β0^和β1^\widehat{\beta_0}和\widehat{\beta_1}β0β1将分别取何值?

8.记样本回归模型为Yi=β0^+β1^Xi+eiY_i=\widehat{\beta_0}+\widehat{\beta_1}X_i+e_iYi=β0+β1Xi+ei,试证明普通最小二乘法估计的如下数值特征:
(1)估计的Y的均值等于实测的Y的均值:Y^=Yˉ\widehat{Y}=\bar{Y}Y=Yˉ;
(2)点(Xˉ\bar{X}Xˉ,Yˉ\bar{Y}Yˉ)总在样本回归线上;
(3)残差和为0,从而残差的均值为0:Σei\Sigma e_iΣei=0,eˉ\bar{e}eˉ=0;
(4)残差与X不相关:ΣeiXi=0\Sigma e_i {X_i}=0ΣeiXi=0;
(5)残差与估计的Y不相关:ΣeiYi^=0\Sigma e_i \widehat{Y_i}=0ΣeiYi=0;
(6)残差项与Y离差的估计不相关:Σeiyi^=0\Sigma e_i \widehat{y_i}=0Σeiyi=0;

10.试证明:Y关于X的普通最小二乘回归,其可决系数R2R^2R2就是X与Y之间线性相关系数r的平方。

7

在这里插入图片描述
根据一元线性回归的最小二乘估计公式,可以得到 β1^\widehat{\beta_1}β1β0^\widehat{\beta_0}β0 的表达式分别为:
在这里插入图片描述
其中,xˉ\bar{x}xˉyˉ\bar{y}yˉ 分别为 xix_ixiyiy_iyi 的样本均值。由题可知,yiy_iyixix_ixi 分别为 YiY_iYiXiX_iXi 关于各自均值的离差,因此可以将 xˉ=0\bar{x}=0xˉ=0yˉ=0\bar{y}=0yˉ=0 代入上述公式,得到:
在这里插入图片描述
因此,β0^=0\widehat{\beta_0}=0β0=0β1^\widehat{\beta_1}β1 可以根据上述公式计算。

8

(1)估计的Y的均值等于实测的Y的均值:Y^=Yˉ\widehat{Y}=\bar{Y}Y=Yˉ

根据样本回归模型,我们有:

Y^=β0^+β1^X\widehat{Y}=\widehat{\beta_0}+\widehat{\beta_1}XY=β0+β1X

其中,β0^\widehat{\beta_0}β0β1^\widehat{\beta_1}β1是通过最小化残差平方和来进行估计的。因此,我们有:

∑i=1nei2=∑i=1n(Yi−β0^−β1^Xi)2\sum_{i=1}^n e_i^2=\sum_{i=1}^n(Y_i-\widehat{\beta_0}-\widehat{\beta_1}X_i)^2i=1nei2=i=1n(Yiβ0β1Xi)2

Y^\widehat{Y}Y代入上式,得到:

∑i=1nei2=∑i=1n(Yi−Y^)2\sum_{i=1}^n e_i^2=\sum_{i=1}^n(Y_i-\widehat{Y})^2i=1nei2=i=1n(YiY)2

由于Y^\widehat{Y}Y是通过最小化残差平方和来估计的,因此它是使得∑i=1n(Yi−Y^)2\sum_{i=1}^n(Y_i-\widehat{Y})^2i=1n(YiY)2最小的值。这意味着Y^\widehat{Y}Y是实际Y的均值Yˉ\bar{Y}Yˉ,因为Yˉ\bar{Y}Yˉ也是使得∑i=1n(Yi−Yˉ)2\sum_{i=1}^n(Y_i-\bar{Y})^2i=1n(YiYˉ)2最小的值。

因此,我们有Y^=Yˉ\widehat{Y}=\bar{Y}Y=Yˉ

(2)点(Xˉ\bar{X}Xˉ,Yˉ\bar{Y}Yˉ)总在样本回归线上

样本回归线可以表示为Y=β0^+β1^XY=\widehat{\beta_0}+\widehat{\beta_1}XY=β0+β1X。将XXX替换为Xˉ\bar{X}XˉYYY替换为Y^\widehat{Y}Y,得到:

Y^=β0^+β1^Xˉ\widehat{Y}=\widehat{\beta_0}+\widehat{\beta_1}\bar{X}Y=β0+β1Xˉ

由(1)可知,Y^=Yˉ\widehat{Y}=\bar{Y}Y=Yˉ,因此:

Yˉ=β0^+β1^Xˉ\bar{Y}=\widehat{\beta_0}+\widehat{\beta_1}\bar{X}Yˉ=β0+β1Xˉ

这意味着点(Xˉ\bar{X}Xˉ,Yˉ\bar{Y}Yˉ)在样本回归线上。

(3)残差和为0,从而残差的均值为0:Σei\Sigma e_iΣei=0,eˉ\bar{e}eˉ=0

样本回归模型可以表示为Yi=β0^+β1^Xi+eiY_i=\widehat{\beta_0}+\widehat{\beta_1}X_i+e_iYi=β0+β1Xi+ei。将Y^\widehat{Y}Y代入得到:

ei=Yi−Y^=(Yi−Yˉ)−(Y^−Yˉ)e_i=Y_i-\widehat{Y}=(Y_i-\bar{Y})-(\widehat{Y}-\bar{Y})ei=YiY=(YiYˉ)(YYˉ)

因为Y^=Yˉ\widehat{Y}=\bar{Y}Y=Yˉ,所以:

ei=(Yi−Yˉ)−(Yˉ−Y^)=Yi−Yˉe_i=(Y_i-\bar{Y})-(\bar{Y}-\widehat{Y})=Y_i-\bar{Y}ei=(YiYˉ)(YˉY)=YiYˉ

因此,

∑i=1nei=∑i=1n(Yi−Yˉ)=0\sum_{i=1}^n e_i=\sum_{i=1}^n(Y_i-\bar{Y})=0i=1nei=i=1n(YiYˉ)=0

这意味着残差的和为0,从而残差的均值为0,即eˉ=0\bar{e}=0eˉ=0

(4)残差与X不相关:ΣeiXi=0\Sigma e_i {X_i}=0ΣeiXi=0

样本回归模型可以表示为Yi=β0^+β1^Xi+eiY_i=\widehat{\beta_0}+\widehat{\beta_1}X_i+e_iYi=β0+β1Xi+ei。将eie_iei代入得到:

Yi−β0^−β1^Xi=eiY_i-\widehat{\beta_0}-\widehat{\beta_1}X_i=e_iYiβ0β1Xi=ei

左右两边同时乘以XiX_iXi

XiYi−β0^Xi−β1^Xi2=XieiX_iY_i-\widehat{\beta_0}X_i-\widehat{\beta_1}X_i^2=X_ie_iXiYiβ0Xiβ1Xi2=Xiei

对所有的iii进行求和:

∑i=1nXiYi−β0^∑i=1nXi−β1^∑i=1nXi2=∑i=1nXiei\sum_{i=1}^n X_iY_i-\widehat{\beta_0}\sum_{i=1}^n X_i-\widehat{\beta_1}\sum_{i=1}^n X_i^2=\sum_{i=1}^n X_ie_ii=1nXiYiβ0i=1nXiβ1i=1nXi2=i=1nXiei

因为最小化残差平方和的条件是∑i=1nXiei=0\sum_{i=1}^n X_ie_i=0i=1nXiei=0,所以:

∑i=1nXiYi−β0^∑i=1nXi−β1^∑i=1nXi2=0\sum_{i=1}^n X_iY_i-\widehat{\beta_0}\sum_{i=1}^n X_i-\widehat{\beta_1}\sum_{i=1}^n X_i^2=0i=1nXiYiβ0i=1nXiβ1i=1nXi2=0

β0^\widehat{\beta_0}β0β1^\widehat{\beta_1}β1的表达式代入,得到:

∑i=1nXiYi−∑i=1nXi∑i=1nYin−∑i=1nXi2∑i=1nYi∑i=1nXi2=0\sum_{i=1}^n X_iY_i-\frac{\sum_{i=1}^n X_i\sum_{i=1}^n Y_i}{n}-\frac{\sum_{i=1}^n X_i^2\sum_{i=1}^n Y_i}{\sum_{i=1}^n X_i^2}=0i=1nXiYini=1nXii=1nYii=1nXi2i=1nXi2i=1nYi=0

这个式子可以写成:

∑i=1n(Xi−Xˉ)(Yi−Yˉ)n−1=0\frac{\sum_{i=1}^n (X_i-\bar{X})(Y_i-\bar{Y})}{n-1}=0n1i=1n(XiXˉ)(YiYˉ)=0

因此,残差eie_ieiXiX_iXi不相关。

(5)残差与估计的Y不相关:ΣeiYi^=0\Sigma e_i \widehat{Y_i}=0ΣeiYi=0

因为Yi^\widehat{Y_i}Yi是通过最小化残差平方和来估计的,所以残差与Yi^\widehat{Y_i}Yi之间的协方差应该为0。因此,我们有:

Cov(ei,Yi^)=E(eiYi^)−E(ei)E(Yi^)=0Cov(e_i,\widehat{Y_i})=E(e_i\widehat{Y_i})-E(e_i)E(\widehat{Y_i})=0Cov(ei,Yi)=E(eiYi)E(ei)E(Yi)=0

因为E(ei)=0E(e_i)=0E(ei)=0,所以:

E(eiYi^)=0E(e_i\widehat{Y_i})=0E(eiYi)=0

因此,

∑i=1neiYi^=0\sum_{i=1}^n e_i \widehat{Y_i}=0i=1neiYi=0

(6)残差项与Y离差的估计不相关:Σeiyi^=0\Sigma e_i \widehat{y_i}=0Σeiyi=0

根据样本回归模型,yi=β0^+β1^xiy_i=\widehat{\beta_0}+\widehat{\beta_1}x_iyi=β0+β1xi,其中yiy_iyi表示Y的离差

yi^\widehat{y_i}yi代入得到:

yi^=β0^+β1^xi\widehat{y_i}=\widehat{\beta_0}+\widehat{\beta_1}x_iyi=β0+β1xi

将残差ei=Yi−yi^e_i=Y_i-\widehat{y_i}ei=Yiyi代入,得到:

ei=Yi−β0^−β1^xi=Yi−yi^e_i=Y_i-\widehat{\beta_0}-\widehat{\beta_1}x_i=Y_i-\widehat{y_i}ei=Yiβ0β1xi=Yiyi

因此,

∑i=1neiyi^=∑i=1n(Yi−yi^)yi^=∑i=1nYiyi^−∑i=1nyi^2\sum_{i=1}^n e_i \widehat{y_i}=\sum_{i=1}^n (Y_i-\widehat{y_i})\widehat{y_i}=\sum_{i=1}^n Y_i\widehat{y_i}-\sum_{i=1}^n \widehat{y_i}^2i=1neiyi=i=1n(Yiyi)yi=i=1nYiyii=1nyi2

我们需要证明∑i=1nYiyi^=∑i=1nyi^2\sum_{i=1}^n Y_i\widehat{y_i}=\sum_{i=1}^n \widehat{y_i}^2i=1nYiyi=i=1nyi2

首先,我们有:

∑i=1nYiyi^=∑i=1nYi(β0^+β1^xi)\sum_{i=1}^n Y_i\widehat{y_i}=\sum_{i=1}^n Y_i(\widehat{\beta_0}+\widehat{\beta_1}x_i)i=1nYiyi=i=1nYi(β0+β1xi)

β0^\widehat{\beta_0}β0β1^\widehat{\beta_1}β1的表达式代入,得到:

∑i=1nYiyi^=∑i=1nYi(∑i=1nxi2∑i=1nYi−∑i=1nxi∑i=1nxiYin∑i=1nxi2−(∑i=1nxi)2+Yˉ∑i=1nxi−Xˉ∑i=1nYin∑i=1nxi2−(∑i=1nxi)2xi)\sum_{i=1}^n Y_i\widehat{y_i}=\sum_{i=1}^n Y_i\left(\frac{\sum_{i=1}^n x_i^2\sum_{i=1}^n Y_i-\sum_{i=1}^n x_i\sum_{i=1}^n x_iY_i}{n\sum_{i=1}^n x_i^2-(\sum_{i=1}^n x_i)^2}+\frac{\bar{Y}\sum_{i=1}^n x_i-\bar{X}\sum_{i=1}^n Y_i}{n\sum_{i=1}^n x_i^2-(\sum_{i=1}^n x_i)^2}x_i\right)i=1nYiyi=i=1nYi(ni=1nxi2(i=1nxi)2i=1nxi2i=1nYii=1nxii=1nxiYi+ni=1nxi2(i=1nxi)2Yˉi=1nxiXˉi=1nYixi)

Xˉ\bar{X}XˉYˉ\bar{Y}Yˉ代入,得到:

∑i=1nYiyi^=∑i=1nxi2∑i=1nYi−∑i=1nxi∑i=1nxiYin∑i=1nxi2−(∑i=1nxi)2∑i=1nxi+Yˉ∑i=1nxi−Xˉ∑i=1nYin∑i=1nxi2−(∑i=1nxi)2∑i=1nxi\sum_{i=1}^n Y_i\widehat{y_i}=\frac{\sum_{i=1}^n x_i^2\sum_{i=1}^n Y_i-\sum_{i=1}^n x_i\sum_{i=1}^n x_iY_i}{n\sum_{i=1}^n x_i^2-(\sum_{i=1}^n x_i)^2}\sum_{i=1}^n x_i+\frac{\bar{Y}\sum_{i=1}^n x_i-\bar{X}\sum_{i=1}^n Y_i}{n\sum_{i=1}^n x_i^2-(\sum_{i=1}^n x_i)^2}\sum_{i=1}^n x_ii=1nYiyi=ni=1nxi2(i=1nxi)2i=1nxi2i=1nYii=1nxii=1nxiYii=1nxi+ni=1nxi2(i=1nxi)2Yˉi=1nxiXˉi=1nYii=1nxi

因为∑i=1nxiYi=∑i=1nxiyi^+∑i=1nxiei\sum_{i=1}^n x_iY_i=\sum_{i=1}^n x_i\widehat{y_i}+\sum_{i=1}^n x_ie_ii=1nxiYi=i=1nxiyi+i=1nxiei,所以:
现在我们将证明 ∑i=1neiyi^=0\sum_{i=1}^{n} e_i \widehat{y_i} = 0i=1neiyi=0,即

∑i=1n(Yi−yi^)yi^=0\sum_{i=1}^{n} (Y_i-\widehat{y_i}) \widehat{y_i} = 0i=1n(Yiyi)yi=0

yi^\widehat{y_i}yi 代入,我们得到

∑i=1n(Yi−β0^−β1^xi)(β0^+β1^xi)=0\sum_{i=1}^{n} (Y_i - \widehat{\beta_0} - \widehat{\beta_1} x_i)(\widehat{\beta_0} + \widehat{\beta_1} x_i) = 0i=1n(Yiβ0β1xi)(β0+β1xi)=0

展开括号并化简,我们得到

∑i=1n(β0^Yi+β1^xiYi−β0^β1^xi−β1^xi2)=0\sum_{i=1}^{n} (\widehat{\beta_0} Y_i + \widehat{\beta_1} x_i Y_i - \widehat{\beta_0} \widehat{\beta_1} x_i - \widehat{\beta_1} x_i^2) = 0i=1n(β0Yi+β1xiYiβ0β1xiβ1xi2)=0

代入 β0^\widehat{\beta_0}β0β1^\widehat{\beta_1}β1 的表达式,得到

∑i=1n(∑i=1nxi2∑i=1nYi−∑i=1nxi∑i=1nxiYin∑i=1nxi2−(∑i=1nxi)2Yi+nYˉ∑i=1nxi−Xˉ∑i=1nYin∑i=1nxi2−(∑i=1nxi)2xiYi−∑i=1nxi∑i=1nYi−nXˉYˉn∑i=1nxi2−(∑i=1nxi)2⋅∑i=1nxi2∑i=1nYi−∑i=1nxi∑i=1nxiYin∑i=1nxi2−(∑i=1nxi)2xi−Xˉ∑i=1nxiYi−Yˉ∑i=1nxi2n∑i=1nxi2−(∑i=1nxi)2xi2)=0\sum_{i=1}^{n} (\frac{\sum_{i=1}^{n} x_i^2 \sum_{i=1}^{n} Y_i - \sum_{i=1}^{n} x_i \sum_{i=1}^{n} x_i Y_i}{n \sum_{i=1}^{n} x_i^2 - (\sum_{i=1}^{n} x_i)^2} Y_i + \frac{n \bar{Y} \sum_{i=1}^{n} x_i - \bar{X} \sum_{i=1}^{n} Y_i}{n \sum_{i=1}^{n} x_i^2 - (\sum_{i=1}^{n} x_i)^2} x_i Y_i - \frac{\sum_{i=1}^{n} x_i \sum_{i=1}^{n} Y_i - n \bar{X} \bar{Y}}{n \sum_{i=1}^{n} x_i^2 - (\sum_{i=1}^{n} x_i)^2} \cdot \frac{\sum_{i=1}^{n} x_i^2 \sum_{i=1}^{n} Y_i - \sum_{i=1}^{n} x_i \sum_{i=1}^{n} x_i Y_i}{n \sum_{i=1}^{n} x_i^2 - (\sum_{i=1}^{n} x_i)^2} x_i - \frac{\bar{X} \sum_{i=1}^{n} x_i Y_i - \bar{Y} \sum_{i=1}^{n} x_i^2}{n \sum_{i=1}^{n} x_i^2 - (\sum_{i=1}^{n} x_i)^2} x_i^2) = 0i=1n(ni=1nxi2(i=1nxi)2i=1nxi2i=1nYii=1nxii=1nxiYiYi+ni=1nxi2(i=1nxi)2nYˉi=1nxiXˉi=1nYixiYini=1nxi2(i=1nxi)2i=1nxii=1nYinXˉYˉni=1nxi2(i=1nxi)2i=1nxi2i=1nYii=1nxii=1nxiYixini=1nxi2(i=1nxi)2Xˉi=1nxiYiYˉi=1nxi2xi2)=0

nnn 乘到每一项,我们有

现在我们要证明 ∑i=1neiYi^=0\sum_{i=1}^{n} e_i \widehat{Y_i} = 0i=1neiYi=0,即

∑i=1n(Yi−Yi^)Yi^=0\sum_{i=1}^{n} (Y_i - \widehat{Y_i}) \widehat{Y_i} = 0i=1n(YiYi)Yi=0

Yi^\widehat{Y_i}Yi 代入,我们得到

∑i=1n(Yi−β0^−β1^xi)(β0^+β1^Xˉ)=0\sum_{i=1}^{n} (Y_i - \widehat{\beta_0} - \widehat{\beta_1} x_i)(\widehat{\beta_0} + \widehat{\beta_1} \bar{X}) = 0i=1n(Yiβ0β1xi)(β0+β1Xˉ)=0

展开括号并化简,我们得到

∑i=1n(β0^Yi+β1^XˉYi−β0^β1^Xˉ−β1^xiXˉ)=0\sum_{i=1}^{n} (\widehat{\beta_0} Y_i + \widehat{\beta_1} \bar{X} Y_i - \widehat{\beta_0} \widehat{\beta_1} \bar{X} - \widehat{\beta_1} x_i \bar{X}) = 0i=1n(β0Yi+β1XˉYiβ0β1Xˉβ1xiXˉ)=0

代入 β0^\widehat{\beta_0}β0β1^\widehat{\beta_1}β1 的表达式,得到

∑i=1n(∑i=1nxi2∑i=1nYi−∑i=1nxi∑i=1nxiYin∑i=1nxi2−(∑i=1nxi)2Yi+nYˉ∑i=1nxi−Xˉ∑i=1nYin∑i=1nxi2−(∑i=1nxi)2XˉYi−∑i=1nxi∑i=1nYi−nXˉYˉn∑i=1nxi2−(∑i=1nxi)2⋅∑i=1nxi2∑i=1nYi−∑i=1nxi∑i=1nxiYin∑i=1nxi2−(∑i=1nxi)2Xˉ−Xˉ∑i=1nxiYi−Yˉ∑i=1nxi2n∑i=1nxi2−(∑i=1nxi)2xiXˉ)=0\sum_{i=1}^{n} (\frac{\sum_{i=1}^{n} x_i^2 \sum_{i=1}^{n} Y_i - \sum_{i=1}^{n} x_i \sum_{i=1}^{n} x_i Y_i}{n \sum_{i=1}^{n} x_i^2 - (\sum_{i=1}^{n} x_i)^2} Y_i + \frac{n \bar{Y} \sum_{i=1}^{n} x_i - \bar{X} \sum_{i=1}^{n} Y_i}{n \sum_{i=1}^{n} x_i^2 - (\sum_{i=1}^{n} x_i)^2} \bar{X} Y_i - \frac{\sum_{i=1}^{n} x_i \sum_{i=1}^{n} Y_i - n \bar{X} \bar{Y}}{n \sum_{i=1}^{n} x_i^2 - (\sum_{i=1}^{n} x_i)^2} \cdot \frac{\sum_{i=1}^{n} x_i^2 \sum_{i=1}^{n} Y_i - \sum_{i=1}^{n} x_i \sum_{i=1}^{n} x_i Y_i}{n \sum_{i=1}^{n} x_i^2 - (\sum_{i=1}^{n} x_i)^2} \bar{X} - \frac{\bar{X} \sum_{i=1}^{n} x_i Y_i - \bar{Y} \sum_{i=1}^{n} x_i^2}{n \sum_{i=1}^{n} x_i^2 - (\sum_{i=1}^{n} x_i)^2} x_i \bar{X}) = 0i=1n(ni=1nxi2(i=1nxi)2i=1nxi2i=1nYii=1nxii=1nxiYiYi+ni=1nxi2(i=1nxi)2nYˉi=1nxiXˉi=1nYiXˉYini=1nxi2(i=1nxi)2i=1nxii=1nYinXˉYˉni=1nxi2(i=1nxi)2i=1nxi2i=1nYii=1nxii=1nxiYiXˉni=1nxi2(i=1nxi)2Xˉi=1nxiYiYˉi=1nxi2xiXˉ)=0

nnn 乘到每一项,我们有
∑i=1nxi2∑i=1nYin∑i=1nxi2−(∑i=1nxi)2+nYˉ∑i=1nxin∑i=1nxi2−(∑i=1nxi)2−∑i=1nxi∑i=1nYin∑i=1nxi2−(∑i=1nxi)2−∑i=1nxiXˉ∑i=1nYi−nXˉYˉ∑i=1nxin∑i=1nxi2−(∑i=1nxi)2−Xˉ∑i=1nxiYi−Yˉ∑i=1nxi2n∑i=1nxi2−(∑i=1nxi)2xi=0\frac{\sum_{i=1}^{n} x_i^2 \sum_{i=1}^{n} Y_i}{n \sum_{i=1}^{n} x_i^2 - (\sum_{i=1}^{n} x_i)^2} + \frac{n \bar{Y} \sum_{i=1}^{n} x_i}{n \sum_{i=1}^{n} x_i^2 - (\sum_{i=1}^{n} x_i)^2} - \frac{\sum_{i=1}^{n} x_i \sum_{i=1}^{n} Y_i}{n \sum_{i=1}^{n} x_i^2 - (\sum_{i=1}^{n} x_i)^2} - \frac{\sum_{i=1}^{n} x_i \bar{X} \sum_{i=1}^{n} Y_i - n \bar{X} \bar{Y} \sum_{i=1}^{n} x_i}{n \sum_{i=1}^{n} x_i^2 - (\sum_{i=1}^{n} x_i)^2} - \frac{\bar{X} \sum_{i=1}^{n} x_i Y_i - \bar{Y} \sum_{i=1}^{n} x_i^2}{n \sum_{i=1}^{n} x_i^2 - (\sum_{i=1}^{n} x_i)^2} x_i = 0ni=1nxi2(i=1nxi)2i=1nxi2i=1nYi+ni=1nxi2(i=1nxi)2nYˉi=1nxini=1nxi2(i=1nxi)2i=1nxii=1nYini=1nxi2(i=1nxi)2i=1nxiXˉi=1nYinXˉYˉi=1nxini=1nxi2(i=1nxi)2Xˉi=1nxiYiYˉi=1nxi2xi=0

Xˉ\bar{X}XˉYˉ\bar{Y}Yˉ 的表达式代入,我们得到

∑i=1nxi2∑i=1nYin∑i=1nxi2−(∑i=1nxi)2+n∑i=1nYin∑i=1nxi2−(∑i=1nxi)2⋅∑i=1nxin−∑i=1nxi∑i=1nYin∑i=1nxi2−(∑i=1nxi)2−∑i=1nxi∑i=1nYi−nXˉYˉ∑i=1nxin∑i=1nxi2−(∑i=1nxi)2−Xˉ∑i=1nxiYi−Yˉ∑i=1nxi2n∑i=1nxi2−(∑i=1nxi)2xi=0\frac{\sum_{i=1}^{n} x_i^2 \sum_{i=1}^{n} Y_i}{n \sum_{i=1}^{n} x_i^2 - (\sum_{i=1}^{n} x_i)^2} + \frac{n \sum_{i=1}^{n} Y_i}{n \sum_{i=1}^{n} x_i^2 - (\sum_{i=1}^{n} x_i)^2} \cdot \frac{\sum_{i=1}^{n} x_i}{n} - \frac{\sum_{i=1}^{n} x_i \sum_{i=1}^{n} Y_i}{n \sum_{i=1}^{n} x_i^2 - (\sum_{i=1}^{n} x_i)^2} - \frac{\sum_{i=1}^{n} x_i \sum_{i=1}^{n} Y_i - n \bar{X} \bar{Y} \sum_{i=1}^{n} x_i}{n \sum_{i=1}^{n} x_i^2 - (\sum_{i=1}^{n} x_i)^2} - \frac{\bar{X} \sum_{i=1}^{n} x_i Y_i - \bar{Y} \sum_{i=1}^{n} x_i^2}{n \sum_{i=1}^{n} x_i^2 - (\sum_{i=1}^{n} x_i)^2} x_i = 0ni=1nxi2(i=1nxi)2i=1nxi2i=1nYi+ni=1nxi2(i=1nxi)2ni=1nYini=1nxini=1nxi2(i=1nxi)2i=1nxii=1nYini=1nxi2(i=1nxi)2i=1nxii=1nYinXˉYˉi=1nxini=1nxi2(i=1nxi)2Xˉi=1nxiYiYˉi=1nxi2xi=0

nnn 乘到每一项,得到
现在我们把上述式子简化,我们可以把上述式子中的每一个部分代入后整理得到

β1^=∑i=1n(Xi−Xˉ)(Yi−Yˉ)∑i=1n(Xi−Xˉ)2 =∑i=1n(Xi−Xˉ)Yi−Yˉ∑i=1n(Xi−Xˉ)∑i=1n(Xi−Xˉ)2 =∑i=1nXiYi−nXˉYˉ∑i=1nXi2−nXˉ2 =∑i=1nXiYi−1n∑i=1nXi∑i=1nYi∑i=1nXi2−1n(∑i=1nXi)2\begin{aligned} \widehat{\beta_1} &= \frac{\sum_{i=1}^{n} (X_i - \bar{X}) (Y_i - \bar{Y})}{\sum_{i=1}^{n} (X_i - \bar{X})^2} \ &= \frac{\sum_{i=1}^{n} (X_i - \bar{X}) Y_i - \bar{Y} \sum_{i=1}^{n} (X_i - \bar{X})}{\sum_{i=1}^{n} (X_i - \bar{X})^2} \ &= \frac{\sum_{i=1}^{n} X_i Y_i - n \bar{X} \bar{Y}}{\sum_{i=1}^{n} X_i^2 - n \bar{X}^2} \ &= \frac{\sum_{i=1}^{n} X_i Y_i - \frac{1}{n} \sum_{i=1}^{n} X_i \sum_{i=1}^{n} Y_i}{\sum_{i=1}^{n} X_i^2 - \frac{1}{n} \left(\sum_{i=1}^{n} X_i \right)^2} \end{aligned}β1=i=1n(XiXˉ)2i=1n(XiXˉ)(YiYˉ) =i=1n(XiXˉ)2i=1n(XiXˉ)YiYˉi=1n(XiXˉ) =i=1nXi2nXˉ2i=1nXiYinXˉYˉ =i=1nXi2n1(i=1nXi)2i=1nXiYin1i=1nXii=1nYi

所以我们证明了 β1^\widehat{\beta_1}β1 的表达式。

10

我们知道,可决系数 R2R^2R2 定义为:

R2=SSRSST=1−SSESSTR^2 = \frac{SSR}{SST} = 1 - \frac{SSE}{SST}R2=SSTSSR=1SSTSSE

其中,SSRSSRSSR 是回归平方和,SSESSESSE 是残差平方和,SSTSSTSST 是总平方和。而普通最小二乘回归的线性方程为:

Yi=β0^+β1^Xi+eiY_i = \hat{\beta_0} + \hat{\beta_1} X_i + e_iYi=β0^+β1^Xi+ei

其中,eie_iei 是误差项,β0^\hat{\beta_0}β0^β1^\hat{\beta_1}β1^ 分别是回归方程的截距和斜率的最小二乘估计量。

我们知道线性相关系数 rrr 定义为:

r=∑i=1n(Xi−Xˉ)(Yi−Yˉ)∑i=1n(Xi−Xˉ)2∑i=1n(Yi−Yˉ)2r = \frac{\sum_{i=1}^{n} (X_i - \bar{X})(Y_i - \bar{Y})}{\sqrt{\sum_{i=1}^{n} (X_i - \bar{X})^2} \sqrt{\sum_{i=1}^{n} (Y_i - \bar{Y})^2}}r=i=1n(XiXˉ)2i=1n(YiYˉ)2i=1n(XiXˉ)(YiYˉ)

我们现在来证明 R2R^2R2 等于 rrr 的平方。

首先,根据定义,总平方和 SSTSSTSST 可以表示为:

SST=∑i=1n(Yi−Yˉ)2SST = \sum_{i=1}^{n} (Y_i - \bar{Y})^2SST=i=1n(YiYˉ)2

而残差平方和 SSESSESSE 可以表示为:

SSE=∑i=1n(Yi−Yi^)2SSE = \sum_{i=1}^{n} (Y_i - \hat{Y_i})^2SSE=i=1n(YiYi^)2

其中,Yi^=β0^+β1^Xi\hat{Y_i} = \hat{\beta_0} + \hat{\beta_1} X_iYi^=β0^+β1^Xi 是回归方程的预测值。

进一步地,回归平方和 SSRSSRSSR 可以表示为:

SSR=∑i=1n(Yi^−Yˉ)2SSR = \sum_{i=1}^{n} (\hat{Y_i} - \bar{Y})^2SSR=i=1n(Yi^Yˉ)2

我们现在来计算 SSRSSRSSRSSESSESSE
SSE=∑i=1n(Yi−Yi^)2 =∑i=1n(Yi−β0^−β1^Xi)2 =∑i=1n(Yi−Yˉ+Yˉ−β0^−β1^Xi)2 =∑i=1n(Yi−Yˉ)2+(β0^−Yˉ)2+β1^2∑i=1nXi2−2β1^∑i=1nXi(Yi−Yˉ)−2(β0^−Yˉ)∑i=1n(Yi−Yˉ) =n(β0^−Yˉ)2+β1^2∑i=1nXi2+(Yˉ−β0^)2∑i=1n1−2β1^∑i=1nXi(Yi−Yˉ)\begin{aligned} SSE &= \sum_{i=1}^{n} (Y_i - \hat{Y_i})^2 \ &= \sum_{i=1}^{n} (Y_i - \hat{\beta_0} - \hat{\beta_1} X_i)^2 \ &= \sum_{i=1}^{n} (Y_i - \bar{Y} + \bar{Y} - \hat{\beta_0} - \hat{\beta_1} X_i)^2 \ &= \sum_{i=1}^{n} (Y_i - \bar{Y})^2 + (\hat{\beta_0} - \bar{Y})^2 + \hat{\beta_1}^2 \sum_{i=1}^{n} X_i^2 - 2\hat{\beta_1} \sum_{i=1}^{n} X_i(Y_i - \bar{Y}) - 2(\hat{\beta_0} - \bar{Y})\sum_{i=1}^{n} (Y_i - \bar{Y}) \ &= n(\hat{\beta_0} - \bar{Y})^2 + \hat{\beta_1}^2 \sum_{i=1}^{n} X_i^2 + (\bar{Y} - \hat{\beta_0})^2 \sum_{i=1}^{n} 1 - 2\hat{\beta_1} \sum_{i=1}^{n} X_i(Y_i - \bar{Y}) \end{aligned}SSE=i=1n(YiYi^)2 =i=1n(Yiβ0^β1^Xi)2 =i=1n(YiYˉ+Yˉβ0^β1^Xi)2 =i=1n(YiYˉ)2+(β0^Yˉ)2+β1^2i=1nXi22β1^i=1nXi(YiYˉ)2(β0^Yˉ)i=1n(YiYˉ) =n(β0^Yˉ)2+β1^2i=1nXi2+(Yˉβ0^)2i=1n12β1^i=1nXi(YiYˉ)

将上式中的 β0^\hat{\beta_0}β0^β1^\hat{\beta_1}β1^ 分别代入 SSRSSRSSRSSESSESSE 中,可得:

SSR=β1^2∑i=1n(Xi−Xˉ)2SSR = \hat{\beta_1}^2 \sum_{i=1}^{n} (X_i - \bar{X})^2SSR=β1^2i=1n(XiXˉ)2

SSE=∑i=1n(Yi−Yˉ)2−β1^2∑i=1n(Xi−Xˉ)2SSE = \sum_{i=1}^{n} (Y_i - \bar{Y})^2 - \hat{\beta_1}^2 \sum_{i=1}^{n} (X_i - \bar{X})^2SSE=i=1n(YiYˉ)2β1^2i=1n(XiXˉ)2

SSRSSRSSRSSESSESSE 代入 R2R^2R2 的定义式中,可得:

R2=β1^2∑i=1n(Xi−Xˉ)2∑i=1n(Yi−Yˉ)2=r2R^2 = \frac{\hat{\beta_1}^2 \sum_{i=1}^{n} (X_i - \bar{X})^2}{\sum_{i=1}^{n} (Y_i - \bar{Y})^2} = r^2R2=i=1n(YiYˉ)2β1^2i=1n(XiXˉ)2=r2

因此,可决系数 R2R^2R2 就是线性相关系数 rrr 的平方。这个结论说明了,可决系数 R2R^2R2 可以用来衡量回归模型对因变量的解释能力,而线性相关系数 rrr 表示了自变量和因变量之间的线性关系程度。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值