一元回归
用一个变量的变化来预测另一个变量(连续变量)的变化,需要进行回归分析
一元线性回归:y=a+bx+ey=a+bx+ey=a+bx+e
判断自变量是否与因变量之间存在显著相关,以及整个方程的回归效果,必须依据回归分析输出的三个指标得到结论:
- 方差分析,方差分析中的F检验用于检验回归模型与数据的拟合程度。如果F值很大,其显著性水平小于0.05或0.01,表明回归方程是有意义的
- 回归系数显著性检验 如果回归系数bbb显著,表明自变量与因变量之间存在显著的线性关系
- 决定系数R2R^2R2该指标来自于两个变量的偏相关系数的平方,它表示因变量的总变异中可由自变量解释的比例。如R2=0.70R^2=0.70R2=0.70,则表示因变量的变异中有70%是由自变量引起的
一元回归的F检验
将因变量YYY的总变异分解为两个部分:被解释的变异和未被解释的变异。被解释的变异是回归模型中的结构项或系统性变动,反映着自变量和因变量之间的线性关系;而未被解释的变异是回归模型中的随机项,它体现了来自变量之外的影响。利用这一关系,将回归平方和SSRSSRSSR和残差平方和SSESSESSE分别除以各自的自由度,就得到了回归均方MSRMSRMSR和残差均方MSEMSEMSE
在简单回归的情况下,只有一个自变量,故回归平方和SSRSSRSSR的自由度为1。而对于残差平方和SSESSESSE,需要以回归直线为基准进行计算,即对(yi−yi^)(y_i- \hat{y_i})(yi−yi^)进行估计。同时,由于决定这条直线需要截距和斜率两个参数,故自由度为n−2n-2n−2。另外MSEMSEMSE是总体误差的方差的无偏估计
MSR=SSR1 MSE=SSEn−2 F=SSR/1SSE/(n−2)=MSRMSEMSR=\frac{SSR}{1}\\ ~ \\ MSE=\frac{SSE}{n-2} \\ ~ \\ F=\frac{SSR/1}{SSE/(n-2)} = \frac{MSR}{MSE} MSR=1SSR MSE=n−2SSE F=SSE/(n−2)SSR/1=MSEMSR
该统计量服从自由度为1和n−2n-2n−2的FFF分布,因此可以直接用它做检验
决定系数
R2=SSRSST=1−SSESST SST=SSR+SSE RSS+ESS=TSSR^2 = \frac{SSR}{SST}=\frac{1-SSE}{SST} \\ ~ \\ SST=SSR+SSE \\ ~ \\ RSS+ESS=TSS R2=SSTSSR=SST1−SSE SST=SSR+SSE RSS+

本文介绍了如何使用SPSS进行一元回归分析,包括F检验、决定系数R2的计算,以及一元线性回归的原理和应用。此外,还探讨了Cronbach's α系数在评估量表信度中的作用,以及因子分析的基本概念,作为数据降维和揭示变量间结构的统计方法。
最低0.47元/天 解锁文章
5万+

被折叠的 条评论
为什么被折叠?



