线性回归:从单变量到多变量的深入解析
单变量线性回归
单变量线性回归是预测定量响应变量 $Y$ 的一种简单方法,假设 $Y$ 与预测变量 $x$ 存在线性关系,其模型可表示为 $Y = B_0 + B_1x + e$。这里,$B_0$ 是截距,$B_1$ 是斜率,$e$ 是误差项。最小二乘法用于选择模型参数,以最小化预测值 $y$ 与实际值 $Y$ 的残差平方和(RSS)。
例如,若实际值 $Y_1 = 10$,$Y_2 = 20$,预测值 $y_1 = 12$,$y_2 = 18$,则 $RSS = (Y_1 – y_1)^2 + (Y_2 – y_2)^2 = (10 – 12)^2 + (20 – 18)^2 = 8$。
在进行实际应用前,我们需保持谨慎。媒体报道的研究结论可能并不有效,即使软件给出了高相关性或高 $R^2$ 值的结果,也不能直接认定结论的有效性。
以 R 语言中的 Anscombe 数据集为例,该数据集由四对具有相同统计属性的 $X$ 和 $Y$ 变量组成,但绘制图形后却呈现出不同的关系。这提醒我们在分析数据时,不能仅依赖统计数据,还需进行数据可视化和异常值检查。
# 调用并探索 Anscombe 数据集
data(anscombe)
attach(anscombe)
anscombe
上述代码用于加载和查看 Anscombe 数据集。接下来,我们可以计算变量之间的相关性:
cor(x1, y1) # x1 和 y1 的相关性
cor(x2, y2) # x
超级会员免费看
订阅专栏 解锁全文
1793

被折叠的 条评论
为什么被折叠?



