回归分析与二元分类:数据科学实战指南
1. 回归分析结果解读
在回归分析中,计算概率值(通常称为 p 值)是很重要的一步。p 值能衡量与模型中感兴趣的系数(β)相关的 α 风险。将 p 值与选定的 α 风险进行比较,如果 p 值小于商定的 α 风险,就可以拒绝“非零系数(β)是偶然发现的”这一观点。因为声称系数(β)非零而犯错的风险在我们之前设定的可接受范围内。
从另一个角度说,非零系数(β)不是偶然发现的,意味着该系数具有统计学意义,或者说我们拒绝原假设(原假设是所研究的变量之间没有关系)。对模型的统计学意义验证分两个阶段进行:
1. 整体验证 :从整体上验证模型的统计学意义。
2. 变量验证 :分别验证模型中各个自变量的统计学意义。
1.1 F 检验
F 检验用于验证模型与其因变量之间关系强度的整体统计学意义。如果 F 检验的 p 值小于选定的 α 水平(这里为 0.05),则拒绝原假设,得出模型整体具有统计学意义的结论。
在拟合回归模型时,会生成一个 F 值,该值可用于判断检验是否具有统计学意义。一般来说,R² 的增加会使 F 值增大,即 F 值越大,模型整体具有统计学意义的可能性就越大。一个理想的 F 值应大于 1。例如,某个模型的 F 统计值为 261.5(大于 1),p 值(Prob (F - statistic))约为 0,犯第一类错误(在不应拒绝原假设时拒绝)的风险小于 5%。由于 p 值小于 0.05,所以拒绝该模型的原假设,表明该模型在选定的 95% 置信水平下具有统计学意义。
超级会员免费看
订阅专栏 解锁全文
443

被折叠的 条评论
为什么被折叠?



