广义线性模型:逻辑回归、泊松回归及最小二乘法计算
在数据分析和机器学习领域,广义线性模型(GLM)是一类非常重要的模型,它可以处理多种类型的数据和问题。本文将详细介绍逻辑回归模型、泊松回归模型以及最小二乘法计算的相关内容。
1. 逻辑回归模型
逻辑回归模型在分类问题中有着广泛的应用,下面我们将从几个方面来深入了解它。
1.1 对数优势比
有些分析人员喜欢查看对数优势比,其表达式为:
[
\log \frac{P(Y = 1 | X^{(1)} = t_1, \cdots, X^{(p)} = t_p)}{P(Y = 0 | X^{(1)} = t_1, \cdots, X^{(p)} = t_p)}
]
通过相关公式化简后,它可以简化为线性函数 (\beta_0 + \beta_1t_1 + \cdots + \beta_pt_p)。在解释逻辑分析输出的系数时,查看这个对数优势比很方便,因为它为每个因素提供了一个单一的边际效应数值。不过,更全面的分析应该考虑这些因素对概率本身的影响。
1.2 predict() 函数
在之前的计算中,我们可以通过直接但繁琐的方式来评估估计的回归函数和预测值,例如:
l(coef(logitout) %*% c(1, v))
而更简单的方法是使用 R 语言的 predict() 函数:
predict(o
广义线性模型详解
超级会员免费看
订阅专栏 解锁全文
1024

被折叠的 条评论
为什么被折叠?



