线性模型--对数几率回归(逻辑回归)算法

本文深入探讨了对数几率回归,一种广泛应用于分类任务的统计学方法。通过对广义线性模型的应用,对数几率回归能够将线性预测值转换为分类概率,适用于二分类问题。文章详细解释了其数学原理,包括对数几率函数的作用,以及如何通过极大似然法估计模型参数。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

对数几率回归

又常常称为逻辑回归逻辑斯谛回归

如果是分类任务,如何使用线性回归模型呢?答案在广义线性模型的公式中,只需要找到一个单调可微函数将分类任务的真实标记y 与线性回归模型的预测值联系起来

考虑二分类任务,输出 y∈{0,1}y \in \{0,1\}y{0,1} , 线性回归的预测值 z=wTx+bz=w^Tx + bz=wTx+b 是实值,需要对 z 进行转化,最理想的转换函数是单位阶跃函数,即预测值大于0时,判断正,小于0,判断负,等于0,则随机。但该函数是分段函数,是不连续函数,不符合广义线性模型中“联系函数”的要求,对数几率函数形似单位阶跃函数,但它是连续单调可微的。对数几率函数是一种“Sigmoid函数”,它预测值 z 转化为一个接近0或1的 y 值。

在这里插入图片描述
y=11+e−z y = \frac{1}{1 + e^{-z}}y=1+ez1

代入广义线性模型公式得到

y=11+e−(wTx+b)y = \frac{1}{1 + e^{-(w^Tx + b)}}y=1+e(wTx+b)1

上述公式就是对数几率回归的公式。

这种分类方法有很多优点:它直接对分类可能性进行建模,无需事先假设数据分布;另外,不仅预测出“类别”,还得到了近似概率预测。它的目标函数是任意阶可导的凸函数,有很多数值优化算法,如牛顿法,拟牛顿法等都可用于求取最优解。

根据在线性回归中的讨论,对数几率回归公式可以写成如下形式(推导过程就不写了):

ln⁡y1−y=wTx+b\ln\frac{y}{1-y} = w^Tx + bln1yy=wTx+b

y 视作类后验概率估计 p(y=1∣x)p(y=1|x)p(y=1x), 上式写作

ln⁡p(y=1∣x)p(y=0∣x)=wTx+b\ln\frac{p(y=1|x)}{p(y=0|x)} = w^Tx + blnp(y=0x)p(y=1x)=wTx+b

再加上两个概率和等于1的条件,显然有

p(y=1∣x)=ewTx+b1+ewTx+bp(y=1|x) = \frac{e^{w^Tx + b}}{1 + e^{w^Tx + b}}p(y=1x)=1+ewTx+bewTx+b

p(y=0∣x)=11+ewTx+bp(y=0|x) = \frac{1}{1 + e^{w^Tx + b}}p(y=0x)=1+ewTx+b1

可通过“极大似然法”来估计 w 和 b 。

l(w,b)=∑i=1mlnp(yi∣xi;w,b)=∑i=1mlnp(yi∣xi;w,b)l(w, b) = \sum_{i=1}^m lnp(y_i|x_i; w, b)=\sum_{i=1}^m lnp(y_i|x_i; w, b)l(w,b)=i=1mlnp(yixi;w,b)=i=1mlnp(yixi;w,b)

上式就是对数几率回归的目标函数,最大化上述式子,可以通过梯度下降法、牛顿法等来求最优解。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值