线性模型--对数几率回归(逻辑回归)算法

本文深入探讨了对数几率回归,一种广泛应用于分类任务的统计学方法。通过对广义线性模型的应用,对数几率回归能够将线性预测值转换为分类概率,适用于二分类问题。文章详细解释了其数学原理,包括对数几率函数的作用,以及如何通过极大似然法估计模型参数。

对数几率回归

又常常称为逻辑回归逻辑斯谛回归

如果是分类任务,如何使用线性回归模型呢?答案在广义线性模型的公式中,只需要找到一个单调可微函数将分类任务的真实标记y 与线性回归模型的预测值联系起来

考虑二分类任务,输出 y ∈ { 0 , 1 } y \in \{0,1\} y{0,1} , 线性回归的预测值 z = w T x + b z=w^Tx + b z=wTx+b 是实值,需要对 z 进行转化,最理想的转换函数是单位阶跃函数,即预测值大于0时,判断正,小于0,判断负,等于0,则随机。但该函数是分段函数,是不连续函数,不符合广义线性模型中“联系函数”的要求,对数几率函数形似单位阶跃函数,但它是连续单调可微的。对数几率函数是一种“Sigmoid函数”,它预测值 z 转化为一个接近0或1的 y 值。

在这里插入图片描述
y = 1 1 + e − z y = \frac{1}{1 + e^{-z}} y=1+ez1

代入广义线性模型公式得到

y = 1 1 + e − ( w T x + b ) y = \frac{1}{1 + e^{-(w^Tx + b)}} y=1+e(wTx+b)1

上述公式就是对数几率回归的公式。

这种分类方法有很多优点:它直接对分类可能性进行建模,无需事先假设数据分布;另外,不仅预测出“类别”,还得到了近似概率预测。它的目标函数是任意阶可导的凸函数,有很多数值优化算法,如牛顿法,拟牛顿法等都可用于求取最优解。

根据在线性回归中的讨论,对数几率回归公式可以写成如下形式(推导过程就不写了):

ln ⁡ y 1 − y = w T x + b \ln\frac{y}{1-y} = w^Tx + b ln1yy=wTx+b

y 视作类后验概率估计 p ( y = 1 ∣ x ) p(y=1|x) p(y=1x), 上式写作

ln ⁡ p ( y = 1 ∣ x ) p ( y = 0 ∣ x ) = w T x + b \ln\frac{p(y=1|x)}{p(y=0|x)} = w^Tx + b lnp(y=0x)p(y=1x)=wTx+b

再加上两个概率和等于1的条件,显然有

p ( y = 1 ∣ x ) = e w T x + b 1 + e w T x + b p(y=1|x) = \frac{e^{w^Tx + b}}{1 + e^{w^Tx + b}} p(y=1x)=1+ewTx+bewTx+b

p ( y = 0 ∣ x ) = 1 1 + e w T x + b p(y=0|x) = \frac{1}{1 + e^{w^Tx + b}} p(y=0x)=1+ewTx+b1

可通过“极大似然法”来估计 w 和 b 。

l ( w , b ) = ∑ i = 1 m l n p ( y i ∣ x i ; w , b ) = ∑ i = 1 m l n p ( y i ∣ x i ; w , b ) l(w, b) = \sum_{i=1}^m lnp(y_i|x_i; w, b)=\sum_{i=1}^m lnp(y_i|x_i; w, b) l(w,b)=i=1mlnp(yixi;w,b)=i=1mlnp(yixi;w,b)

上式就是对数几率回归的目标函数,最大化上述式子,可以通过梯度下降法、牛顿法等来求最优解。

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值