对数几率回归(逻辑斯蒂回归)

本文介绍了逻辑回归,一种常用的判别式模型。内容包括生成式模型与判别式模型的区别,LR模型的表达式及损失函数,梯度下降法和牛顿法在求解最优化问题中的应用,正则化的意义以及如何防止过拟合,以及最大熵模型和广义线性模型的基础概念。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

对数几率回归(逻辑斯蒂回归)

@(机器学习经典算法总结)


逻辑回归基本是我们所有人学习的第一个分类器,分类器从概率意义上理解,代表的是什么意思,以最简单的二分类来举例吧,假设样本数据

D=(x(i),y(i)), i for 1,2,3,...y(i)(1,+1) D = ( x ( i ) , y ( i ) ) ,   i   f o r   1 , 2 , 3 , . . . y ( i ) ∈ ( − 1 , + 1 )

那么我们对于新的数据 x(j) x ( j ) 肯定是要得到 P(y=1 | x(j))P(y=+1 | x(j)) P ( y = − 1   |   x ( j ) ) 以 及 P ( y = + 1   |   x ( j ) )
哪个概率大,那么我们就采用该类别。
分类器所得到也即是 P(c | x) P ( c   |   x )

生成式模型和判别式模型

目前分类模型根绝获取 P(c | x) P ( c   |   x ) 的方式不同,分为生成时模型(generative models)和判别式模型(discriminative models)
从CMU的教材来看
这里写图片描述
从上图可看出,当使用生成式分类器时,我们依靠所有的点来学习生成模型。当使用判别式分类器时,我们主要关心决策边界
那么这两种模型从概率角度怎么解释呢?
- 判别式模型:给定 x x ,通过直接建模 P ( c   |   x ) 来预测 c c ,常见模型为决策树,BP神经网络,SVM,当然还包括本节的LR;
- 生成式模型:通过联合概率求解 P ( c   |   x ) = P ( x , c ) P ( x ) ,通过贝叶斯定理,可知 P(c | x)=P(c) P(x | c)P(x) P ( c   |   x ) = P ( c )   P ( x   |   c ) P ( x ) ,目前我了解的经典算法中,只有朴素贝叶斯;


LR模型表达式和损失函数

那至此,我们也明确了,既然LR是判别式模型,就需要定义决策边界了。
经常把线性回归和逻辑回归关联到一起,虽然一个是回归模型,一个是分类模型,但是二者却有着千丝万缕的联系。
我们定义决策边界,可以考虑利用一个超平面,将正负样本分隔开,超平面我们可以使用线性模型去拟合。
那么此时,我们所要求的条件概率就是 P(c | x,ω),ω线 P ( c   |   x , ω ) , ω 表 示 线 性 回 归 的 参 数 。
如图所示这里写图片描述
分离面的方程为 ω⃗ x⃗ =0 ω → ∗ x → = 0

{ ωx>0,y=1ωx<0,y=0 { ω ∗ x > 0 , y = 1 ω ∗ x < 0 , y = 0

使用sigmoid函数将线性回归>0的标记为正类,反之则负类。
那么
P(Y=1 | x,ω)=11+exp(ωx)=exp(ωx)1+exp(ωx
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值