逻辑斯谛回归(对数几率回归)

逻辑斯谛回归是一种线性分类模型,常用于二分类任务。它通过对数几率转换线性回归预测,利用sigmoid函数将连续值映射到[0,1]区间。损失函数采用极大似然估计的对数似然函数,通过梯度下降或牛顿法进行参数优化。迭代公式为:θ^=θ−α(y^−y)x。" 128793848,8340461,解决固定帧错误:unknown frame map,"['机器人', '自动驾驶', '目标检测', '人工智能']

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

LR简介

逻辑斯谛回归是一种经典的线性分类方法,又被称为对数几率回归,其属于对数线性模型。

线性回归完成了数据的拟合,我们通过引入一个 s i g m o i d sigmoid sigmoid函数,即可在线性回归模型的基础上实现分类。

sigmoid函数定义如下
y = 1 1 + e − z y = \frac{1}{1 + e^{-z}} y=1+ez1

sigmoid.jpg

以二分类任务为例,取 y ∈ { 0 , 1 } y\in \{0,1\} y{ 0,1},我们定义二项逻辑斯谛回归模型为如下条件概率分布:

P ( Y = 1 ∣ x ) = exp ⁡ ( w ⋅ x + b ) 1 + exp ⁡ ( w ⋅ x + b ) P ( Y = 0 ∣ x ) = 1 1 + exp ⁡ ( w ⋅ x + b ) P(Y=1|x) = \frac{\exp(w\cdot x + b)}{1 + \exp(w\cdot x + b)}\\ P(Y=0|x) = \frac{1}{1 + \exp(w\cdot x + b)} P(Y=1x)=1+exp(wx+b)exp(wx+b)P(Y=0x)=1+exp(wx+b)1

一个事件的几率是指该事件发生的概率与不发生的概率的比值,如果事件发生的概率为 p p p,则该事件的几率为 p 1 − p \frac{p}{1-p} 1pp,则该事件的对数几率即为:
log ⁡ p 1 − p \log \frac{p}{1-p} log1pp

考虑逻辑斯谛回归模型,
log ⁡ P ( Y = 1 ∣ x ) 1 − P ( Y = 1 ∣ x ) = w ⋅ x + b \log \frac{P(Y=1|x)}{1-P(Y=1|x)} = w\cdot x + b log1P(Y=1x)P(Y=1x)=wx+b

也就是说,输出 Y = 1 Y=1 Y=1的对数几率是输入 x x x的线性函数。

损失函数

对于给定的训练数据集,我们采用极大似然估计法来估计模型的参数,似然函数为:
∏ i = 1 N [ P ( y i = 1 ∣ x i ) ] y i [ 1 − P ( y i = 1 ∣ x i ) ] 1 − y i \prod_{i=1}^N[P(y_i=1|x_i)]^{y_i}[1-P(y_i=1|x_i)]^{1-y_i} i=1N[P(yi=1xi)]yi[1P(yi=1xi)]1yi
对数似然函数为:
L ( w , b ) = ∑ i = 1 N [ y i log ⁡ P ( y i = 1 ∣ x i ) + ( 1 − y i ) log

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值