机器学习算法(二)逻辑斯蒂回归

本文介绍了逻辑斯蒂回归的基本原理及应用,详细解释了sigmoid函数的作用,并通过对比线性回归阐述了逻辑斯蒂回归作为分类算法的特点。文章还探讨了最大似然估计法及其在求解参数中的应用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

上文中说过,逻辑斯蒂回归虽然称为回归,但它实际上是一种分类算法。认识逻辑斯蒂回归,首先需要知道sigmoid函数。下面公式1即为sigmoid函数

g(x)=11+ex
它的函数图像如图所示。
这里写图片描述

1、算法介绍

和上文中的回归算法一样,我们有m条数据,每条数据有n个特征和1个标签。不同的是,上文的标签是一个连续型变量,本文中的标签是一个离散型变量,且它只有两个值,[0,1]。
在线性回归中,有yˆ=θTx,而在逻辑斯蒂回归中,其结果就是在线性回归外面套上sigmoid函数,即

yˆ=11+eθTx
因此,yˆ是一个连续变量,其取值范围为(0,1)。

对于yyˆ,我们希望,当yˆ接近1时,y也大概率为1;当yˆ接近0时,y也大概率为0。因此可以做出如下假设。

p(y=1|x,θ)=yˆ

p(y=0|x,θ)=1yˆ

以上两式可以统一为
P(y|x,θ)=yˆy(1yˆ)1y
同理,由于x和y均已知,它是一个关于θ的函数。
据此可求出其最大似然函数:
L(θ)=i=1myˆy(1yˆ)1y
i为第i个样本。
同理,可求其对数似然函数为l(θ),并对每个θ求偏导。求导结果为:
l(θ)θj=i=1m(yiyˆi)xij

对其进行梯度上升学习,有

θj=θj+α(yyˆ)xj

逻辑斯蒂回归的目标函数被习惯性的认为成对数似然函数的相反数,即

loss=l(θ)

前文中,我们认为y的取值为0,1。若认为y的取值为+1和-1,则可推导出一个较为优美的损失函数如下。

loss=i=1m[ln(1+eyiyˆi)]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值