【机器学习】逻辑回归

本文介绍了逻辑回归在分类问题中的应用,重点讲解了模型表示、成本函数的选择以及如何通过梯度下降法进行参数优化。逻辑回归通过sigmoid函数将线性模型转换为概率预测,并使用对数损失函数确保代价函数的全局最优解。文章还讨论了不同形状的决策边界与多项式特征的关系。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

分类问题(Classification)是指把数据分成一些离散的输出,比如类1、类2、类3、类4等。逻辑回归(Logistic Regression)虽然名字里有"回归",但它实际上是一种分类问题的解决办法,主要用于二分类(即输出只有两种,0或1).我们首先讲二分类,然后再介绍多类。

1.模型表示

逻辑回归的模型实际上就是将线性回归的模型做了sigmoid变换。
Sigmoid函数为:
g ( z ) = 1 1 + e − z g(z)=\frac{1}{1+e^{-z}} g(z)=1+ez1

它的曲线图为:
在这里插入图片描述
线性回归的模型为:
h θ ( X ) = θ T X h_\theta(X)=\theta^TX hθ(X)=θTX

对它做sigmoid变换就成了逻辑回归的模型:
h θ ( X ) = 1 1 + e − ( θ T X ) h_\theta(X)=\frac{1}{1+e^{-(\theta^TX)}} hθ(X)=1+e(θTX)1

这样就可以将线性回归的一系列连续的值映射到(0,1)之间的值,可以更好地适用于分类问题。
其中 h θ ( x ) h_\theta(x) hθ(x)也可以代表输出等于1的概率。比如 h θ ( x ) = 0.7 h_\theta(x)=0.7 hθ(x)=0.7代表输出是1的概率是0.7.所以:
h θ ( x ) = P ( y = 1 ∣ x ; θ ) = 1 − P ( y = 0 ∣ x ; θ ) h_\theta(x)=P(y=1|x;\theta)=1-P(y=0|x;\theta) hθ(x)=P(y=1x;θ)=1P(y=0x;θ)

P ( y = 0 ∣ x ; θ ) + P ( y = 1 ∣ x ; θ ) = 1 P(y=0|x;\theta)+P(y=1|x;\theta)=1 P(y=0x;θ)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值