logistic 回归模型(分类器)

本文介绍了Logistic回归模型作为分类器的工作原理,包括Sigmoid函数的应用、非线性决策边界以及如何找到合适的参数。通过梯度下降算法求解最小化成本函数,并讨论了在实际数据中可能遇到的问题及解决策略。最后提到了代码实现中的一些关键点和注意事项。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1.logistic Regression Model

我们希望
0 ≤ h θ ( x ) 0\leq h_\theta(x) 0hθ(x)
h θ ( x ) = g ( θ T x ) h_\theta(x)=g(\theta^Tx) hθ(x)=g(θTx)
这里 g ( x ) g(x) g(x) 是一个sigmod函数, g ( z ) = 1 / ( 1 + e − z ) g(z) = 1/(1+e^{-z}) g(z)=1/(1+ez),(或者称之为logistic函数),将假设公式代入sigmod函数得:
h θ ( x ) = 1 1 + e − θ T x h_\theta(x) = \frac{1}{1+e^{-\theta^Tx}} hθ(x)=1+eθTx1
在这里插入图片描述

Logistic 回归模型本质是做一个分类器(虽然算法中有回归),用于两分类问题(即输出只有两类),接下来我们需要按照数据分布来确定边界(边界即区分两种数据的曲线),在二维坐标轴中。
如下图2所示,我们要区分图中的圆圈和XX明显需要一个线性决策边界,即一条直线能够将图中的数据分隔在曲线两侧。因此这里我们的分类假设函数即为: h θ ( x ) = g ( θ 0 + θ 1 x 1 + θ 2 x 2 ) h_\theta(x) = g(\theta_0+\theta_1x_1+\theta_2x_2) hθ(x)=g(θ0+θ1x1+θ2x2)。这里 θ 0 + θ 1 x 1 + θ 2 x 2 \theta_0+\theta_1x_1+\theta_2x_2 θ0+θ1x1+θ2x2的取值实际上是在实数集上,但是通过sigmoid函数我们就可以将所有的可能的取值集合映射到 [ 0 , 1 ] [0,1] [0,1]的区间上去。最终分类结果取决于 h θ ( x ) h_\theta(x) hθ(x)的值

P ( y = 1 ∣ x ; θ ) = h θ ( x ) P ( y = 0 ∣ x ; θ ) = 1 − h θ ( x ) P(y=1|x;\theta)=h_\theta(x)\\ P(y=0|x;\theta)=1-h_\theta(x) P(y=1x;θ)=hθ(x)P(y=0x;θ)=1hθ(x)

在这里插入图片描述
图2. 线性决策边界

但是实际数据分布情况一般都不是线性可分的(即用一条直线就能够区分两种数据),因此我们需要尝试不同的假设函数来找到不同的决策边界,如图3所示;这里我们使用的假设函数就不是线性函数了,而是圆形函数 h θ ( x ) = g ( θ 0 + θ 1 x 1 + θ 2 x 2 + θ 3 x 1 2 + θ 4 x 2 2 ) h_\theta(x)=g(\theta_0+\theta_1x_1+\theta_2x_2+\theta_3x_1^2+\theta_4x_2^2) hθ(x)=g(θ0+θ1x1+θ<

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值