机器学习笔记(三)——逻辑回归/对率回归

本文深入探讨了逻辑回归为何使用sigmoid函数而非阶跃函数,解释了sigmoid函数在模型中的作用,以及逻辑回归作为线性模型的原理。通过极大似然法介绍了参数的估计过程,并阐述了梯度下降算法在模型拟合中的应用。此外,还对比了多分类任务中的一对一(OvO)、一对余(OvR)和多对多(MvM)策略的优缺点。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

逻辑回归算法为什么用的是sigmoid函数而不用阶跃函数?

在分类问题中,预测的变量 y y y是离散的值,考虑二分类任务输出标记 y ∈ { 0 , 1 } y \in \{ 0,1\} y{ 0,1},而线性回归模型产生的预测值 z = w T x + b z = {w^T}x + b z=wTx+b是实数,我们需要将实数值 z z z转换为0/1值。最理想的是单位阶跃函数(unit-step function)
y = { 0 , z < 0 ; 0.5 , z = 0 ; 1 , z > 0 ; y =\begin{cases} {0,} & {z < 0;} \\ {0.5,} & {z = 0;} \\ {1,} & {z > 0;} \\ \end{cases} y=0,0.5,1,z<0;z=0;z>0;
即若预测值 z z z大于0就判断为正例,小于0则判断为反例,预测值为临界值0则等于0.5。
显然这个单位阶跃函数不连续,阶跃函数虽然能够直观刻画分类的错误率,但是由于其非凸、非光滑的特点,使得算法很难直接对该函数进行优化。而sigmoid函数本身的特征(光滑无限阶可导),以及完美的映射到概率空间,就用于逻辑回归了。对率函数正是这样一个可替代单位阶跃函数的替代函数: y = 1 1 + e − z y = \frac{1}{ {1 + {e^{ - z}}}} y=1+ez1
在这里插入图片描述
Sigmoid函数即形似S的函数,对率函数是Sigmoid函数最重要的代表,它将 z z z值转化为接近0或1的值,并且其输出值在 z = 0 z=0 z=0附近变化很陡。
z z z带入上述方程可得到: y = 1 1 + e − ( w T x + b ) y = \frac{1}{ {1 + {e^{ - ({w^T}x + b)}}}} y=1+e(wTx+b)1
可做变换:
ln ⁡ y 1 − y = w T x + b \ln \frac{y}{ {1 - y}} = {w^T}x + b ln1yy=wTx+b
若将 y y y视为样本 x x x作为正例的可能性,则 1 − y 1-y 1y是其反例的可能性,两者的比值 y 1 − y \frac{y}{ {1 - y}} 1yy,反映了 x x x作为正例的相对概率,对概率取对数则得到“对数概率” ln ⁡ y 1 − y \ln \frac{y}{ {1 - y}} ln1yy

逻辑回归为什么是线性模型?

考虑单调可微函数 g ( ⋅ ) g( \cdot ) g(),令 y = g − 1 ( w T x + b ) y = {g^{ - 1}}({w^T}x + b) y=g1(wTx+b) 得到这样的模型称为“广义线性模型”,其中的函数 g ( ⋅ ) g( \cdot ) g()称为“联系函数”。
而逻辑回归公式:
y = 1 1 + e − z = 1 1 + e − ( w T x + b ) y = \frac{1}{ {1 + {e^{ - z}}}}= \frac{1}{ {1 + {e^{ - ({w^T}x + b)}}}} y=1+ez1=

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值