一文读懂逻辑回归(Logistic Regression)

逻辑回归是一种处理二分类问题的模型,通过sigmoid函数将线性回归的预测值转换为[0,1]区间内的概率。其优点在于直接对分类可能性建模,提供概率预测,并且损失函数设计成凸函数,确保优化过程中找到全局最优解。损失函数和成本函数在逻辑回归中扮演关键角色,使用梯度下降法进行参数优化。" 117861122,10538880,使用Tracking.js实现前端脸部识别,"['HTML5', '前端开发', '人脸识别', 'JavaScript库', 'Tracking.js']

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

逻辑回归其实是是一种广义的线性回归,虽然说是回归函数,但是它其实是处理分类问题,我们从其背景,损失函数两方面说清楚。

背景

参考周志华教授的《机器学习》和吴恩达大神的深度学习中的讲解,逻辑回归的起源是解决二分类问题,这里我们假设二分类中的类别是{0,1},我们想知道给定一个样本X,这个样本属于1类的概率是多少?也就是要求得\hat{y}=p(y=1|X)的值,而线性回归模型产生的预测值\hat{y}=w^TX+b是实值,但是要想得到概率值,输出的值必须是在区间[0,1]内,所以想到的就是将线性回归模型产生的预测值通过变换使其在区间(0,1)内。

很明显sigmoid函数的值域在区间(0,1)内,如下图:

 所以我们就得到:\hat{y}=\frac{1}{1+e^{-(w^TX+b)}},这个就是逻辑回归函数的原型。这里的转换函数就是sigmoid函数,至于为什么选这个函数,首先这个函数的值域是在区间(0,1)内,还有一点很重要的是,这个函数连续可导。在机器学习和深度学习中,函数的选择包括各种激活函数都满足连续可导,这是因为在反向传播的时候,我们需要对误差函数进行求导,如果不可导的话,这个过程完全做不了。

从上述可以看出,逻辑回归具有以下优点:

(1) 它是直接对分类可能性进行建模,不需要事先假设数据分布,这样就避免了假设分布不准确所带来的的问题;

(2

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值