逻辑回归算法梳理

本文介绍了逻辑回归算法,对比了它与线性回归的区别,阐述了逻辑回归的原理、损失函数推导及正则化。讨论了模型评估指标如误差平方和和决定系数。此外,还分析了逻辑回归的优缺点,特别是针对样本不均衡问题提出过抽样、欠抽样、权重调整和集成方法等解决方案。最后,提到了sklearn中逻辑回归的参数选择。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

**

逻辑回归算法梳理

**
逻辑回归和线性回归的联系和区别

逻辑回归和线性回归都属于广义线性回归模型。二者的区别如下:
1.线性回归要求变量服从正态分布,逻辑回归对变量分布没有要求。
2.线性回归要求因变量是连续性数值变量,而逻辑回归要求因变量是分类型变量。
3.线性回归要求自变量和因变量呈线性关系,而逻辑回归不要求。
4.线性回归直接分析自变量和因变量的关系,逻辑回归是分析因变量去某个值的概率和自变量的关系。

逻辑回归的原理
逻辑回归的原理的思想基于线性回归,逻辑回归算法是将线性函数的结果映射到了sigmoid函数中。
逻辑回归的过程大致如下:面对一个回归或者分类问题,建立代价函数,然后通过优化方法迭代求解出最优的模型参数,然后对这个模型进行测试验证它的好坏。

逻辑回归损失函数推导及优化
损失函数是基于最大似然估计推导的。
在这里插入图片描述
正则化与模型评估指标

上一篇文章中提到过欠拟合,过拟合的概念,并且说到正则化是解决过拟合的方法之一。通俗的说,正则化就是降低对数据的拟合能力。

模型评估指标有以下几种:
1.误差平方和
同样的数据集下,不同的模型求解实际值与理论值的差值的平方之后求和。平方和越小则证明这个模型越好。
2.R-square(决定系数)
在这里插入图片描述
分母理解为原始数据的离散程度,分子为预测数据和原始数据的误差,二者相除可以消除原始数据离散程度的影响。
决定系数

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值