逻辑回归(Logistic Regression)详解

本文详细介绍了逻辑回归的概念,损失函数以及其特点。强调了数据预处理的重要性,如特征缩放和样本平衡。讨论了逻辑回归在处理特征方面的策略,如特征组合和离散化。还提到了算法优化,包括正则化参数的选择和模型融合技术。最后对比了逻辑回归与SVM在处理线性和非线性问题上的差异。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一 什么是逻辑回归

        首先,LR虽然名字里有回归,但它并不是解决回归问题,而是解决分类问题的。
       另外,有人会问,为线性回归提供阈值来做分类不可以吗? 不可以,因为阈值是无法准确定义,模型是容易被样本数据拉偏的。   之所以LR是个分类问题,
却被叫做回归,因为它利用了sigmoid函数。 sigmoid 可以将数据(LR中指输出y)压缩到[0, 1]之间,它经过一个重要的点(0, 0.5)。这样,将输出压缩到[0,1]之间,
0.5作为边界值,大于0.5作为一类,小于0.5作为另一类。 对应边界的自变量是0.   而0可以作为一条曲线线上点的值,例如y = a*x + b直线上的点值为0.  所以可以
将一条曲线作为输入作为sigmoid的自变量,这样又利用到了线性回归的知识。  所以逻辑回归可以理解为线性回归和sigmoid的结合
                               
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值