逻辑回归概述

本文介绍了逻辑回归的基本概念、应用场景、工作原理,包括输入、激活函数(sigmoid)和输出。讨论了对数似然损失函数及其优化,并提到了Python中的LogisticRegression实现。案例部分涉及数据背景、分析和代码实现,强调在分类任务中关注真正例的检测率而非仅仅准确率。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

逻辑回归介绍

1. 逻辑回归的应用场景

逻辑回归(Logistic Regression)是机器学习中的 一种分类模型 ,逻辑回归是一种分类算法,虽然名字中带有回归。由于算法的简单和高效,在实际中应用非常广泛

  • 广告点击率
  • 是否为垃圾邮件
  • 是否患病
  • 信用卡账单是否会违约
    逻辑回归就是解决二分类问题的利器

2. 逻辑回归的原理

要想掌握逻辑回归,必须掌握两点:

  • 逻辑回归中,其输入值是什么

  • 如何判断逻辑回归的输出

2.1 输入

逻辑回归的输入就是一个线性方程

h ( w ) = w 1 x 1 + w 2 x 2 + w 3 x 3 + , ⋯   , + b \large h(w)=w_1x_1+w_2x_2+w_3x_3+,\cdots,+b h(w)=w1x1+w2x2+w3x3+,,+b

2.2 激活函数

sigmoid

Sigmod函数,也称之为逻辑斯特函数

假设一事件发生的概率为P,则不发生的概率为1-P,我们把发生概率/不发生概率称之为发生的概率比,数学公式表示为:
在这里插入图片描述

更进一步我们定义logit函数,它是概率比的对数函数(log-odds)

在这里插入图片描述

Logit函数的输入值范围介于[0,1]之间,它能将输入转换到整个实数范围内。

对logit函数求反函数,我们将logit的反函数叫做logistic函数:

在这里插入图片描述即sigmoid函数

g ( w T , x ) = 1 1 + e − h ( w ) = 1 1 + e − w T x g(w^T, x)=\frac{1}{1+e^{-h(w)}}=\frac{1}{1+e^{-w^Tx}} g(wT,x)=1+eh(w)1=1+ewTx1
绘制[-7,7]的sigmod函数图像

import matplotlib.pyplot as plt
import numpy as np
def sigmod(z):
    return 1.0/(1.0+np.exp(-z))
z=np.arange(-7,7,0.1)
phi_z=sigmod(z)
plt.plot(z,phi_z)
plt.axvline(0.0,color='k')
plt.axhspan(0.0,1.0,facecolor
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值