超越二元分类 – 将多逻辑回归分解到其基本原理

原文:towardsdatascience.com/classification-multiple-logistic-regression-basics-ml-machine-learning-algorithm-classification-4acf6097ae1a

https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/eb302aa7875da3047a55b3001b024f08.png

图片由作者提供。ML Basics. 多逻辑回归。

在数据和计算机程序的世界里,机器学习的概念可能听起来像是一个难以破解的难题,充满了棘手的数学和复杂的思想。

正因如此,今天我想放慢脚步,通过我MLBasics 系列的新一期来检查一下所有这些工作的基本要素。

今天的议程是给我们的老朋友逻辑回归一个时尚的升级。

为什么?

默认情况下,逻辑回归仅限于二分类问题。然而,我们经常面临多分类问题。

因此,让我们深入探索将逻辑回归提升到能够将事物分类到多个篮子中的迷人世界 👇🏻


1. 从数据到决策的路径

在机器学习领域,逻辑回归被视为二分类问题的最优模型。

它是决策制定的可靠途径。

https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/798a1f0d2cd699b2b508e2bb71159c2e.png

图片由作者提供。逻辑回归。

然而,逻辑回归存在一个大问题:它就像抛硬币一样 – 正面或反面,A 或 B。

但如果你有多个类别怎么办?

https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/611a16364674aac93fe95d755f61dc2c.png

图片由作者提供。需要分类的多个类别。

逻辑回归不足以处理多分类问题。因此,为了执行此类操作,模型需要被调整,并且有两个主要选项:

  • 第一种简单的方法是使用多个简单逻辑回归模型来识别我们想要的每个类别。这是一个直接的方法。

  • 第二种方法是为多个类别生成一个新的模型。

因此,让我们分析这两种方法:

方法 1 – 一对多(OvR)

尽管我们知道逻辑回归模型不能假设有更多类别,但它擅长区分一个类别与另一个类别。

那么…如果我们为每个类别训练多个逻辑回归分类器会怎样?

理念是专注于分类单个类别,并将其余元素视为另一个单一类别,从而拥有多个二元分类问题。

https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/f05a8d1a6e4333560171a2728344c1bb.png

图片由作者提供。考虑一个类别,其余的作为一个单独的其他类别。

🎯 主要策略

训练多个逻辑回归分类器,每个分类器针对一个单独的类别。

**我们需要与我们要分类的类别数量一样多的分类器,**因此我们为所有类别重复这个完全相同的过程。

https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/02a4b8da8e695feffff3e4e3069f456d.png

图片由作者提供。一对多策略。

现在,我们将拥有多个简单的逻辑回归模型,这些模型专注于将我们的一个类别与整体的其他类别进行分类。所以下一个自然的问题是:

我们如何得到最终类别?

它直接由得分(或概率)最高的类别给出。

https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/d346353d242e01732f96407b5eb3cdcb.png

图片由作者提供。最终类别是所有单个分类器中得分最高的类别。

方法 2 – 多项式逻辑回归

而不是假设我们只有两个类别(0 或 1),我们构建一个模型,该模型为每个类别输出一个概率向量!

对于简单逻辑回归,我们假设一个二元分类问题,并且输出对应于预测 y 的概率:

  • 当输出是类别时,y = 1,比如说 A。

  • 当输出是其他类别或 B 时,y = 0。

因此,而不是假设这样的假设,多项式逻辑回归旨在构建一个模型,该模型为每个类别输出一个概率向量 – 每个概率反映了输入与相应类别的匹配程度。

https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/91d5d309d68eb60400432e3c65c7e707.png

概率向量。

f 中的每个元素都应该是输入 x 与类别匹配程度的概率。我们可以定义如下。

https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/74610cefc2b1c3caef984976028d3a64.png

给定输入 x 的概率定义。

然而,之前的分数对应于一个概率,这意味着它需要是:

  • 非负。

  • 0 和 1 之间的约束。

我们可以通过执行 2 个主要步骤来解决这个问题:

  • 步骤 1: 使用指数函数以确保它始终为正。

  • 步骤 2: 将分数除以所有分数的总和,以确保它在 0 和 1 之间。

https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/75dacc0e1d1569b56f3d364ea3844a1d.png

图片由作者提供。将元素限制为非负和单位值。

哇哦!

我们得到一个可以处理多个类别的最终公式。

https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/1819621aae47007c0c8b05b9e6ec6749.png

最终输出。

✚ 奖励 – 具有两个类别的简单逻辑回归

使用多项式回归模型,当将其应用于二元分类(K=2)时,我们恢复了原始的逻辑回归公式!

https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/be7742f8f10ba13aa0654852466f55e1.png

图片由作者提供。我们恢复了 K = 2 的简单逻辑回归。

3. 模型评估

我们可以使用准确率和混淆矩阵来理解我们模型的性能。

  • **准确率:**这是一个基本指标,衡量正确预测的观察值占总观察值的比例。

  • **混淆矩阵:**一个用于描述分类模型性能的表格。

ROC 曲线和 AUC 分数仅适用于二分类。因此,我们可以为我们的 OvR 单个模型执行它们。

#4. 假设

我们的模型不是一个水晶球,它做出假设才能正常工作:

  • **多类结果:**因变量可以对应多个类别。

  • **无多重共线性:**自变量之间不应高度相关。

  • **大样本量:**需要足够大的样本量才能得到可靠的结果。

主要结论

在本文中,我们探讨了两种不同的方法来获取多项逻辑回归,从二分类到多类分类,以解决机器学习中更复杂的挑战。

通过采用一对多(OvR)和多项逻辑回归,我们扩展了我们的分析能力,以处理多类分类问题。

这是对一个日益复杂的数据驱动宇宙中简单性的持久力量的证明。


你喜欢这个 MLBasics 问题吗?那么你可以订阅我的**DataBites Newsletter,以保持关注并直接收到我的内容!**

我保证它将是独一无二的!

https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/9ef3b1c7941b6f1e9f42c4233f08e216.png

查看 AIgents(https://aigents.co/learn) – 它提供了您开始并提高数据科学或 Python 技能所需的所有资源。

你也可以在我的**XThreadsLinkedIn**上找到我,我在那里每天发布关于 ML、SQL、Python 和 DataViz 的速查表。


一些其他你应该查看的精彩文章!😀

分解逻辑回归到其基本原理

MLBasics – 简单线性回归

简化多项线性回归 – 一份关于身高、体重和性别的入门指南

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值