【机器学习·用于多分类的线性模型】使用one-vs.-rest方法后模型系数(coefficient)的理解

本文介绍了如何将二分类算法通过one-vs-rest方法扩展到多分类任务,以线性SVC分类器为例,探讨了模型的coef_和intercept_参数含义。通过解析直线方程y = -(line * coef[0] + intercept) / coef[1],解释了线性模型如何表示各类别的决策边界。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

声明:该文章的主要代码,所有截图均来自Introduction to Machine Learning with Python, by Andreas C. Muller & Sarah Guido.

在机器学习中,线性模型也广泛应用于分类。但是除了logistic regression,其他许多分类模型仅能用于二分类。

笔者最近在学习Introduction to Machine Learning with Python, by Andreas C. Muller & Sarah Guido. 在这本书中提到,将二分类算法推广到多分类算法的一种常见方法是“一对其余”(one-vs.-rest). 在这个方法中,对每个类别都学习一个二分类模型,将这个类别与所有其他类别尽量分开。在预测时,则利用所有的二项分类器进行分类,在对应单个类别上分数最高的分类器“胜出”,返回这个类别标签为预测结果。

在本书的第二章(Chapter 2: Supervised Learning),64页,作者将one-vs.-rest方法应用在一个简单的三分类数据集上,代码如下:

# copyright: Andreas C. Muller & Sarah Guido
import mglearn
import numpy as np
from sklearn.datasets import make_blobs

X, y = make_blobs(random_state=42)
mglearn.discrete_scatter(X[:, 0], X[:, 1], y)
plt.xlabel("Feature 0")
plt.ylabel("Feature 1")
plt.legend(["Class 0", "Class 1",
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值