SVM 多分类分类边界可视化

本文详细介绍如何使用Python的sklearn库中的SVM分类器进行数据分类,并通过matplotlib实现分类结果的可视化展示。从数据生成、分类器训练到结果可视化,一步步解析SVM在实际应用中的操作流程。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

import numpy as np
import matplotlib.pyplot as plt
from sklearn import svm
from sklearn.datasets import make_blobs

X, y = make_blobs(n_samples=180, centers=5, random_state=6)
#centers就是数据分布点,我们现在解决的是二分类问题,\
#那么就需要两个center,数据点都分别围绕着center进行分布
#random_state确定一个数字后,每次运行都会出现相同的随机数。
#plt.scatter(x[:,0],x[:,1],c=y,s=30,cmap=plt.cm.Paired)
#plt.scatter中的c代表color,cmap代表colormap,可选
#s是size, c=y是标签分类和plt.cm.Paired联合使用

# 使用SVM分类器
clf = svm.SVC(C=1000,gamma=0.01).fit(X, y)
# 接下来进行可视化, 要想进行可视化, 我们核心就是要调用plt.contour函数画图, 但是它要求传入三个矩阵, 而我们的x1和x2为向量, 预测的值也为向量, 所有我们需要将x1和x2转换为矩阵

# 获取边界范围, 为了产生数据
x1_min, x1_max = np.min(X[:, 0]) - 1, np.max(X[:, 0]) + 1
x2_min, x2_max = np.min(X[:, 1]) - 1, np.max(X[:, 1]) + 1

# 生成新的数据, 并调用meshgrid网格搜索函数帮助我们生成矩阵
xx1, xx2 = np.meshgrid(np.arange(x1_min, x1_max, 0.02), np.arange(x2_min, x2_max, 0.02))
# 有了新的数据, 我们需要将这些数据输入到分类器获取到结果, 但是因为输入的是矩阵, 我们需要给你将其转换为符合条件的数据
Z = clf.predict(np.c_[xx1.ravel(), xx2.ravel()])
# 这个时候得到的是Z还是一个向量, 将这个向量转为矩阵即可
Z = Z.reshape(xx1.shape)
# 分解的时候有背景颜色
plt.pcolormesh(xx1, xx2, Z, cmap=plt.cm.RdYlBu)
# 为什么需要输入矩阵, 因为等高线函数其实是3D函数, 3D坐标是三个平面, 平面对应矩阵
plt.contour(xx1, xx2, Z, cmap=plt.cm.Paired)
plt.scatter(X[:, 0], X[:, 1], c=y, cmap=plt.cm.Paired)
plt.show()

### Python SVM 多分类可视化代码示例 支持向量机(SVM)是一种强大的监督学习算法,可以用于二分类多分类问题。为了实现SVM多分类并在Python中进行可视化,通常会使用`sklearn`库中的`SVC`类。 下面是一个完整的Python代码示例来展示如何利用SVM执行多类别分类以及绘制决策边界: ```python import matplotlib.pyplot as plt from sklearn import datasets from sklearn.model_selection import train_test_split from sklearn.preprocessing import StandardScaler from sklearn.svm import SVC from mlxtend.plotting import plot_decision_regions # 加载数据集 (这里以鸢尾花为例) iris = datasets.load_iris() X = iris.data[:, [0, 2]] # 使用两个特征以便于二维平面显示 y = iris.target # 划分训练集和测试集 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=1) # 数据标准化处理 scaler = StandardScaler().fit(X_train) X_train_std = scaler.transform(X_train) X_test_std = scaler.transform(X_test) # 创建并拟合模型 svm = SVC(kernel='linear', C=1.0, random_state=1).fit(X_train_std, y_train) # 可视化决策区域 plt.figure(figsize=(8, 6)) plot_decision_regions(X=X_train_std, y=y_train, clf=svm, legend=2) plt.xlabel('sepal length [standardized]') plt.ylabel('petal length [standardized]') plt.title('Decision Regions via scikit-learn & mlxtend') plt.show() # 测试集预测效果评估 print(f'Test accuracy: {svm.score(X_test_std, y_test):.3f}') ``` 这段代码首先导入必要的包[^2],加载了一个经典的机器学习数据集——鸢尾花数据集,并选择了其中两列作为输入变量来进行简化后的二元空间上的绘图操作;接着进行了标准的数据预处理流程,包括划分训练/验证集合、特征缩放等步骤;之后定义了一个线性核函数的支持向量分类器实例,并通过调用`.fit()`方法完成参数估计过程;最后借助第三方工具mlxtend实现了直观的图形化输出,帮助理解不同类别之间的分布情况及其对应的判定界限[^1]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值