很多线性分类模型只使用与二分类问题,将二分类算法推广到多分类算法的一种常见方法是“一对其余”方法。在“一对其余”方法中,对每个类别都学习一个二分类模型,将这个类别和其他类别尽量区分,这样就生成了与类别数相同的二分类模型数。在测试点上运行所有分类器进行预测,在对应类别上分数最高的分类器“胜出”,将这个类别标签范围作为预测结果。
多分类Logistics回归背后的数学与“一对其余”方法稍有不同,但也是对每个类别都有一个系数向量和一个截距,也使用了同样的预测方法。
以一个三分类的二维数据集为例:
from sklearn.datasets import make_blobs
import matplotlib.pyplot as plt
import mglearn
from sklearn.svm import LinearSVC
import numpy as np
plt.rcParams['font.sans-serif']=['SimHei']
X,y=make_blobs(random_state=42)
mglearn.discrete_scatter(X[:,0],X[:,1],y)
plt.ylim(-10,15)
plt.xlim(-10,10)
plt.xlabel('0')
plt.ylabel('1')
plt.legend(['类别0','类别1','类别2'],loc=(1.01,0.3))
plt.show()
在这个数据集上训练LinearSVC分类器