机器学习-逻辑回归分类器

本文探讨了在机器学习中逻辑回归分类器的C参数,它决定了对分类错误的惩罚程度。随着C值增加,模型倾向于寻找更优的分类边界,以降低分类错误。
import numpy as np
from sklearn import linear_model
import matplotlib.pyplot as plt
#画图函数画出数据点和边界
def plot_classifier(classifier, X, y):
    # 定义图形的取值范围
    x_min, x_max = min(X[:, 0]) - 1.0, max(X[:, 0]) + 1.0
    y_min, y_max = min(X[:, 1]) - 1.0, max(X[:, 1]) + 1.0

    # 设置网格数据的步长
    step_size = 0.01

    # 定义网格
    x_values, y_values = np.meshgrid(np.arange(x_min, x_max, step_size), np.arange(y_min, y_max, step_size))

    # 计算分类器输出结果
    mesh_output = classifier.predict(np.c_[x_values.ravel(), y_values.ravel()])

    # 数组维度变形
    mesh_output = mesh_output.reshape(x_values.shape)

    # 用彩画画出各个类型的边界
    plt.figure()

    # 选择配方方案
    plt.pcolormesh(x_values, y_values, mesh_output, cmap=plt.cm.gray)

    # 画训练点
    plt.scatter(X[:, 0], X[:, 1], c=y, s=80, edgecolors='black', linewidth=1, cmap=plt.cm.Paired)

    # 设置图形的取值范围
    plt.xlim(x_values.min(), x_values.max())
    plt.ylim(y_values.min(), y_values.max())

   #设置X轴与Y轴
    plt.xticks((np.arange(int(min(X[:, 0])-1), int(max(X[:, 0])+1), 1.0)))
    plt.yticks((np.arange(int(min(X[:, 1])-1), int(max(X[:, 1])+1), 1.0)))

    #坐标含义
    plt.xlabel('X')
    plt.ylabel('Y')
    plt.title('C=10000')
    plt.show()
if __name__=='__main__':
    #假设一共有三类数据
    X = np.array([[4, 7], [3.5, 8], [3.1, 6.2], [0.5, 1], [1, 2], [1.2, 1.9], [6, 2], [5.7, 1.5], [5.4, 2.2]])
    y = np.array([0, 0, 0, 1, 1, 1, 2, 2, 2])
    #初始化一个逻辑回归分类器
    classifier = linear_model.LogisticRegression(solver = 'liblinear', C = 10000)
    classifier.fit(X, y)
    plot_classifier(classifier, X,y)



参数C表示对分类错误的惩罚值。随着参数C的不断增大,分类错误的惩罚值越高。因此,各个类型的边界更优。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值