监督学习-分类模型1-线性分类器(Linear Classifiers)

本文深入探讨线性分类器,重点介绍了逻辑斯蒂回归模型的原理和实现。通过手动实践《python机器学习-通往kaggle竞赛之路》,作者详细解释了模型的构建过程,包括性能测评、编程实践和特点分析。模型利用线性关系和逻辑斯蒂函数处理二分类问题,并应用随机梯度上升算法进行参数学习。此外,文章还涵盖了混淆矩阵、准确率、精确率、召回率和F1指标等评价标准。
部署运行你感兴趣的模型镜像

打算把《python机器学习-通往kaggle竞赛之路》手动敲一遍,

  • 加强机器学习各个算法和操作步骤的代码记忆
  • 熟悉使用markdown的公式语法,便捷工具mathpix
  • 熟悉机器学习专有名称和英文表达
  • 将python2代码转为python3代码
  • 修改过期的模块引用,如from sklearn.cross_validation改为 from sklearn.model_selection

造导弹,自主研发需要4年,模仿只需1年 - 《钱学森》

模型介绍:线性分类器(linear classification),是一种假设特征与分类结果存在线性关系的模型。这个模型通过累加计算每个维度的特征与各自权重的乘机来帮助类别决策。

如果我们定义 $ x = <x_1,x_2,···,x_n> $来表示 nnn 维特征列向量,同时用 nnn 维列向量 w=&lt;w1,w2,⋅⋅⋅,wn&gt;w=&lt;w_1,w_2,···,w_n&gt;w=<w1,w2,,wn>来代表对应的权值,或者叫做系数(coefficient);同时为了避免其过坐标原点的这种硬性假设,增加一个截距(intercept)b。由此这种线性关系便可以表达为:
f(w,x,b)=wTx+b(1) f(w,x,b)=w^Tx+b (1) f(w,x,b)=wTx+b1
这里的 f∈Rf \in RfR ,取值范围分布在整个实数域中。然而,我们要处理的最简单的二分类问题希望$ f \in { 0,1}$,因此需要一个函数把原先的 f∈Rf \in RfR 映射到(0,1)。于是用到了逻辑斯蒂(logistic)函数:
g(z)=11+e−z(2) g(z)=\frac{1}{1+e^{-z}} (2) g(z)=1+ez12
这里的 z∈Rz \in RzR并且g∈(0,1)g \in (0,1)g(0,1),并且其函数图像如图2-2所示。在这里插入图片描述
综上,如果将zzz替换为fff,整合方程式(1)和方程式(2),就获得了一个经典的线性分类器,逻辑斯蒂回归模型(Logistic Regression):
hw,b(x)=g(f(w,x,b))=11+e−f=11+e−(wTx+b)(3) h_{w,b}(x)=g(f(w,x,b))=\frac{1}{1+e^{-f}}=\frac{1}{1+e^{-(w^Tx+b)}} (3) hw,b(x)=g(f(w,x,b))=1+ef1=1+e(wTx+b)13
从图2-2中便可以观察到该模型如何处理一个待分类的特征向量:如果z=0z=0z=0,那么g=0.5g=0.5g=0.5;若z&lt;0z&lt;0z<0g&lt;0.5g&lt;0.5g<0.5,这个特征向量被判别为一类;反之,若z&gt;0z&gt;0z>0g&gt;0.5g&gt;0.5g>0.5,其被归为另外一类。
当使用一组mmm个用于训练的特征向量X=&lt;x1,x2,⋅⋅⋅,xm&gt;X=&lt;x^1,x^2,···,x^m&gt;X=<x1,x2,,xm>和其所对应的分类目标y=&lt;y1,y2,⋅⋅⋅,ym&gt;y=&lt;y^1,y^2,···,y^m&gt;y=<y1,y2,,ym>,我们希望逻辑斯蒂模型可以在这组训练集上取得最大似然估计(Maximum Likelihood)的概率L(w,b)L(w,b)L(w,b)。或者说,至少要在训练集上表现如此:
argmax⁡x,bL(w,b)=argmax⁡x,b∏i=1m(hx,b(i))y′(1−hx,b(i))1−yi \underset{x, b}{\operatorname{argmax}} L(w, b)=\underset{x, b}{\operatorname{argmax}} \prod_{i=1}^{m}\left(h_{x, b}(i)\right)^{y^{\prime}}\left(1-h_{x, b}(i)\right)^{1-y^{i}} x,bargmaxL(w,b)=x,bargmaxi=1m(hx,b(i))y(1hx,b(i))1yi
为了学习到决定模型的参数(Parameters),即系数www和截距bbb,我们采用随机梯度上升算法(stochastic gradient ascend)。

性能测评

二分类任务下,预测结果(Predicted Condition)和正确标记(True Condition)之间存在4种不同的组合,构成混淆矩阵(Confusion Matrix),如图2-4所示。

  • 恶性肿瘤为阳性 Positive
  • 良性肿瘤为阴性 Negative
  • 预测正确的恶行肿瘤为真阳性 True Positive
  • 预测正确的良性肿瘤为真阴性 True Negative
  • 良性肿瘤误判为恶行肿瘤为假阳性 False Positive
  • 恶性肿瘤漏报成良性肿瘤为假阴性 False Nagative
  • 准确性 Accuracy
    Accuracy=TP+TNTP+TN+FP+FN(5) Accuracy=\frac{TP+TN}{TP+TN+FP+FN} (5) Accuracy=TP+TN+FP+FNTP+TN(5)
  • 精确率 Precision
    Precision=TPTP+FP(6) Precision=\frac{TP}{TP+FP} (6) Precision=TP+FPTP(6)
  • 召回率 Recall
    Recall=TPTP+FN(7) Recall= \frac{TP}{TP+FN}(7) Recall=TP+FNTP(7)
  • F1指标,召回率与精确率的调和平均数 F1 measure
    F1 measure=21Precision+1Recall(8) F1 \ measure=\frac{2}{\frac{1}{Precision}+\frac{1}{Recall}}(8) F1 measure=Precision1+Recall12(8)
    在这里插入图片描述

编程实践

良/恶行乳腺癌肿瘤预测
数据地址:https://archive.ics.uci.edu/ml/machine-learning-databases/breast-cancer-wisconsin/

# 导入pandas与numpy工具包。
import pandas as pd
import numpy as np

# 创建特征列表。
column_names = ['Sample code number', 'Clump Thickness', 'Uniformity of Cell Size', 'Uniformity of Cell Shape', 'Marginal Adhesion', 'Single Epithelial Cell Size', 'Bare Nuclei', 'Bland Chromatin', 'Normal Nucleoli', 'Mitoses', 'Class']

# 使用pandas.read_csv函数从互联网读取指定数据。
data = pd.read_csv('https://archive.ics.uci.edu/ml/machine-learning-databases/breast-cancer-wisconsin/breast-cancer-wisconsin.data', names = column_names )

# 将?替换为标准缺失值表示。
data = data.replace(to_replace='?', value=np.nan)
# 丢弃带有缺失值的数据(只要有一个维度有缺失)。
data = data.dropna(how='any')
# 输出data的数据量和维度。
data.shape

# 使用sklearn.model_selection里的train_test_split模块用于分割数据。
from sklearn.model_selection import train_test_split
# 随机采样25%的数据用于测试,剩下的75%用于构建训练集合。
X_train, X_test, y_train, y_test = train_test_split(data[column_names[1:10]], data[column_names[10]], test_size=0.25, random_state=33)
# 查验训练样本的数量和类别分布。
y_train.value_counts()
# 查验测试样本的数量和类别分布。
y_test.value_counts()

# 从sklearn.preprocessing里导入StandardScaler。
from sklearn.preprocessing import StandardScaler
# 从sklearn.linear_model里导入LogisticRegression与SGDClassifier。
from sklearn.linear_model import LogisticRegression
from sklearn.linear_model import SGDClassifier

# 标准化数据,保证每个维度的特征数据方差为1,均值为0。使得预测结果不会被某些维度过大的特征值而主导。
ss = StandardScaler()
X_train = ss.fit_transform(X_train)
X_test = ss.transform(X_test)

# 初始化LogisticRegression与SGDClassifier。
lr = LogisticRegression()
sgdc = SGDClassifier()

# 调用LogisticRegression中的fit函数/模块用来训练模型参数。
lr.fit(X_train, y_train)
# 使用训练好的模型lr对X_test进行预测,结果储存在变量lr_y_predict中。
lr_y_predict = lr.predict(X_test)

# 调用SGDClassifier中的fit函数/模块用来训练模型参数。
sgdc.fit(X_train, y_train)
# 使用训练好的模型sgdc对X_test进行预测,结果储存在变量sgdc_y_predict中。
sgdc_y_predict = sgdc.predict(X_test)

# 从sklearn.metrics里导入classification_report模块。
from sklearn.metrics import classification_report

# 使用逻辑斯蒂回归模型自带的评分函数score获得模型在测试集上的准确性结果。
print('Accuracy of LR Classifier:', lr.score(X_test, y_test))
# 利用classification_report模块获得LogisticRegression其他三个指标的结果。
print(classification_report(y_test, lr_y_predict, target_names=['Benign', 'Malignant']))

 # 使用随机梯度下降模型自带的评分函数score获得模型在测试集上的准确性结果。
print('Accuarcy of SGD Classifier:', sgdc.score(X_test, y_test))
# 利用classification_report模块获得SGDClassifier其他三个指标的结果。
print(classification_report(y_test, sgdc_y_predict, target_names=['Benign', 'Malignant']))

特点分析

本次模型使用了LogisticRegression和SGDClassifier。前者对参数的计算采用精确解析的方式,计算时间长但是产出的模型性能略高;后者采用随机梯度上升算法估计模型参数,计算时间短但是产出的模型性能略低。一般而言,对于训练数据10万量级上的,考虑时间,推荐用随机梯度算法对模型参数进行估计。

您可能感兴趣的与本文相关的镜像

Python3.9

Python3.9

Conda
Python

Python 是一种高级、解释型、通用的编程语言,以其简洁易读的语法而闻名,适用于广泛的应用,包括Web开发、数据分析、人工智能和自动化脚本

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值