【周志华机器学习】二、比较检验--方差--偏差

参考资料

  1. Machine-learning-learning-notes
  2. LeeML-Notes

本博客为作者根据周志华的西瓜书和参考资料1、2所做的笔记,主要用于学习,非技术类博客,因此存在大量复制粘贴,请见谅。

1. 比较检验

由于“测试误差”受到很多因素的影响,例如:算法随机性(例如常见的K-Means)或测试集本身的选择,使得同一模型每次得到的结果不尽相同,同时测试误差是作为泛化误差的近似,并不能代表学习器真实的泛化性能,那如何对单个或多个学习器在不同或相同测试集上的性能度量结果做比较呢?这就是比较检验

1.1 假设检验

在比较学习器泛化性能的过程中,统计假设检验(hypothesis test)为学习器性能比较提供了重要依据,即若A在某测试集上的性能优于B,那A学习器比B好的把握有多大。 为方便论述,本篇中都是以“错误率”作为性能度量的标准。

假设”指的是对样本总体的分布或已知分布中某个参数值的一种猜想,例如:假设总体服从泊松分布。

我们可以通过测试获得测试错误率,直观上测试错误率和泛化错误率相差不会太远,因此可以通过测试错误率来推测泛化错误率的分布,这就是一种假设检验

泛化错误率为 ϵ \epsilon ϵ的学习器在一个样本上犯错的概率是 ϵ \epsilon ϵ;测试错误率 ϵ ^ \hat{\epsilon} ϵ^意味着在 m m m个测试样本中恰有 ϵ ^ × m \hat{\epsilon}\times m ϵ^×m个被误分类。假定测试样本是从样本总体分布中独立采样而得,那么泛化错误率为 ϵ \epsilon ϵ的学习器将其中 m ′ m' m个样本误分类、其余样本全都分类正确的概率是 ϵ m ′ ( 1 − ϵ ) m − m ′ \epsilon^{m'}(1-\epsilon)^{m-m'} ϵm(1ϵ)mm;由此可估算出其恰将 ϵ ^ × m \hat{\epsilon}\times m ϵ^×m个样本误分类的概率如下式所示,这也表达了在包含m个样本的测试集上,泛化错误率为 ϵ \epsilon ϵ的学习器被测得测试错误率为 ϵ ^ \hat{\epsilon} ϵ^的概率:
在这里插入图片描述
给定测试错误率,则解 ∂ P ( ϵ ^ ; ϵ ) ∂ ϵ \frac{\partial P(\hat{\epsilon};\epsilon)}{\partial \epsilon} ϵP(ϵ^;ϵ)可知, P ( ϵ ^ ; ϵ ) P(\hat{\epsilon};\epsilon) P(ϵ^;ϵ) ϵ = ϵ ^ \epsilon=\hat{\epsilon} ϵ=ϵ^时最大, ∣ ϵ − ϵ ^ ∣ |\epsilon-\hat{\epsilon}| ϵϵ^增大时 P ( ϵ ^ ; ϵ ) P(\hat{\epsilon};\epsilon) P(ϵ^;ϵ)减小,这符合二项(binomial)分布,如图2.6所示,若 ϵ \epsilon ϵ=0.3,则10个样本中测得3个被误分类的概率最大.

在这里插入图片描述
在这里插入图片描述在这里插入图片描述

一般来说, α \alpha α通常取值为0.01,0.05或0.1。

  • 在假设检验中,我们称, α \alpha α为显著性水平,也称显著度(significance)

  • 称(1- α \alpha α)为置信度(confidence)。

在这里插入图片描述

1.2 交叉验证t检验

4.png

1.3 McNemar检验

MaNemar主要用于二分类问题,与成对t检验一样也是用于比较两个学习器的性能大小。

主要思想
若两学习器的性能相同,则A预测正确B预测错误数应等于B预测错误A预测正确数,即 e 01 = e 10 e_{01}=e_{10} e01=e10,且 ∣ e 01 − e 10 ∣ |e_{01}-e_{10}| e01e10服从 N ( 1 , e 01 + e 10 ) N(1,e_{01}+e_{10}) N(1e01+e10)分布。

如下所示的变量
6.png
在这里插入图片描述

服从自由度为1的卡方分布,即服从标准正态分布N(0,1)的随机变量的平方和,上式只有一个变量,故自由度为1,检验的方法步骤依旧如下:
做出假设–>求出满足显著度的临界点–>给出拒绝域–>验证假设

卡方分布补充
在这里插入图片描述

1.4 Friedman检验与Nemenyi后续检验

1.4.1 Friedman检验

上述的三种检验都只能在一组数据集上,F检验则可以在多组数据集进行多个学习器性能的比较,基本思想是在同一组数据集上,根据测试结果(例:测试错误率)对学习器的性能进行排序,赋予序值1,2,3…,相同则平分序值,如下图所示:
7.png
在这里插入图片描述
在这里插入图片描述
下面是F检验常用的临界值:

10.png

1.4.2 Nemenyi后续检验

若“H0:所有算法的性能相同”这个假设被拒绝,则说明算法的性能显著不同,需要进行后续检验,来得到具体的算法之间的差异。常用的就是Nemenyi后续检验。

Nemenyi检验计算出平均序值差别的临界值域
在这里插入图片描述

下表是常用的 q a q_a qa值,若两个算法的平均序值差超出了临界值域CD,则相应的置信度 1 − α 1-α 1α拒绝“两个算法性能相同”的假设。
在这里插入图片描述

2. 偏差与方差

偏差-方差分解是解释学习器泛化性能的重要工具。

在学习算法中,偏差指的是预测的期望值与真实值的偏差,方差则是每一次预测值与预测值的期望之间的差均方。

实际上,偏差体现了学习器预测的准确度,而方差体现了学习器预测的稳定性。通过对泛化误差的进行分解,可以得到:

  • 期望泛化误差=方差+偏差+噪声
  • 偏差刻画学习器的拟合能力
  • 方差体现学习器的稳定性

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

一般来说,偏差与方差是有冲突的,这称为偏差-方差窘境(bias-variancedilemma).

在训练不足时,学习器的拟合能力不够强,训练数据的扰动不足以使学习器产生显著变化,此时偏差主导了泛化错误率;

随着训练程度的加深,学习器的拟合能力逐渐增强,训练数据发生的扰动渐渐能被学习器学到,方差逐渐主导了泛化错误率;

在训练程度充足后,学习器的拟合能力已非常强,训练数据发生的轻微扰动都会导致学习器发生显著变化,若训练数据自身的、非全局的特性被学习器学到了,则将发生过拟合.

简而言之:在欠拟合时,偏差主导泛化误差,而训练到一定程度后,偏差越来越小,方差主导了泛化误差。

13.png

### 关于周志华机器学习》(西瓜书)第章的学习笔记 #### 模型评估与选择概述 模型评估与选择是机器学习领域的重要组成部分,旨在通过合理的方法评价不同模型的表现并挑选最优者。这一过程不仅涉及如何衡量单个模型的好坏,还包括怎样对比多个候选方案以做出最佳决策。 #### 偏差方差和噪声的概念解析 偏差度量了学习算法的期望预测与实际结果之间的差距,反映了算法自身的拟合精度;方差描述的是相同规模训练集变化引起的学习效果波动情况,体现了数据扰动带来的影响;而噪声则设定了给定任务下所有可能采用的学习方法能达到的最佳预期泛化误差界限,揭示了问题本身固有的复杂性和挑战性[^2]。 #### 性能度量指标——P-R图及其应用 为了更直观地展示各类分类器的工作特性,通常会绘制精确率-召回率(Precision-Recall, P-R)曲线来辅助分析。当面对多组实验结果时,可以通过观察这些图形相互间的位置关系来进行优劣评判:如果某条曲线始终位于另一条之上,则表明前者具有更好的整体表现;而对于那些存在交点的情况,则需进一步计算各自下方区域面积大小作为判断依据之一。此外,“平衡点”作为一种特殊的性能测度,在特定条件下也能提供有价值的参考信息[^3]。 #### 偏差-方差分解理论简介 该理论为理解学习算法的一般化能力提供了框架性的指导思路,通过对平均测试错误率实施拆分操作,可以深入剖析导致过拟合现象背后的原因所在,并据此探索改进措施的方向。具体而言,总误差由三部分构成——不可约减误差点(即噪声)、平方形式表达出来的偏差项以及线性累加而成的方差成分[^4]。 ```python import numpy as np from sklearn.model_selection import train_test_split from sklearn.metrics import precision_recall_curve, auc def evaluate_model_performance(model, X, y): """ 计算并返回PR曲线下面积(AUC),用于量化模型的整体性能。 参数: model (object): 已经训练好的分类模型实例。 X (array-like of shape (n_samples, n_features)): 测试特征矩阵。 y (array-like of shape (n_samples,)): 对应的真实标签向量。 返回: float: PR AUC得分。 """ # 划分训练集/验证集 X_train, X_val, y_train, y_val = train_test_split(X, y, test_size=0.2) # 使用训练集拟合模型 model.fit(X_train, y_train) # 获取验证集中各观测对应的概率估计值 probas_pred = model.predict_proba(X_val)[:, 1] # 绘制PR曲线并求得AUC分数 precisions, recalls, _ = precision_recall_curve(y_val, probas_pred) pr_auc_score = auc(recalls, precisions) return pr_auc_score ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

CHH3213

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值