周志华西瓜书笔记——第二章

本文介绍了机器学习中的误差类型如过拟合与欠拟合,讨论了如何通过训练误差和泛化误差评估学习器的表现,并介绍了留出法、交叉验证法及自助法等评估方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

2.1 经验误差与过拟合

错误率:分类错误的样本占样本总数的比例

精度:1—错误率

误差:学习器的实际预测输出与样本的真实输出之间的差异

训练误差:学习器在训练集上的误差

泛化误差:在新样本上的误差

过拟合:过度学习样本非主要特征导致学习器泛化能力下降

欠拟合:未完全学习样本的特征

过拟合难以避免,欠拟合可以避免:通过增加训练的轮数、扩展决策树分支等方法可以克服欠拟合;机器学习通常面临NP 问题,机器学习的有效解必然是在多项式时间内的,如果彻底避免了过拟合,说明构造性的证明了P=NP,然而事实上这件事并没有被证明,所以只要P!=NP,则过拟合就无法避免。

模型选择:学习算法+参数配置

 

2.2 评估方法——通过测试对学习器的泛化误差进行评估,进而做出选择

  1. 测试集尽量与样本互斥,即测试样本未在训练集合中出现,未被使用过
  2. 如何从数据集中产生训练集和测试集
    1. 留出法: 2/3~4/5 作为训练样本,其余作为测试样本,既保证训练集与数据集之间的差别不过大,又保证训练集没有占有绝大多数的样本;训练测试集的划分,尽量保持数据分布的一致性,多种划分方式若干次随机划分重复实验评估取平均值。
    2. 交叉验证法:将数据集进行划分成k个互斥且并为数据集的子集合,每次使用k-1个子集作为一个训练集,余下一个作为测试集,进行k次实验,同样,在划分数据集时候存在不同方式,每种划分方式下进行k次实验。一般,取10次划分方式,每次划分成10个子集,总共进行了100次实验。。。特别的,留一法,每次将每个样本作为一个子集,这样有可能提高准确性,但是代价比较大
    3. 自助法/有放回采样法:数据集D,从D m次随机有放回取样得到集合D`,将D`作为训练集合,D-D`作为测试集。这样会引起估计偏差。在数据集合足够大的时候,采用留出法或交叉验证法
  3. 调参与最终模型:

 

2.3性能度量

  1. 使用均方差/积分形式的均方差来描述模型泛化的能力
  1. 错误率和精度的计算法方法
  2. 查准率、查全率与F1,针对二分类做出详细的描述,,相关概念:混淆矩阵,宏查准率,微查准率,宏查全率,微查全率,宏F1,微F1
  3. ROC AUC
  4. 未完待续……
### 关于周志华机器学习》(西瓜第二章的学习笔记 #### 模型评估与选择概述 模型评估与选择是机器学习领域的重要组成部分,旨在通过合理的方法评价不同模型的表现并挑选最优者。这一过程不仅涉及如何衡量单个模型的好坏,还包括怎样对比多个候选方案以做出最佳决策。 #### 偏差、方差噪声的概念解析 偏差度量了学习算法的期望预测与实际结果之间的差距,反映了算法自身的拟合精度;方差描述的是相同规模训练集变化引起的学习效果波动情况,体现了数据扰动带来的影响;而噪声则设定了给定任务下所有可能采用的学习方法能达到的最佳预期泛化误差界限,揭示了问题本身固有的复杂性挑战性[^2]。 #### 性能度量指标——P-R图及其应用 为了更直观地展示各类分类器的工作特性,通常会绘制精确率-召回率(Precision-Recall, P-R)曲线来辅助分析。当面对多组实验结果时,可以通过观察这些图形相互间的位置关系来进行优劣评判:如果某条曲线始终位于另一条之上,则表明前者具有更好的整体表现;而对于那些存在交点的情况,则需进一步计算各自下方区域面积大小作为判断依据之一。此外,“平衡点”作为一种特殊的性能测度,在特定条件下也能提供有价值的参考信息[^3]。 #### 偏差-方差分解理论简介 该理论为理解学习算法的一般化能力提供了框架性的指导思路,通过对平均测试错误率实施拆分操作,可以深入剖析导致过拟合现象背后的原因所在,并据此探索改进措施的方向。具体而言,总误差由三部分构成——不可约减误差点(即噪声)、平方形式表达出来的偏差项以及线性累加而成的方差成分[^4]。 ```python import numpy as np from sklearn.model_selection import train_test_split from sklearn.metrics import precision_recall_curve, auc def evaluate_model_performance(model, X, y): """ 计算并返回PR曲线下面积(AUC),用于量化模型的整体性能。 参数: model (object): 已经训练好的分类模型实。 X (array-like of shape (n_samples, n_features)): 测试特征矩阵。 y (array-like of shape (n_samples,)): 对应的真实标签向量。 返回: float: PR AUC得分。 """ # 划分训练集/验证集 X_train, X_val, y_train, y_val = train_test_split(X, y, test_size=0.2) # 使用训练集拟合模型 model.fit(X_train, y_train) # 获取验证集中各观测对应的概率估计值 probas_pred = model.predict_proba(X_val)[:, 1] # 绘制PR曲线并求得AUC分数 precisions, recalls, _ = precision_recall_curve(y_val, probas_pred) pr_auc_score = auc(recalls, precisions) return pr_auc_score ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值