交叉验证(Cross Validation)简介

本文探讨了在模式识别和机器学习中如何合理地划分训练集和测试集,介绍了几种常用的交叉验证方法,如Hold-Out Method、2-fold Cross Validation、K-fold Cross Validation及Leave-One-Out Cross Validation,并指出了在使用交叉验证时常见的错误。

链接:http://blog.youkuaiyun.com/holybin/article/details/27185659


一、训练集 vs. 测试集

在模式识别(pattern recognition)与机器学习(machine learning)的相关研究中,经常会将数据集(dataset)分为训练集(training set)跟测试集(testing set)这两个子集,前者用以建立模型(model),后者则用来评估该模型对未知样本进行预测时的精确度,正规的说法是泛化能力(generalization ability)。怎么将完整的数据集分为训练集跟测试集,必须遵守如下要点:

1、只有训练集才可以用在模型的训练过程中,测试集则必须在模型完成之后才被用来评估模型优劣的依据。
2、训练集中样本数量必须够多,一般至少大于总样本数的50%。
3、两组子集必须从完整集合中均匀取样。

        其中最后一点特别重要,均匀取样的目的是希望减少训练集/测试集与完整集合之间的偏差(bias),但却也不易做到。一般的作法是随机取样,当样本数量足够时,便可达到均匀取样的效果,然而随机也正是此作法的盲点,也是经常是可以在数据上做手脚的地方。举例来说,当辨识率不理想时,便重新取样一组训练集/测试集,直到测试集的识别率满意为止,但严格来说这样便算是作弊了。


二、交叉验证(Cross Validation)

        交叉验证(Cross Validation)是用来验证分类器的性能一种统计分析方法,基本思想是把在某种意义下将原始数据(dataset)进行分组,一部分做为训练集(training set),另一部分做为验证集(validation set),首先用训练集对分类器进行训练,在利用验证集来测试训练得到的模型(model),以此来做为评价分类器的性能指标。常见的交叉验证方法如下:

1、Hold-Out Method

        将原始数据随机分为两组,一组做为训练集,一组做为验证集,利用训练集训练分类器,然后利用验证集验证模型,记录最后的分类准确率为此分类器的性能指标。此种方法的好处的处理简单,只需随机把原始数据分为两组即可,其实严格意义来说Hold-Out Method并不能算是CV,因为这种方法没有达到交叉的思想,由于是随机的将原始数据分组,所以最后验证集分类准确率的高低与原始数据的分组有很大的关系,所以这种方法得到的结果其实并不具有说服性。


2、Double Cross Validation(2-fold Cross Validation,记为2-CV)

       做法是将数据集分成两个相等大小的子集,进行两回合的分类器训练。在第一回合中,一个子集作为training set,另一个便作为testing set;在第二回合中,则将training set与testing set对换后,再次训练分类器,而其中我们比较关心的是两次testing sets的辨识率。不过在实务上2-CV并不常用,主要原因是training set样本数太少,通常不足以代表母体样本的分布,导致testing阶段辨识率容易出现明显落差。此外,2-CV中分子集的变异度大,往往无法达到“实验过程必须可以被复制”的要求。


3、K-fold Cross Validation(K-折交叉验证,记为K-CV)

       将原始数据分成K组(一般是均分),将每个子集数据分别做一次验证集,其余的K-1组子集数据作为训练集,这样会得到K个模型,用这K个模型最终的验证集的分类准确率的平均数作为此K-CV下分类器的性能指标。K一般大于等于2,实际操作时一般从3开始取,只有在原始数据集合数据量小的时候才会尝试取2。K-CV可以有效的避免过学习以及欠学习状态的发生,最后得到的结果也比较具有说服性。


4、Leave-One-Out Cross Validation(记为LOO-CV)

         如果设原始数据有N个样本,那么LOO-CV就是N-CV,即每个样本单独作为验证集,其余的N-1个样本作为训练集,所以LOO-CV会得到N个模型,用这N个模型最终的验证集的分类准确率的平均数作为此下LOO-CV分类器的性能指标。相比于前面的K-CV,LOO-CV有两个明显的优点:
(1)每一回合中几乎所有的样本皆用于训练模型,因此最接近原始样本的分布,这样评估所得的结果比较可靠。
(2)实验过程中没有随机因素会影响实验数据,确保实验过程是可以被复制的。

但LOO-CV的缺点则是计算成本高,因为需要建立的模型数量与原始数据样本数量相同,当原始数据样本数量相当多时,LOO-CV在实作上便有困难几乎就是不显示,除非每次训练分类器得到模型的速度很快,或是可以用并行化计算减少计算所需的时间。


三、使用Cross-Validation时常犯的错误

        由于实验室许多研究都有用到 evolutionary algorithms(EA)与 classifiers,所使用的 fitness function 中通常都有用到 classifier 的辨识率,然而把cross-validation 用错的案例还不少。前面说过,只有 training data 才可以用于 model 的建构,所以只有 training data 的辨识率才可以用在 fitness function 中。而 EA 是训练过程用来调整 model 最佳参数的方法,所以只有在 EA结束演化后,model 参数已经固定了,这时候才可以使用 test data。那 EA 跟 cross-validation 要如何搭配呢?Cross-validation 的本质是用来估测(estimate)某个 classification method 对一组 dataset 的 generalization error,不是用来设计 classifier 的方法,所以 cross-validation 不能用在 EA的 fitness function 中,因为与 fitness function 有关的样本都属于 training set,那试问哪些样本才是 test set 呢?如果某个 fitness function 中用了cross-validation 的 training 或 test 辨识率,那么这样的实验方法已经不能称为 cross-validation 了。 

        EA 与 k-CV 正确的搭配方法,是将 dataset 分成 k 等份的 subsets 后,每次取 1份 subset 作为 test set,其余 k-1 份作为 training set,并且将该组 training set 套用到 EA 的 fitness function 计算中(至于该 training set 如何进一步利用则没有限制)。因此,正确的 k-CV 会进行共 k 次的 EA 演化,建立 k 个classifiers。而 k-CV 的 test 辨识率,则是 k 组 test sets 对应到 EA 训练所得的 k 个 classifiers 辨识率之平均值。

### 交叉验证Cross-Validation)的概念 交叉验证是一种统计方法,广泛应用于机器学习中,用于评估模型的性能和泛化能力。其基本思想是将原始数据集在某种意义下进行分组,一部分用于训练模型(训练集),另一部分用于测试模型(验证集)。通过多次训练和验证,可以更全面地评估模型在未知数据上的表现,从而帮助防止过拟合或欠拟合现象的发生 [^1]。 交叉验证的核心在于数据的重复划分与模型的多次训练与评估。这种方法可以有效减少单一训练-测试划分可能带来的偏差,使得模型评估更加稳定和可靠 [^2]。 ### 交叉验证在模型评估中的应用 在实际模型评估中,交叉验证被广泛用于以下几个方面: 1. **性能评估**:通过多次划分数据集并计算平均性能指标(如准确率、F1分数等),可以更准确地估计模型在未知数据上的表现。例如,k 折交叉验证(k-Fold Cross-Validation)是最常见的方法之一,它将数据集划分为 k 个子集,每次使用其中一个子集作为验证集,其余 k-1 个子集作为训练集,最终取 k 次结果的平均值作为模型性能的估计 [^3]。 2. **超参数调优**:交叉验证可以与网格搜索(Grid Search)或随机搜索(Random Search)结合使用,以寻找最优的模型超参数组合。通过在不同参数组合下进行交叉验证,可以找到在验证集上表现最佳的参数设置。 3. **模型选择**:在多个候选模型之间进行比较时,交叉验证提供了一种公平的评估方式。不同模型在相同的数据划分和评估标准下进行比较,确保了评估结果的客观性。 4. **数据利用最大化**:当数据量较少时,交叉验证可以充分利用所有数据进行训练和验证,避免因数据划分不当而导致的性能波动。 以下是一个使用 Python 的 `scikit-learn` 库实现 5 折交叉验证的示例: ```python from sklearn.model_selection import cross_val_score from sklearn.svm import SVC from sklearn.datasets import load_digits # 加载手写数字数据集 X, y = load_digits(return_X_y=True) # 使用支持向量机分类器进行 5 折交叉验证 model = SVC(kernel='linear') scores = cross_val_score(model, X, y, cv=5) # 输出每次交叉验证的准确率及平均准确率 print("每次交叉验证的准确率:", scores) print("平均准确率(估计的泛化误差): {:.4f}".format(scores.mean())) ``` ###
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值