k 折交叉验证

本文深入探讨了k折交叉验证这一动态验证方式,解释了其如何通过多次划分训练集和验证集来降低数据划分对模型效果的影响,最终选出最佳超参数并训练出最终模型。

转载于:https://zhuanlan.zhihu.com/p/98532085

#k 折交叉验证(k-fold cross validation)

静态的「留出法」对数据的划分方式比较敏感,有可能不同的划分方式得到了不同的模型。
「k折交叉验证」是一种动态验证的方式,这种方式可以降低数据划分带来的影响。具体步骤如下:

  1. 将数据集分为训练集和测试集,将测试集放在一边
  2. 将训练集分为 k 份每次使用 k 份中的 1 份作为验证集,其他全部作为训练集。
  3. 通过 k 次训练后,我们得到了 k 个不同的模型。
  4. 评估 k 个模型的效果,从中挑选效果最好的超参数使用最优的超参数,然后将 k 份数据全部作为训练集重新训练模型,得到最终模型。
### k交叉验证原理与应用 #### 基本理论和步骤 k交叉验证是一种用于评估机器学习模型性能的技术。该技术的核心思想是将原始数据随机划分为k个互斥子集(称为“叠”),每个子集大约占总数据量的1/k[^1]。 对于每一次迭代,选择其中一个子集作为验证集,其余(k-1)个子集组合成训练集。这样可以得到k组不同的训练/测试分割方式,从而使得每一个观测值都有机会被选作验证集中的一员。此过程重复执行k次,每次使用不同部分的数据作为验证集,最终汇总这k轮的结果以获得更稳定可靠的估计[^2]。 #### 应用场景 当面临有限规模的数据集时,采用传统的单一分割可能导致过拟合风险增加或泛化能力不足等问题;而通过引入k交叉验证,则可以在一定程度上缓解这些问题并提高模型评价指标的真实性。此外,在超参数调优过程中也经常运用到这种方法来寻找最优配置方案。 #### 实现方法 下面给出Python环境下基于Scikit-Learn库的一个简单例子: ```python from sklearn.model_selection import cross_val_score, KFold from sklearn.datasets import load_iris from sklearn.linear_model import LogisticRegression # 加载鸢尾花分类数据集 data = load_iris() X, y = data.data, data.target # 定义逻辑回归模型 model = LogisticRegression(max_iter=200) # 创建KFold对象指定分拆策略,默认shuffle=False kf = KFold(n_splits=5) # 使用cross_val_score函数计算平均得分 scores = cross_val_score(model, X, y, cv=kf) print(f'Cross-validation scores: {scores}') print(f'Mean score: {"{:.3f}".format(scores.mean())}') ``` 上述代码展示了如何利用`sklearn`中的工具快速完成一次完整的五交叉验证实验,并输出各轮次的表现分数及其均值。值得注意的是,这里选择了线性支持向量机作为待测算法之一,但在实际操作中可以根据具体需求替换为其他类型的预测器[^3]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值