k 折交叉验证

1. 原理步骤:
原理图

  1. 第一步,不重复抽样将原始数据随机分为 k 份。
  2. 第二步,每一次挑选其中 1 份作为测试集,剩余 k-1 份作为训练集用于模型训练。
  3. 第三步,重复第二步 k 次,这样每个子集都有一次机会作为测试集,其余机会作为训练集。 在每个训练集上训练后得到一个模型,用这个模型在相应的测试集上测试,计算并保存模型的评估指标,
  4. 第四步,计算 k 组测试结果的平均值作为模型精度的估计,并作为当前 k折交叉验证下模型的性能指标。

2.优点

  1. 充分利用所有数据,在数据规模较小的情况下有优势
  2. 在数据量较少的情况下,能使用较少的测试数据获取可靠度更高的准确度
  3. 不需要精心设计测试集,实验结果能客观代表所有数据的分布

3.缺点

  1. 计算量较大,实验成本较高,业内k的经验值为10,意味着要训练十次,得到十个模型
  2. k折验证法实质上是在验证模型的性能指标,对模型的选型有重要意义,但在同等计算量的情况下,对模型的性能提升不一定明显
### k交叉验证原理与应用 #### 基本理论和步骤 k交叉验证是一种用于评估机器学习模型性能的技术。该技术的核心思想是将原始数据随机划分为k个互斥子集(称为“叠”),每个子集大约占总数据量的1/k[^1]。 对于每一次迭代,选择其中一个子集作为验证集,其余(k-1)个子集组合成训练集。这样可以得到k组不同的训练/测试分割方式,从而使得每一个观测值都有机会被选作验证集中的一员。此过程重复执行k次,每次使用不同部分的数据作为验证集,最终汇总这k轮的结果以获得更稳定可靠的估计[^2]。 #### 应用场景 当面临有限规模的数据集时,采用传统的单一分割可能导致过拟合风险增加或泛化能力不足等问题;而通过引入k交叉验证,则可以在一定程度上缓解这些问题并提高模型评价指标的真实性。此外,在超参数调优过程中也经常运用到这种方来寻找最优配置方案。 #### 实现方 下面给出Python环境下基于Scikit-Learn库的一个简单例子: ```python from sklearn.model_selection import cross_val_score, KFold from sklearn.datasets import load_iris from sklearn.linear_model import LogisticRegression # 加载鸢尾花分类数据集 data = load_iris() X, y = data.data, data.target # 定义逻辑回归模型 model = LogisticRegression(max_iter=200) # 创建KFold对象指定分拆策略,默认shuffle=False kf = KFold(n_splits=5) # 使用cross_val_score函数计算平均得分 scores = cross_val_score(model, X, y, cv=kf) print(f'Cross-validation scores: {scores}') print(f'Mean score: {"{:.3f}".format(scores.mean())}') ``` 上述代码展示了如何利用`sklearn`中的工具快速完成一次完整的五交叉验证实验,并输出各轮次的表现分数及其均值。值得注意的是,这里选择了线性支持向量机作为待测算之一,但在实际操作中可以根据具体需求替换为其他类型的预测器[^3]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值