sklearn joblib 交叉验证函数 cross_val_score

本文介绍了sklearn的cross_val_score函数用于交叉验证,讲解了estimator、X、y、scoring和cv等参数,以及k-folds交叉验证的概念。通过示例展示了模型在训练集和验证集上的误差,指出模型可能存在的过拟合问题,并提出解决方案,如简化模型、增加正则化等。最后提到了模型保存的两种方法,包括pickle和sklearn.externals.joblib.

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

sklearn.model_selection.cross_val_score(estimator, X, y=None, groups=None, scoring=None, cv=’warn’, n_jobs=None, verbose=0, fit_params=None, pre_dispatch=‘2*n_jobs’, scoring=’raise-deprecating’)

只介绍几个常用的参数:

  • estimator 将要训练的模型
  • X 训练集
  • y 标签
  • scoring: string 选择返回的误差函数类型,
  • cv : int 默认分成3个folds,指定后分成cv个folds

简单的介绍一下k-folds 交叉验证:
随机将数据集分为k个不同的子集,称为folds, 然后在训练和验证决策树模型k次,每一次选择一个不同的子集作为验证集,在另外k-1个子集上训练。返回结果是结果是一个长度为k 的数组,值为在k个fold上的误差值

def display_scores(scores):
    print(
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值