sklearn.model_selection.cross_val_score(estimator, X, y=None, groups=None, scoring=None, cv=’warn’, n_jobs=None, verbose=0, fit_params=None, pre_dispatch=‘2*n_jobs’, scoring=’raise-deprecating’)
只介绍几个常用的参数:
- estimator 将要训练的模型
- X 训练集
- y 标签
- scoring: string 选择返回的误差函数类型,
- cv : int 默认分成3个folds,指定后分成cv个folds
简单的介绍一下k-folds 交叉验证:
随机将数据集分为k个不同的子集,称为folds, 然后在训练和验证决策树模型k次,每一次选择一个不同的子集作为验证集,在另外k-1个子集上训练。返回结果是结果是一个长度为k 的数组,值为在k个fold上的误差值
def display_scores(scores):
print("Scores:", scores
sklearn与joblib实现交叉验证详解

本文介绍了sklearn的cross_val_score函数用于交叉验证,讲解了estimator、X、y、scoring和cv等参数,以及k-folds交叉验证的概念。通过示例展示了模型在训练集和验证集上的误差,指出模型可能存在的过拟合问题,并提出解决方案,如简化模型、增加正则化等。最后提到了模型保存的两种方法,包括pickle和sklearn.externals.joblib.
最低0.47元/天 解锁文章
4009

被折叠的 条评论
为什么被折叠?



