Scikit-learn中的K折叠交叉验证(Cross Validation)

我们为什么要使用交叉验证法?  

       当我们使用train_test_split方法进行数据集的拆分时,train_test_split用的是随机拆分的方法,万一我们拆分的时候,测试集中都是比较容易进行分类或者回归的数据,而训练集中都比较难,那么模型的得分就会偏高,反之模型的得分就会偏低。我们也不太可能把所有的random_state遍历一遍,而交叉验证法正好弥补了这个缺陷,它的工作原理导致它要对多次拆分进行评分再取平均值,这样就不会出现我们前面所说的问题了。

scikit-learn中默认使用的交叉验证法是K折叠交叉验证法(K-fold cross validation):它将数据集拆分成k个部分,再用k个数据集对模型进行训练和评分。K对应程序中的cv。下面是两个K值的例子。

from sklearn.datasets import load_wine     #导入红酒数据集
from sklearn.model_selection import cross_val_score    #导入交叉验证工具
from sklearn.svm import SVC     #导入用于分类的支持向量机模型
wine = load_wine()     #载入红酒数据集
svc = SVC(kernel='linear')    #设置SVC的核函数为linear
scores = cross_val_score(svc,wine.data,wine.target,cv=7)   #使用交叉验证法对SVC进行评分
#print('交叉验证得分:{}'.format
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值