我们为什么要使用交叉验证法?
当我们使用train_test_split方法进行数据集的拆分时,train_test_split用的是随机拆分的方法,万一我们拆分的时候,测试集中都是比较容易进行分类或者回归的数据,而训练集中都比较难,那么模型的得分就会偏高,反之模型的得分就会偏低。我们也不太可能把所有的random_state遍历一遍,而交叉验证法正好弥补了这个缺陷,它的工作原理导致它要对多次拆分进行评分再取平均值,这样就不会出现我们前面所说的问题了。
scikit-learn中默认使用的交叉验证法是K折叠交叉验证法(K-fold cross validation):它将数据集拆分成k个部分,再用k个数据集对模型进行训练和评分。K对应程序中的cv。下面是两个K值的例子。
from sklearn.datasets import load_wine #导入红酒数据集
from sklearn.model_selection import cross_val_score #导入交叉验证工具
from sklearn.svm import SVC #导入用于分类的支持向量机模型
wine = load_wine() #载入红酒数据集
svc = SVC(kernel='linear') #设置SVC的核函数为linear
scores = cross_val_score(svc,wine.data,wine.target,cv=7) #使用交叉验证法对SVC进行评分
#print('交叉验证得分:{}'.format