sklean
model_selection
交叉验证
1. cross_val_score
cross_val_score(estimatior,X,y=None,scoring=None,cv=None)
参数:
estimatior:分类器对象,有fit函数
X:array-like
score: string表示最后以score形式计算得分,默认使用scoring=’f1_macro’进行评测的,余外针对分类或回归还有:
cv: int 或者 Cross-validation generator(类似于KFold对象), 默认是3折叠的KFold,int n则表示n折叠的KFold
返回: 返回所有折叠的得分
2. KFold
KFold(n_splits=3, shuffle=False, random_state=None)
参数:
n_splits就是fold的个数,shuffle表示split前是否洗牌,random_state记录shuffle的随机种子
返回KFold对象,KFold对象有两个方法,get_n_splits(X=None, y=None, groups=None)和split(X, y=None, groups=None)返回可能训练集和测试机的下标
例子:
X = np.array([[1, 2], [3, 4], [1, 2], [3, 4]])
y = np.array([1, 2, 3, 4])
kf = KFold(n_splits=2)
kf.get_n_splits(X)
>>> 2
for train_index, test_index in kf.split(X):
print("TRAIN:", train_index, "TEST:", test_index)
X_train, X_test = X[train_index], X[test_index]
y_train, y_test = y[train_index], y[test_index]
>>> TRAIN: [2 3] TEST: [0 1]
>>> TRAIN: [0 1] TEST: [2 3]
其他有关Cross Validation的内容可以参考sklearn中的交叉验证(Cross-Validation)

本文详细介绍了sklearn中交叉验证的实现方式,包括cross_val_score函数的使用方法及其参数解释,以及KFold类的实例演示。通过具体示例展示了如何进行交叉验证划分。
1007

被折叠的 条评论
为什么被折叠?



