sklearn的笔记

本文详细介绍了sklearn中交叉验证的实现方式,包括cross_val_score函数的使用方法及其参数解释,以及KFold类的实例演示。通过具体示例展示了如何进行交叉验证划分。

sklean

model_selection

交叉验证

1. cross_val_score

cross_val_score(estimatior,X,y=None,scoring=None,cv=None)

参数:

estimatior:分类器对象,有fit函数

X:array-like

score: string表示最后以score形式计算得分,默认使用scoring=’f1_macro’进行评测的,余外针对分类或回归还有:image

cv: int 或者 Cross-validation generator(类似于KFold对象), 默认是3折叠的KFold,int n则表示n折叠的KFold

返回: 返回所有折叠的得分

2. KFold

KFold(n_splits=3, shuffle=False, random_state=None)

参数:
n_splits就是fold的个数,shuffle表示split前是否洗牌,random_state记录shuffle的随机种子

返回KFold对象,KFold对象有两个方法,get_n_splits(X=None, y=None, groups=None)和split(X, y=None, groups=None)返回可能训练集和测试机的下标

例子:

X = np.array([[1, 2], [3, 4], [1, 2], [3, 4]])
y = np.array([1, 2, 3, 4])

kf = KFold(n_splits=2)
kf.get_n_splits(X)
>>> 2
for train_index, test_index in kf.split(X):
   print("TRAIN:", train_index, "TEST:", test_index)
   X_train, X_test = X[train_index], X[test_index]
   y_train, y_test = y[train_index], y[test_index]

>>> TRAIN: [2 3] TEST: [0 1]
>>> TRAIN: [0 1] TEST: [2 3]

其他有关Cross Validation的内容可以参考sklearn中的交叉验证(Cross-Validation)

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值