网格搜索算法与K折交叉验证

本文介绍网格搜索算法及K折交叉验证法在决策树模型中的应用,通过实例演示如何选择最佳参数并评估模型准确性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

网格搜索算法K折交叉验证法机器学习入门的时候遇到的重要的概念。

网格搜索算法是一种通过遍历给定的参数组合来优化模型表现的方法。

决策树为例,当我们确定了要使用决策树算法的时候,为了能够更好地拟合和预测,我们需要调整它的参数。在决策树算法中,我们通常选择的参数是决策树的最大深度

于是我们会给出一系列的最大深度的值,比如 {'max_depth': [1,2,3,4,5]},我们会尽可能包含最优最大深度。

不过,我们如何知道哪一个最大深度的模型是最好的呢?我们需要一种可靠的评分方法,对每个最大深度的决策树模型都进行评分,这其中非常经典的一种方法就是交叉验证,下面我们就以K折交叉验证为例,详细介绍它的算法过程。

首先我们先看一下数据集是如何分割的。我们拿到的原始数据集首先会按照一定的比例划分成训练集和测试集。比如下图,以8:2分割的数据集:

训练集用来训练我们的模型,它的作用就像我们平时做的练习题;测试集用来评估我们训练好的模型表现如何,它的作用像我们做的高考题,这是要绝对保密不能提前被模型看到的。

因此,在K折交叉验证中,我们用到的数据是训练集中的所有数据。我们将训练集的所有数据平均划分成K份(通常选择K=10),取第K份作为验证集,它的作用就像我们用来估计高考分数的模拟题,余下的K-1份作为交叉验证的训练集。

对于我们最开始选择的决策树的5个最大深度 ,以 max_depth=1 为例,我们先用第2-10份数据作为训练集训练模型,用第1份数据作为验证集对这次训练的模型进行评分,得到第一个分数;然后重新构建一个 max_depth=1 的决策树,用第1和3-10份数据作为训练集训练模型,用第2份数据作为验证集对这次训练的模型进行评分,得到第二个分数……以此类推,最后构建一个 max_depth=1 的决策树用第1-9份数据作为训练集训练模型,用第10份数据作为验证集对这次训练的模型进行评分,得到第十个分数。于是对于 max_depth=1 的决策树模型,我们训练了10次,验证了10次,得到了10个验证分数,然后计算这10个验证分数的平均分数,就是 max_depth=1 的决策树模型的最终验证分数。

对于 max_depth = 2,3,4,5 时,分别进行和 max_depth=1 相同的交叉验证过程,得到它们的最终验证分数。然后我们就可以对这5个最大深度的决策树的最终验证分数进行比较,分数最高的那一个就是最优最大深度,对应的模型就是最优模型

下面提供一个简单的利用决策树预测乳腺癌的例子:

from sklearn.model_selection import GridSearchCV, KFold, train_test_split
from sklearn.metrics import make_scorer, accuracy_score
from sklearn.tree import DecisionTreeClassifier
from sklearn.datasets import load_breast_cancer

data = load_breast_cancer()

X_train, X_test, y_train, y_test = train_test_split(
    data['data'], data['target'], train_size=0.8, random_state=0)

regressor = DecisionTreeClassifier(random_state=0)
parameters = {'max_depth': range(1, 6)}
scoring_fnc = make_scorer(accuracy_score)
kfold = KFold(n_splits=10)

grid = GridSearchCV(regressor, parameters, scoring_fnc, cv=kfold)
grid = grid.fit(X_train, y_train)
reg = grid.best_estimator_

print('best score: %f'%grid.best_score_)
print('best parameters:')
for key in parameters.keys():
    print('%s: %d'%(key, reg.get_params()[key]))

print('test score: %f'%reg.score(X_test, y_test))

import pandas as pd
pd.DataFrame(grid.cv_results_).T

直接用决策树得到的分数大约是92%,经过网格搜索优化以后,我们可以在测试集得到95.6%的准确率:

best score: 0.938462
best parameters:
max_depth: 4
test score: 0.956140
K交叉验证(K-Fold Cross Validation)是一种常见的模型评估方法,能够有效地利用有限的数据集进行训练和测试。通过将数据分为 \( K \) 份,轮流使用其中一份作为测试集而剩余部分作为训练集,这种方法有助于提高模型泛化能力估计的稳定性。 以下是基于Python的一个简单例子,演示了如何结合网格搜索(Grid Search)K交叉验证来寻找支持向量机分类器的最佳超参数配置: ```python from sklearn.datasets import load_iris from sklearn.svm import SVC from sklearn.model_selection import GridSearchCV, train_test_split, cross_val_score import numpy as np # 加载示例数据集 data = load_iris() X = data.data # 特征矩阵 y = data.target # 标签向量 # 划分训练集测试集 X_train, X_test, y_train, y_test = train_test_split( X, y, test_size=0.2, random_state=42) # 构建SVM分类器 svc_model = SVC() # 定义超参数网格 param_grid = {'C': [0.1, 1, 10], 'gamma': [1, 0.1, 0.01], 'kernel': ['rbf']} # 实例化GridSearchCV对象并设置为5交叉验证 grid_search = GridSearchCV(estimator=svc_model, param_grid=param_grid, cv=5, verbose=2, scoring='accuracy') # 运行网格搜索算法 grid_result = grid_search.fit(X_train, y_train) print(f"最佳参数组合:{grid_result.best_params_}") print(f"对应的最高准确率:{grid_result.best_score_:.2%}") # 测试最佳模型的表现 best_svc = grid_result.best_estimator_ scores = cross_val_score(best_svc, X_test, y_test, cv=5) mean_accuracy = scores.mean() * 100 std_deviation = scores.std() * 100 print(f"\n测试集中五次叠后的平均精度={mean_accuracy:.2f}% (+/- {std_deviation:.2f}%)") ``` 在这个脚本里包含了以下几个重要环节: 1. 数据准备阶段 - 我们首先加载鸢尾花数据集,并将其随机划分为训练组独立验证组; 2. SVM建立以及定义待寻优的空间范围——这里针对惩罚系数(C),Gamma进行了探索; 3. 应用了包含详细日志输出功能(`verbose`)设定好的`GridSearchCV`,并且明确指出希望做多少个分割(k=?); 4. 输出全局意义上最好的一组超参搭配连同相应的效能指标; 5. 最后一步是对该优选出来的版本进一步地实施额外一轮检验以确认其在外样本上的可靠性状况。 请注意,虽然增加k的数量可能会提升结果的一致性和代表性,但这同样意味着更多的运算时间开销。此外,当面对较大的数据库或者复杂的机器学习任务时,还可以考虑其他更先进的自动化调优工具和技术手段予以补充完善。
评论 7
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值