达观杯-文本智能处理挑战赛-06

本文详细介绍了使用网格搜索法对LR、SVM和LightGBM三个模型进行参数调优的过程,采用五折交叉验证,展示了各模型的F1得分。同时,通过Stacking融合方式,以评分最高的模型为基准,与其他模型进行融合,得到最终模型及其评分结果。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

任务:

【Task4 模型优化】:(2天)
1)进一步通过网格搜索法对3个模型进行调优(用5000条数据,调参时采用五折交叉验证的方式),并进行模型评估,展示代码的运行结果。(可以尝试使用其他模型)
2)模型融合,模型融合方式任意,并结合之前的任务给出你的最优结果。
例如Stacking融合,用你目前评分最高的模型作为基准模型,和其他模型进行stacking融合,得到最终模型及评分结果。
模型结果:

模型选择参数F1得分
LRC = 120, dual = True0.695
SVMC=5, dual=False0.698
LightGBMlearning_rate=0.1, n_estimators=50, num_leaves=200.708
主要代码部分:
stack_model = [svm,lr,lgb] 
for i,model in enumerate(stack_model):
    for j, (train_fold, validate) in enumerate(kf):
                X_train, X_validate, label_train, label_validate = \
                    train_data[train_fold, :], train_data[validate, :], train_label[train_fold], train_label[validate]
                
                model.fit(X_train,label_train)
                train_stack[validate,i] = model.predict(X_validate)
                test_stack[:,i] = model.predict(test_data)
final_model  = xgb()
final_model.fit(train_stack,train_label)
 
pre = final_model.predict(test_stack) 


lgb_grid =lgb.sklearn.LGBMClassifier(num_leaves=30)
param_grid = {
    'learning_rate': [0.01, 0.05, 0.1, 0.5],
    'n_estimators': [20, 30, 40, 50]
}
re_model = GridSearchCV(lgb_grid, param_grid)
re_model.fit(X_train, y_train)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值