GBDT参数调优

本文详细介绍了在GBDT模型中如何进行特征工程,包括变量选择、缺失值处理和变量创建。接着,重点讨论了XGBoost参数调节,如学习率、子样本比例、最大深度等,并通过交叉验证选择最佳参数。最终,通过调整学习率和树的数量,提高了模型的性能。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

摘要:

此处主要是如何利用GBDT以及如何进行调参,特征工程处理的比较简单。


特征工程:

  • City这个变量已经被我舍弃了,因为有太多种类了。
  • DOB转为Age|DOB,舍弃了DOB
  • 创建了EMI_Loan_Submitted_Missing这个变量,当EMI_Loan_Submitted 变量值缺失时它的值为1,否则为0。然后舍弃了EMI_Loan_Submitted
  • EmployerName的值也太多了,我把它也舍弃了
  • Existing_EMI的缺失值被填补为0(中位数),因为只有111个缺失值
  • 创建了Interest_Rate_Missing变量,类似于#3,当Interest_Rate有值时它的值为0,反之为1,原来的Interest_Rate变量被舍弃了
  • Lead_Creation_Date也被舍弃了,因为对结果看起来没什么影响
  • Loan_Amount_Applied和 Loan_Tenure_Applied的中位数填补了缺失值
  • 创建了Loan_Amount_Submitted_Missing变量,当Loan_Amount_Submitted有缺失值时为1,反之为0,原本的Loan_Amount_Submitted变量被舍弃
  • 创建了Loan_Tenure_Submitted_Missing变量,当Loan_Tenure_Submitted有缺失值时为1,反之为0,原本的Loan_Tenure_Submitted变量被舍弃
  • 舍弃了LoggedIn,和Salary_Account
  • 创建了Processing_Fee_Missing变量,当Processing_Fee有缺失值时为1,反之为0,原本的Processing_Fee变量被舍弃
  • Source-top保留了2个,其他组合成了不同的类别
  • 对一些变量采取了数值化和独热编码(One-Hot-Coding)操作

测试数据与训练数据合成

# 载入数据:
    train_df = pd.read_csv('Train.csv',encoding = "ISO-8859-1")
    test_df = pd.read_csv('Test.csv',encoding = "ISO-8859-1")
    # train_df['source'] = 'train'
    # test_df['source'] = 'test'
    df = pd.concat([train_df,test_df],ignore_index=True)
### 关于 LightGBM 参数的方法和最佳实践 #### 使用叶子先树获取更好的结果 为了使 LightGBM 达到最性能,在构建决策树的过程中采用的是基于叶节点的策略而非传统的层次结构方法。这种做法能够使得算法自动找到最有效的路径来分割数据,从而提高预测精度并加快收敛速度[^1]。 #### 提升计算效率的技术手段 - **增加硬件配置**:通过添加更多的计算资源如CPU核心数或GPU加速卡等方式可以直接增强处理能力; - **分布式训练模式**:当单台设备无法满足需求时可以选择集群环境下的多机协作方式完成大规模任务; - **启用 GPU 支持版本**:对于拥有合适显卡架构的工作站而言安装特定编译选项后的程序包能显著缩短耗时; - **控制树深与数量**:适当减小最大深度(`max_depth`)限制每棵子树生长规模的同时也降低了整体复杂度;而设置合理的迭代次数上限(`num_iterations`)则有助于防止过度拟合现象发生。 ```python import lightgbm as lgb params = { 'objective': 'binary', 'metric': {'auc'}, 'boosting_type': 'gbdt', 'learning_rate': 0.1, 'max_depth': -1, # 不设限 'num_leaves': 31, # 默认值 'feature_fraction': 0.9, # 随机选取特征比例 'bagging_fraction': 0.8, # 数据采样比率 'bagging_freq': 5, # 每隔多少轮执行一次bagging操作 } ``` #### 减轻过拟合并改善泛化表现措施 - 增加 `min_data_in_leaf` 和 `min_sum_hessian_in_leaf` 可以有效抑制极端情况的发生频率,即避免因某些样本特性而导致模型过分依赖局部信息做出判断; - 应用早停机制(`early_stopping_rounds`)允许在验证集上的损失不再下降达到一定阈值后立即终止训练过程,以此节省时间成本同时也减少了不必要的风险暴露窗口期; - 利用 bagging 技巧中的 `bagging_fraction` 来随机抽取部分观测用于每次更新权重之前的操作,这不仅增加了多样性而且间接起到了正则化的效果; - 启用二进制文件存储功能(`save_binary`)可以在后续加载相同格式的数据集时省去预处理步骤所带来的额外开销。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值