机器学习的boosting思想

本文深入解析了机器学习中常用的Boosting思想,详细介绍了Adaboost和Mart两种向前分步算法的工作原理。Adaboost通过逐步增加错误案例权重来训练多棵树,而Mart则通过调整学习目标为预测的负梯度值生成树,最终形成GBDT和XGBoost等强大模型。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

机器学习常用到booting思想,通过一步一步向目标迈进

两种用此思想的向前分步算法:

每次训练一棵树,用此棵数训练的结果调整下一棵树的输入

1.adaboost

boosting抽样训练每一颗树

每次迭代时加大错误case(input data)的权重进行下次训练

最终模型的权重也会根据总体效果调整每棵的权重

for m round

     for n trees

          调整input 进行训练

     根据n棵树的预测调整树的权重

2.mart

     for n trees

          调整学习目标为前面预测的负梯度值,通过找到最小损失的预测值生成树

   典型的算法有gbdt和xgboost ,xgboost是在损失函数里加上l2正则,用负梯度代替残差(gbdt实际也是负梯度)

上面两种算法和rf比,容易控制树的规模,减少过拟合

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值