XGBoost 与 Boosted Tree

本文详细解释了XGBoost的工作原理,包括泰勒公式在损失函数展开中的应用、样本集划分的意义及其在目标函数计算中的转换,以及如何通过树的变形来最小化目标函数值。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1.注意在用泰勒公式展开的时候有点复杂:

展开的函数是l()函数,并不包含后面的惩罚项和常数,l()函数里的y(hat)是自变量x,而ft(Xi)是其增量;

2.注意样本集合 Ij的意思是:对每一个叶子节点j,它对应的若干个样本,用i表示;在随后的Obj函数计算中,把对N的累加换成了

对T的累加,一个t对应若干个样本,实际上两者是等价的;

3.随后的对叶子节点分割的部分,实际上和《统计学习方法》中的提升回归树原理相同,对树不断进行变型的操作就是对叶子节点

去分割,一定要注意wj       

就是我们要添加的那棵树,目标就是不断对树变型,使得后面的Obj的值最小,所以Obj是评判标准。
4.XGBoost实际上就是实现了这篇文章思想的一个工具,它并行化实现,并且在此基础上对系统进行了一定的优化。
原文见:http://www.52cs.org/?p=429 陈天奇
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值