一、概要 了解GBDT(梯度提升决策树)、XGBoostXGBoost使用、调参 二、主要知识点 GBDT:参考这里 简单来说,就是所有树的结果相加等于预测值,然后下一棵树继续拟合误差函数对预测值的残差(预测值与真实值之间的误差),直到得到真实值。梯度提升:参考这里 XGBoost:参考这里