回归树是学习树类集成模型(e.g. GBDT)的基础。最后两个证明在GBDT里会用到。CART假设决策树是二叉树 绝对损失这里的证明和平方损失的证明一样。都是对单个节点区域里的损失进行求导的!!!! ⭐ 注:修正一下最后那部分的证明(损失为绝对损失时的证明),直接看下面这个,因为上面我写错了一句话。 绝对损失这里的证明和平方损失的证明一样。都是对单个节点区域里的损失进行求导的!!!!