CART算法
CART假设决策树是二叉树,内部结点特征的取值为“是”和“否”。左分支“是”,右分支“否”。
与ID3和C4.5只有决策树的生成不同的是,CART算法由以下两步组成:
(1)决策树生成:基于训练数据集生成一棵尽量大的决策树。
(2)决策树剪枝:用验证数据集对已生成的树进行剪枝并选择最优子树,这时用损失函数最小作为剪枝的标准。
对回归树用平方误差最小化准则;对分类树用基尼指数最小化准则。生成二叉决策树。
1. CART生成算法
2. CART剪枝算法
CART剪枝算法流程

CART剪枝算法解析( 超详细 )
① 在剪枝的过程中,要计算子树的损失函数,而计算子树的损失函数与之前相比稍加调整:

其中,T为任意的子树,C(T)为对训练数据的预测误差(如基尼指数、平方误差),|T| 为子树 T 的叶结点的个数,Cα(T)是子树整体的损失函数。
其中α为非负数,它权衡着模型对

本文深入解析CART算法,包括决策树生成与剪枝过程。CART算法通过基尼指数或平方误差最小化准则生成二叉决策树,采用损失函数进行剪枝,平衡模型复杂度与拟合度。
最低0.47元/天 解锁文章
8万+





