决策树之算法CART(二)

本文介绍了CART(Classification and Regression Tree)决策树算法,详细讲述了条件Gini系数的计算,以及CART决策树的构建步骤和剪枝过程。通过实例展示了如何计算Gini和条件Gini,并解释了为何选择Gini最小的特征进行划分。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >


参考: https://www.processon.com/view/link/63637c0d7d9c084cafb49cfe

前言

上节中,我们已经实现了基础的信息增熵算法, 接下来我们学习下关于CART(Classification and Regression Tree

Cart

cart 就是根据gini 系数, 数据的混乱程度来进行划分, gini系数越小,代表同类的可能性越大,越有利于划分为同类。

计算公式:
在这里插入图片描述
在这里插入图片描述
其中, Ck为样本类的个数, D为样本总数

可以发现, 样本类数越多, gini

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

东哥aigc

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值