决策树(Decision tree)

本文深入浅出地介绍了决策树算法中的两个核心概念:熵和信息增益。通过数学公式详细解释了如何使用熵来衡量样本的纯度,以及如何利用信息增益来评估特征的重要性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

决策树(Decision tree)

若干重要定义:
1. 用定义样本纯度

Entropy(S)=P+log2P+Plog2P

参数:S为样本。
公式解释:P+为样本中正例数P为样本中负例数

2.用熵定义信息增益

Gain(S,A)=Entropy(S)vValues(A)|Sv||S|Entropy(Sv)

参数:S为样本,A为样本测试属性。
公式解释:v为测试属性有的值,Sv为满足某一测试属性的样本子集。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值