3 决策树

本文探讨了无环自动状态机的应用、属性对描述事件的重要性、析取式逻辑表达及其在存在错误数据和缺失值情况下的处理。重点介绍了ID3算法如何通过选择分类性能最佳属性构建决策树,并讨论了其偏见、信息增益及其与奥坎姆剃刀原则的关系。此外,文章对比了ID3与C4.5算法的区别,后者将决策树转换为规则集,并强调了避免过度拟合的方法,如对低频节点的评估和剪枝。最后,文章还涉及了数据补全策略,包括全局、局部和概率化方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

类似无环的自动状态机。

适用离散目标函数;实例是通过属性值对描述事件的;析取式;可以有错误数据;可以缺值。

代表实例属性约束的合取的析取式,是完整空间。和第二章的概念学习区别,这个是多可能发散分类,概念学习是限定范围,所以一个析取一个合取。

算法四:ID3,使用分类性能最佳(信息增益最大)的属性作为root,使用除去当前属性的子集递归建树至可以确定目标函数值。有偏性在于属性是贪心选出的,可能不同的顺序带来不同的结果。叫优选偏置。

信息增益即 使用某属性分类后,样例总熵变小的量。对多值属性有偏向,可以用增益比率来变相归一化(和推荐里惩罚热门类似)。

奥坎姆剃刀:优先选择你和数据的最简单假设。复杂假设规定过细,迁就所有用例,并不一定有真实性。复杂假设是未把属性归类合一的。

过度拟合:对训练用例过度迁就。其实是过多样例破坏了奥坎姆理论。

修正过度拟合,使用对低频节点的评估和剪枝。错误率降低修剪。

算法五:C4.5,最终结果是一系列有序的规则,其中的规则均是决策树中相应规则或其泛化。泛化条件是不降低精度(验证集精度,或训练集用标准差验证)。转化为规则,其实是把属性的优先级去除,形成平等的前件。其实还是在使用奥坎姆剃刀。

数据补全,与贝叶斯的思路类似,三种方法:1、全局的最常见;2、当前分类中的最常见;3、概率化非单值(0.5*a+0.2*b+0.3*c)。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值