决策树与PAC学习:原理、应用与分析
1. 决策树相关问题
决策树在机器学习中是一种常用的分类工具,下面将探讨与之相关的几个问题。
- 决策树规则转换与测试移除 :从给定的决策树中选择一个,将其转换为一组规则。然后挑选其中一条规则,确定移除哪些测试能使估计误差的增加最小。这需要对决策树的结构和规则有深入理解,通过分析不同测试对分类结果的影响来做出决策。
- 连续属性的最佳二元分割 :考虑一组包含十个训练示例的数据集,其中有一个连续属性,其值分别为3.6、3.2、1.2、4.0、0.8、1.2、2.8、2.4、2、2、1.0。假设前五个示例和最后一个示例为正例,其余为负例。要找到该属性值范围的最佳二元分割,可按以下步骤进行:
1. 对属性值进行排序:0.8、1.0、1.2、1.2、2、2、2.4、2.8、3.2、3.6、4.0。
2. 尝试不同的分割点,计算每个分割点下的分类误差。
3. 选择分类误差最小的分割点作为最佳二元分割点。
2. 决策树性能思考
在评估决策树时,通常使用错误率和树的大小(节点数量)作为基线性能标准。然而,在某些领域,这些标准可能并不适用。以下是一些相关思考:
- 决策树大小或错误率不太重要的应用场景 :在一些对决策成本和属性值获取成本有特殊考量的应用中,决策树的大小或错误率可能不是关键因素。例如,在医疗诊断中,获取某些属性值(如昂贵的检查)成本很高,此时可能更关注决策的准确性而非决策树的大小;而在一些实时性要求高的场景中,决策速度更为重要,决策树的大小可能会影响决策速度,但此时错误
超级会员免费看
订阅专栏 解锁全文
27

被折叠的 条评论
为什么被折叠?



