决策树与XGBOOST

本文详细介绍了决策树的定义,包括ID3、C4.5、CART三种构建算法,以及决策树的构建过程,涉及分裂与剪枝策略。同时,讨论了信息增益、基尼值等重要概念,并对比了ID3、C4.5、CART的优缺点。最后,文章深入探讨了XGBOOST的公式推导、正则化、并行化特点及其与深度学习的关系。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1. 决策树定义(决策树的构建算法主要有ID3、C4.5、CART三种,其中ID3和C4.5是分类树,CART是分类回归树)
理解树,就需要理解几个关键词:根节点、父节点、子节点和叶子节点。
在这里插入图片描述
决策树利用如上图所示的树结构进行决策,每一个非叶子节点是一个判断条件,每一个叶子节点是结论。
实质上就是在用特征维度对样本空间进行划分。假设树为二叉树,通过不断将特征进行分裂。比如当前树结点是基于第j个特征值进行分裂的,设该特征值小于s的样本划分为左子树,大于s的样本划分为右子树。
2. 决策树的构建
两步:分裂与剪枝
分裂:
1)数据分割:
分裂属性的数据类型分为离散型和连续性两种情况。
离散型的数据——按照属性值进行分裂,每个属性值对应一个分裂节点;
连续性的数据——是对数据按照该属性进行排序,再将数据分成若干区间,如[0,10]、[10,20]、[20,30]…,一个区间对应一个节点,若数据的属性值落入某一区间则该数据就属于其对应的节点。
2)分裂属性的选择贪婪思想(即选择可以得到最优分裂结果的属性进行分裂。)
每次尝试对自己已有叶子加一个分割,遍历所有分割,选择变化量最大的作为最合适的分割。(因为希望每一次分裂之后子节点的数据尽量””,所以下图选择属性2 分裂)
在这里插入图片描述
决策

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值