学习Gini指数
学习回归、分类树
剪枝
1、学习Gini指数
基尼指数
分类问题中,假设有
个类,样本点属于第
类的概率为
,则概率分布的基尼指数为:
对于给定样本集合
,其基尼指数为:
如果样本集合
根据特征
是否取一可能值
被分割成 和
两部分,则在特征
的条件下,集合
的基尼指数为:
使用基尼指数的优点:计算快,因为熵会涉及到大量的对数运算
2、学习分类与回归树
分类与回归树(CART)同样由特征选择、树的生成及剪枝组成,既可以用于分类也可以用于回归。
回归树生成
假设使用平方误差来表示回归树对于训练数据的预测误差
通俗理解:每次遍历所有特征,然后遍历每个特征的所有可能取值,在遍历的过程中每次计算把每个值当做切分点(此时数据集会分成两部分)时总体的平方误差之和,找出使其最小的取值,进行划分,以此类推。
输入:训练数据集D
输出:回归树
-
选择使下式达到最小值时的最优切分遍历
和切分值 
![\min _{j, s}\left[\min _{c_{1}} \sum_{x_{i} \in R_{1}(j, s)}\left(y_{i}-c_{1}\right)^{2}+\min _{c_{2}} \sum_{x_{i} \in R_{2}(j, s)}\left(y_{i}-c_{2}\right)^{2}\right]](https://i-blog.csdnimg.cn/blog_migrate/382f66da908170ac64357f92cfb8684b.png)
-
用选定的
,划分数据集并决定其相应的输出值

- 对子集继续执行上述两个步骤,直到满足停止条件
- 将输入空间划分为M个区域
,生成决策树:

CART剪枝
核心思想:首先从生成算法产生的决策树
低端开始不断剪枝,知道
的根节点,形成一个子树序列
;然后通过交叉验证法在独立的验证数据集上对子树序列进行预测从中选择最优子树
核心计算:
从整体树
开始剪枝,对
的任意内部节点
, 以
为单结点树的损失函数为:
以
为根节点的子树
的损失函数为:
当
及其充分小时,有不等式:
当
增大时,在某一
有:
当
再增大时,上述不等式反向,只要
,
与
有相同的损失函数值,而
的结点少,因此
比
更可取,对
进行剪枝
输入:CART算法生成的决策树
输出:最优决策树
-
自上而下地对各内部节点
计算下式,然后使
等于最小的
值
-
自上而下地遍历内部节点
,如果有
,进行剪枝,并对叶节点
以多数表结法决定其类,得到树 
-
对树
重复上述操作,将得到一个子树序列 -
采用交叉验证法在子树序列中选取最优子树
参考:
链接:1、https://www.jianshu.com/p/b22f119e3ab1
本文聚焦机器学习,介绍了Gini指数,其在分类问题中计算快,避免了熵的大量对数运算。还阐述了分类与回归树(CART),包括回归树生成,通过遍历特征和取值找最小平方误差划分数据集,以及CART剪枝,用交叉验证选最优子树。

562

被折叠的 条评论
为什么被折叠?



