1 信息论基础
决策树我们都知道它的样子,就像树一样一级一级的细分,正如西瓜树上的图示
在构造决策树时,遇到的第一个问题就是,当前数据集上哪个特征在划分数据分类时起决定作用。为了找到决定性的特征,划分出最好的结果,我们要评估每个特征。怎么来评估这些特征,这就需要先了解一些概念
熵(entropy)是表示随机变量不确定性的度量,熵越大,随机变量的不确定性越大。
熵定义为
条件熵:条件熵H(Y|X)表示在已知随机变量X的条件下随机变量Y的不确定性。
信息增益:
信息增益表示得知特征X的信息而使得类Y的信息的不确定性减少程度
基尼指数:
基尼指数Gini(D)表示集合D不确定性,基尼指数Gini(D,A=a)表示集合D经A=a分割后的不确定性(类似于熵),基尼指数越小,样本的不确定性越小。
基尼指数定义为