决策树常用于解决分类问题,决策树算法就是根据训练数据集,通过一系列的测试问题,从而完成对输出分类目标的进行划分,
他首先有一个根节点(只出不进),然后再有很多的内部节点(一入两出),内部节点(只进不出),再到叶子节点及对于任意一个样本数据,有且只有一条规则,与其一一对应,并可以最终输出分类结果,这就是决策树。
决策树如果要利用的话,有两个步骤,分别是决策树的生长与决策树的剪枝,决策树的生长就是为决策树提供充足的判断条件(提高纯度),减枝则是防止过拟合问题。
划分结束条件一般如下,子集中所有样本都属于统一类别,不需要再进行划分。所有样本的属性一样,继续划分也不能改善结果
过拟合问题在决策树中是十分严重的,我们要想办法对其进行削减,一般而言,决策树的剪枝可以分为预减枝后减枝,预减枝主要是通过增加生长的限制条件来防止过拟合的出现。后减枝则是在决策树生长充分之后再通过一定标准对决策树的一些分支进行修剪,而达到防止过拟合的效果。
决策树
c5.0节点
我们使用这个可以实现决策树在字段,选项卡选择预定义角色。
在模型选项卡中使用分区数据,如果使用的分区节点或预定义分割分区字段,就可以使用分区数据为每个分割构建模型。如果在类型节点把某字段的角色设置为拆分模型,将会为该字段下的每一个单独分割出一个模型及如果存在五个水平,然后他定义为拆分字段,那么将会针对五个水平建立五个独立的模型输出模型。
输出类型设定结果的生成方式包括决策树和规则集。决策树则会生成树状结果。规则集则会生成规则分类结果。组符号,算