决策树在每次迭代中寻找数据集的最优划分方式(评估划分方式的模型可供选择)
选择模型对应的最优划分之后,创建分支(分支个数也可以调整)
每个分支的判别通常是: 例如 人的体重大于多少,小于多少。
决策树最后会得到一个特征空间中很多个立方体式的空间分隔,K-Means是球状,而线性判别决策树是方形。(但它们都聚集在了一个局部)
没有直观感受的同学可以看一下这个博客中的图 https://www.jianshu.com/p/fff29251a13c
K-Means由于是无监督学习,所以也只能得到聚合属性的无监督分类,而决策树是有监督型,所以对于同一个类别,它可以得到空间中的多个球状分布。
Q: 空间内分布的复杂度与决策树的复杂度的关系是怎么样的?
A: 我认为有几点,第一对于一个特征空间,分布在一个连通空间内的不规则性(越不像矩形越不规则)越大,决策树的复杂度会上升的很快,第二是在特征空间中,一个分布的非连通空间的数量越多,决策树的复杂度也会加快上升。
神经网络的一个优越性就是体现在非线性拟合,可以使得各个类别在特征空间中的边界不是一条直线,而是各种各样扭曲的线条。