关于决策树算法更多的讨论

决策树在每次迭代中寻找数据集的最优划分方式(评估划分方式的模型可供选择)

选择模型对应的最优划分之后,创建分支(分支个数也可以调整)

每个分支的判别通常是: 例如 人的体重大于多少,小于多少。

决策树最后会得到一个特征空间中很多个立方体式的空间分隔,K-Means是球状,而线性判别决策树是方形。(但它们都聚集在了一个局部)

没有直观感受的同学可以看一下这个博客中的图 https://www.jianshu.com/p/fff29251a13c

 

K-Means由于是无监督学习,所以也只能得到聚合属性的无监督分类,而决策树是有监督型,所以对于同一个类别,它可以得到空间中的多个球状分布。

Q: 空间内分布的复杂度与决策树的复杂度的关系是怎么样的?

A: 我认为有几点,第一对于一个特征空间,分布在一个连通空间内的不规则性(越不像矩形越不规则)越大,决策树的复杂度会上升的很快,第二是在特征空间中,一个分布的非连通空间的数量越多,决策树的复杂度也会加快上升。

 

神经网络的一个优越性就是体现在非线性拟合,可以使得各个类别在特征空间中的边界不是一条直线,而是各种各样扭曲的线条。

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值