决策树-集成学习(bagging,boosting)-经典算法(RF,iForest,GBDT,XGboost,Adaboost)

决策树

在这里插入图片描述

构建步骤

1、计算当前决策节点的混乱程度。
2、列举决策属性,分别计算按每一个决策属性决策的情况下熵值的大小。
3、计算信息增益:Entropy(决策之前)-Entropy(决策之后),选择信息增益最大的属性作为优先决策属性。
4、递归循环上述步骤,直到决策树达到停止生长的条件为止,即每个叶子节点均只有一类数据。

集成学习总的来说可以分为如下两种:

1.基于Bagging, 代表算法:随机森林,iForest
Bagging算法是指每一个弱学习器之间不存在强依赖关系,可以并行生成。

2.基于Boosting,代表算法:Adaboost、GBDT、XGBOOST.
Boosting 算法是指每一个弱学习器之间存在强依赖关系,是串行生成的。
在这里插入图片描述

Baggiing

在这里插入图片描述

bagging算法的流程:

输入为样本集D={(x,y1),(x2,y2),...(xm,ym)}ÿ
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值