第八章集成学习——周志华

本文详细介绍了集成学习中的Adaboost算法和随机森林的工作原理。Adaboost通过调整样本权重提升弱学习器性能,随机森林则利用多数投票实现模型集成。同时讨论了Bagging的优势及其对泛化性能的影响。

(1) Adaboost算法怎么工作?

Adaboost算法思想:一个弱学习器提升为强学习器的算法。先从初始的训练集训练出一个基学习器,再根据基学习器的表现对训练样本分布进行调整,使得

先前基学习器做错的训练样本能在后续中得到更多的关注,然后基于调整后的样本分布来训练下一个基学习器。

流程叙述:训练数据中的每个样本,并赋予其一个权重,这些权重构成了向量D。开始时,这些权重都初始化为相等值。首先在训练数据上训练出一个弱分类器并计算该分类器的错误率,然后在同一数据集上再次训练弱分类器。在分类器的第二次训练中,将会重新调整每个样本的权重,其中第一次分对的样本的权重将会降低,而第一次分错的样本的权重会提高。


(2) Adaboost权值怎么影响模型训练?

    通过改变带权的损失函数


(3) 随机森林怎么训练,怎么集成?

随机选取k个属性,再进行决策树训练,集成是多数投票。


(4) Bagging有什么优点?

可以无修改适应其他任务。


(5)从哪里提高泛化性能?

abaBoost是基于错误来提升分类器的性能的。
Bagging是基于“自助采样法”来提升分类器的性能的。p179页说到,由于每个基学习器只使用了初始的训练集中大概63.2%的样本,剩下的36.8%的样本可作为验证集来对泛化性能进行“外包估计”,可以使用包外样本来辅助剪枝。从而可以提高了泛化性能吧。

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值