【数据挖掘】【笔记】之sklearn.ensemble

本文介绍了ensemble methods的概念,包括降低方差的averaging methods,如Bagging、随机森林和极端随机树。Bagging通过随机子数据集训练模型,随机森林在特征选择上引入随机性,而极端随机树则在决策树划分点上采用随机策略。调参时,主要关注基础模型的数量和每个模型的复杂度,寻找方差和偏差之间的平衡。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

ensemble methods

组合几个不同的模型结果以增强泛化能力和鲁棒性。

  • In averaging methods, 原则是建立几个独立的模型,对结果取均值,可以降低方差(取均值可降低方差的原因:平均可以平滑曲线

    Examples: Bagging methods, Forests of randomized trees, …

  • By contrast, in boosting methods, 基础模型相继建立,后续模型建立的标准是降低上一模型的偏差。是一系列弱学习器的组合,

    Examples: AdaBoost, Gradient Tree Boosting, …

bagging meta-estimator

一组算法在随机生成的子数据集中训练并产生预测,然后把单独的预测组合成最后的预测。用来降低基础模型的方差。

bagging强且复杂的模型效果明显,相反的boosting适合处理弱学习器。

bagging主要依照划分训练集的方法分类:
- 随机划分数据集:Pasting
- 有放回的划分样本:Bagging
- 依照特征的随机划分:Subspaces
- 随机的样本和特征划分:Random Patches

  • max_samplesmax_features(依据样本和特征)控制子数据集的大小。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值