随机森林(RF)

本文深入探讨了Bagging集成学习的基本流程与优点,以及其扩展变体——随机森林的特性与优势。Bagging通过自助采样和结合多个基学习器来提升泛化性能,而随机森林在此基础上增加了属性扰动,进一步提高了模型的多样性和泛化能力。

Bagging

Bagging基本流程:

  • 采样出TTT个包含mmm个训练样本的采样集
  • 基于每个采样集合训练出一个基学习器
  • 将这些基学习器结合

对于分类任务通常使用简单投票法;回归任务使用简单平均法
优点:

  • 训练一个Bagging集成与直接使用基学习器算法训练一个学习器的复杂度同阶,说明Bagging是一个高效的集成学习算法
  • 与标准的AdaBoost只适用于二分类任务不同,Bagging能不经修改地用于多任务、回归任务
  • 自助采样过程只使用了约63.2%的样本,剩下的36.8%的样本可以用作验证集

随机森林

随机森林是Bagging的一个扩展变体。随机森林在以决策树为基学习器构建Bagging集成的基础上,进一步在决策树的训练过程中引入了随机属性选择。
具体:
传统决策树在选择划分属性时是在当前结点的属性集合(假设有ddd个属性)中选择一个最优属性,而在RF中,对基决策树的每个结点,先从该结点的属性集合中随机选择一个包含kkk个属性的子集,然后再从这个子集中选择一个最优属性用于划分。
这里的参数kkk控制了随机性的引入程度:若令k=dk=dk=d,则基决策树的构建与传统决策树相同;若令k=1k=1k=1,则随机选择一个属性用于划分;一般情况,推荐值k=log2dk=log_2dk=log2d
优点:

  • 随机森林简单、容易实现、计算开销小
  • 随机森林中基学习器的多样性不仅来自样本扰动,还来自属性扰动,这使得最终集成的泛化性能提升

参考:
机器学习(西瓜书)

### 关于随机森林 (Random Forest, RF) 的算法原理及应用 #### 随机森林概述 随机森林是一种基于集成学习(ensemble learning)思想的监督学习方法,它通过构建多个决策树并汇总其预测结果来进行分类或回归任务。该模型不仅能够提高准确性还能有效防止过拟合现象的发生[^1]。 #### 构建过程 在创建每一棵子树之前,会利用自助法(Bootstrap Sampling)从未标记的数据集中抽取样本集作为训练数据;对于特征选择,则采用随机抽样的方式减少各棵树之间的相关性从而增强整体性能表现。具体来说,在节点分裂时只考虑部分输入变量而不是全部参与计算最佳切分点的位置[^2]。 #### 工作机制 当给定一个新的观测值用于预测类别标签或者连续数值目标变量的时候,RF 将这个实例传递给所有的个体成员即单棵 CARTs (Classification And Regression Trees),最后综合所有基估计器给出的结果得到最终输出:如果是分类问题则取多数投票决定所属类目;若是回归分析则是求平均值得到预期响应值[^3]。 ```python from sklearn.ensemble import RandomForestClassifier clf = RandomForestClassifier(n_estimators=100) clf.fit(X_train, y_train) y_pred = clf.predict(X_test) ``` #### 应用场景 由于具备良好的泛化能力和鲁棒性的特点使得 RandomForests 广泛应用于各个领域当中比如金融风险评估、医疗诊断辅助系统以及图像识别等领域都取得了不错的效果。此外还经常被用来处理高维稀疏矩阵类型的数据集因为它可以自动忽略那些不重要的属性而专注于真正有贡献的因素之上。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值