随机森林(RF)

本文介绍了随机森林(RF)的概念,包括其基于决策树的构建过程和优缺点。通过实例展示了如何使用Python的sklearn库实现RF算法,并对比了单棵决策树的表现。随机森林在处理不平衡数据集和特征缺失时表现出优势,常用于分类、回归、聚类和异常检测任务。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

目录

RF概念

RF算法流程

RF算法的优缺点

RF算法使用实现

RF应用

RF概念

随机森林指的是利用多棵树对样本进行训练并预测的一种分类器 决策树的详解见链接决策树---ID3算法、C4.5算法、CART算法_xiaoming1999的博客-优快云博客

RF = 决策树+bagging+随机属性选择

RF算法流程

  1. 样本的随机:从样本集中用bagging的方式,随机选择n个样本。
  2. 特征的随机:从所有属性d中随机选择k个属性(k<d),然后从k个属性中选择最佳分割属性作为节点建立CART决策树。
  3. 重复以上两个步骤m次,建立m棵CART决策树。
  4. 这m棵CART决策树形成随机森林,通过投票表决结果,决定数据属于哪一类。

RF算法的优缺点

优点:

  1. 不用做特征选择
  2. 它可以判断特征的重要程度
  3. 可以判断出不同特征之间的相互影响
  4. 对于不平衡的数据集来说,它可以平衡误差。
  5. 如果有很大一部分的特征遗失,仍可以维持准确度。

缺点:

  1. 随机森林已经被证明在某些噪音较大的分类或回归问题上会过拟合。
  2. 对于有不同取值的属性的数据,取值划分较多的属性会对随机森林产生更大的影响,所以随机森林在这种数据上产出的属性权值是不可信的

RF算法使用实现

from sklearn import tree
from sklearn.model_selection import train_test_split
from sklearn.ensemble import RandomForestClassifier
import numpy as np
import matplotlib.pyplot as plt
%matplotlib inline


#载入数据
data = np.genfromtxt("LR-testSet2.txt",delimiter=',')
x_data = data[:,:-1]
y_data = data[:,-1]

plt.scatter(x_data[:,0],x_data[:,1],c=y_data)
plt.show()

#划分数据
x_train,x_test,y_train,y_test = train_test_split(x_data,y_data,test_size = 0.5)

#画图函数
def plot(model):
    #获取数据值所在的范围
    x_min,x_max = x_data[:,0].min()-1,x_data[:,0].max()+1
    y_min,y_max = x_data[:,1].min()-1,x_data[:,1].max()+1
    
    #生成网格矩阵
    xx,yy = np.meshgrid(np.arange(x_min,x_max,0.02),
                       np.arange(y_min,y_max,0.02))
    
    z = model.predict(np.c_[xx.ravel(),yy.ravel()])
    z = z.reshape(xx.shape)
    
    #等高线图
    cs = plt.contourf(xx,yy,z)
    #画散点图
    plt.scatter(x_test[:,0],x_test[:,1],c=y_test)
    plt.show()
#只用决策树
dtree = tree.DecisionTreeClassifier()
dtree.fit(x_train,y_train)
plot(dtree)

#用随机森林
RF = RandomForestClassifier(n_estimators = 100)
RF.fit(x_train,y_train)
plot(RF)
RF.score(x_test,y_test)
dtree.score(x_test,y_test)

结果显示如下

决策树结果:                                              随机森林结果:

 在一般情况下随机森林一般准确性比较高一些,但也不排除其他情况,随机森林的结果可能很差。

RF应用

  1. 对离散值的分类
  2. 对连续值的回归
  3. 无监督学习聚类
  4. 异常点检测
### 关于随机森林 (Random Forest, RF)算法原理及应用 #### 随机森林概述 随机森林是一种基于集成学习(ensemble learning)思想的监督学习方法,它通过构建多个决策树并汇总其预测结果来进行分类或回归任务。该模型不仅能够提高准确性还能有效防止过拟合现象的发生[^1]。 #### 构建过程 在创建每一棵子树之前,会利用自助法(Bootstrap Sampling)从未标记的数据集中抽取样本集作为训练数据;对于特征选择,则采用随机抽样的方式减少各棵树之间的相关性从而增强整体性能表现。具体来说,在节点分裂时只考虑部分输入变量而不是全部参与计算最佳切分点的位置[^2]。 #### 工作机制 当给定一个新的观测值用于预测类别标签或者连续数值目标变量的时候,RF 将这个实例传递给所有的个体成员即单棵 CARTs (Classification And Regression Trees),最后综合所有基估计器给出的结果得到最终输出:如果是分类问题则取多数投票决定所属类目;若是回归分析则是求平均值得到预期响应值[^3]。 ```python from sklearn.ensemble import RandomForestClassifier clf = RandomForestClassifier(n_estimators=100) clf.fit(X_train, y_train) y_pred = clf.predict(X_test) ``` #### 应用场景 由于具备良好的泛化能力和鲁棒性的特点使得 RandomForests 广泛应用于各个领域当中比如金融风险评估、医疗诊断辅助系统以及图像识别等领域都取得了不错的效果。此外还经常被用来处理高维稀疏矩阵类型的数据集因为它可以自动忽略那些不重要的属性而专注于真正有贡献的因素之上。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值