Adaboost 算法API理解

本文详细介绍了AdaBoost算法的两个主要应用:AdaBoostClassifier和AdaBoostRegressor。AdaBoostClassifier用于分类任务,AdaBoostRegressor用于回归任务。文章深入解析了两种算法的参数设置,包括基础估计器、迭代次数、学习率等,帮助读者理解如何根据具体需求调整模型。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

sklearn.ensemble.AdaBoostClassifier 

 

class sklearn.ensemble.AdaBoostClassifier(base_estimator=Nonen_estimators=50learning_rate=1.0algorithm=’SAMME.R’random_state=None)

参数:

base_estimator : object,optional(default = None)

构建增强系综的基础估计器。需要支持样本加权,以及正确 classes_n_classes_属性。如果None,则基本估算器是DecisionTreeClassifier(max_depth=1)

n_estimators : 整数,可选(默认= 50)

提升终止的最大估计数。在完美契合的情况下,学习过程提前停止。

learning_rate : float,optional(默认= 1。)

学习率会缩小每个分类器的贡献 learning_rate。在learning_rate和 之间需要权衡n_estimators

algorithm : {'SAMME','SAMME.R'},可选(默认='SAMME.R')

如果'SAMME.R'则使用SAMME.R真正的增强算法。 base_estimator必须支持类概率的计算。如果'SAMME'则使用SAMME离散增强算法。SAMME.R算法通常比SAMME快收敛,通过较少的增强迭代实现较低的测试误差。

random_state : int,RandomState实例或None,可选(默认=无)

如果是int,则random_state是随机数生成器使用的种子; 如果是RandomState实例,则random_state是随机数生成器; 如果为None,则随机数生成器是由其使用的RandomState实例np.random

 

sklearn.ensemble.AdaBoostRegressor

参数:

base_estimator:object,optional(default = DecisionTreeRegressor)

构建增强系综的基础估计器。需要支持样品加权。

n_estimators:整数,可选(默认= 50)

提升终止的最大估计数。在完美契合的情况下,学习过程提前停止。

learning_rate:float,optional(默认= 1。)

学习率会缩小每个回归量的贡献 learning_rate。在learning_rate和 之间需要权衡n_estimators

损失:{'linear','square','exponential'},可选(默认='线性')

在每次增强迭代后更新权重时使用的损失函数。

random_state:int,RandomState实例或None,可选(默认=无)

如果是int,则random_state是随机数生成器使用的种子; 如果是RandomState实例,则random_state是随机数生成器; 如果没有,随机数生成器所使用的RandomState实例np.random。

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值