lightgbm.train和首参params

Parameters

scikit-learn doesn’t support ranking applications yet, therefore this class is not really compatible with the sklearn ecosystem. Please use this class mainly for training and applying ranking models in common sklearnish way.
__init__(boosting_type='gbdt', num_leaves=31, max_depth=-1, learning_rate=0.1, n_estimators=100, subsample_for_bin=200000, objective=None, class_weight=None, min_split_gain=0.0, min_child_weight=0.001, min_child_samples=20, subsample=1.0, subsample_freq=0, colsample_bytree=1.0, reg_alpha=0.0, reg_lambda=0.0, random_state=None, n_jobs=None, importance_type='split', **kwargs)
boosting_type (str, optional (default='gbdt')) –'gbdt', 传统的梯度提升决策树。 'dart',则 Dropouts 遇到多重加法回归树。 'rf', 随机森林。.

num_leaves (int, optional (default=31)) – 基础学习器的最大树叶数.
max_depth (int, optional (default=-1)) –  基础学习器的最大树深度,<=0 表示没有限制。 如果将此值设置为正值,则还考虑更改为 。.
learning_rate (float, optional (default=0.1)) – 提高学习率。 您可以使用方法的参数来缩小/调整学习率 在使用回调进行训练中。 请注意,这将忽略训练中的参数
n_estimators (int, optional (default=100)) – 要拟合的提升树数.
subsample_for_bin (int, optional (default=200000)) – 用于构建 bin 的样本数.
objective (str, callable or None, optional (default=None)) – S指定学习任务和相应的学习目标,或者 要使用的自定义目标函数(请参阅下面的注释)。 默认值:LGBMRegressor 为 'regression',LGBMClassifier 为 'binary' 或 'multiclass',LGBMRanker 为 'lambdarank
class_weight (dict, 'balanced' or None, optional (default=None)) – 与表单中的类关联的权重。 此参数仅用于多类分类任务; 对于二元分类任务,您可以使用 OR 参数。 请注意,使用所有这些参数将导致对各个类概率的估计值不佳。 您可能需要考虑执行概率校准 (https://scikit-learn.org/stable/modules/calibration.html) 的模型。 “平衡”模式使用 y 的值来自动调整权重 与输入数据中的类别频率成反比,为 。 如果为 None,则所有类的权重都应该为 1。 请注意,这些权重将相乘(通过该

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值