以下是梯度提升决策树(GBDT)中常用参数的大致调节范围:
n_estimators
: (树的数量)一般在50到200之间,可以根据数据集的大小和复杂度进行调节。learning_rate
: (学习率)一般在0.01到0.1之间,可以尝试不同的学习率来控制模型的收敛速度。控制每棵树的贡献。一般与n_estimators
一起调优。max_depth
:(每棵树的最大深度) 一般在3到10之间,可以根据数据集的复杂度和特征数量来调节。min_samples_split
:(节点分裂所需的最小样本数) 一般在2到20之间,可以根据数据集的样本数量来调节。min_samples_leaf(
叶子节点所需的最小样本数)
: 一般在1到10之间,可以根据数据集的样本数量和噪声情况来调节。subsample
:(每棵树的样本采样比例) 一般在0.5到1之间,可以尝试不同的子采样比例来控制模型的方差。
以上范围仅供参考,实际调节时可以根据具体情况进行微调。在进行网格搜索时,可以选择合适的参数范围来搜索最佳的参数组合。