打*参数为重要
XGBClassifier(
1.silent=0#设置成1则没有运行信息输出,默认为0.是否在运行时打印消息
2.*learning_rate=0.1#学习率,过大收敛不了,小了收敛慢
3.*min_child_weight=1#叶子里面h的和,h就是二阶导不清楚的看看xgboost原理,该参数越小越容易过拟合
4.*max_depth=6, # 构建树的深度,越大越容易过拟合,可以用CV函数来进行调优
5.gamma=0, # 树的叶子节点上作进一步分区所需的最小损失减少,越大越保守,一般0.1、0.2这样子
6.subsample=1, # 随机采样训练样本 训练实例的子采样比,典型值的范围在0.5-0.9之间。
7.max_delta_step=0,#最大增量步长,我们允许每个树的权重估计
8.colsample_bytree=1, # 生成树时进行的列采样 同subsample,一般在0.5-0.9
9.reg_lambda=1#控制模型复杂度的权重值的L2正则化项参数,越大越不容易过拟合
10.reg_alpha=0, # L1 正则项参数
11.n_estimators=100, #树的个数
12.objective= ‘multi:softmax’, #多分类的问题 指定学习任务和相应的学习目标
13.num_class=10, # 类别数,多分类与 multisoftmax 并用
14.seed=1000 #随机种子
15.scale_pos_weight=1, #如果取值大于0的话,在类别样本不平衡的情况下有助于快速收敛。平衡正负权重
16.nthread=4,# cpu 线程数 默认最大,没事你就别管他了
xgboost.XGBClassifier参数
最新推荐文章于 2024-09-08 21:55:53 发布
本文详细解析了XGBoost算法的各个关键参数,包括学习率、树深度、正则化等,阐述了它们如何影响模型的性能和防止过拟合。适合机器学习爱好者和数据科学家阅读。
2589

被折叠的 条评论
为什么被折叠?



