利用BayesianOptimization库对模型进行贝叶斯调参(XGBOOST)

本文介绍了一种基于贝叶斯优化的XGBoost参数优化方法。通过定义目标函数并设置参数搜索空间,利用贝叶斯优化算法寻找最优参数组合。具体步骤包括构建目标函数、设定参数范围及迭代次数,并应用最优参数训练模型。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

步骤:
1.构建目标函数(贝叶斯优化的目标函数)

构建目标函数

目标函数(参数优化最大化的函数):-1*mse,使用10折交叉验证(cross_val_score),
取10次的平均MSE作为最终目标函数.
def xgb_cv(max_depth, learning_rate, n_estimators, min_child_weight, subsample, colsample_bytree, reg_alpha, gamma):
    val = cross_val_score(estimator=XGBRegressor(max_depth=int(max_depth),
                                                 learning_rate=learning_rate,
                                                 n_estimators=int(n_estimators),
                                                 min_child_weight=min_child_weight,
                                                 subsample=max(min(subsample, 1), 0),
                                                 colsample_bytree=max(min(colsample_bytree, 1), 0),
                                                 reg_alpha=max(reg_alpha, 0), gamma=gamma, objective='reg:squarederror',
                                                 booster='gbtree',
                                                 seed=888), X=x_train, y=y_train, scoring='neg_mean_squared_error',
                          cv=10).mean()
    return val

参数优化

pbounds:参数搜索空间
n_iter:迭代次数,init_points:随机多样性

默认实数范围内搜索

xgb_bo = BayesianOptimization(xgb_cv, pbounds={'max_depth': (1, 10),
                                               'learning_rate': (0.01, 0.3),
                                               'n_estimators': (1, 1000),
                                               'min_child_weight': (0, 20),
                                               'subsample': (0.001, 1),
                                               'colsample_bytree': (0.01, 1),
                                               'reg_alpha': (0.001, 20),
                                               'gamma': (0.001, 10)})
xgb_bo.maximize(n_iter=100, init_points=10)

利用最优参数拟合模型

由于前面int不起作用,对整数参数进行取整

xgb_bo.max['params']:存储最佳参数的字典
params = xgb_bo.max['params']
xgb1 = XGBRegressor(gamma=params['gamma'], colsample_bytree=params['colsample_bytree'],
                    learning_rate=params['learning_rate'],
                    max_depth=int(params['max_depth']), min_child_weight=params['min_child_weight'],
                    n_estimators=int(params['n_estimators']),
                    reg_alpha=params['reg_alpha'], subsample=params['subsample'],
                    objective='reg:squarederror',
                    booster='gbtree',
                    n_jobs=4)

参考:
强大而精致的机器学习调参方法:贝叶斯优化
具有贝叶斯优化的XGBoost和随机森林
fmfn/BayesianOptimization
调参神器贝叶斯优化(bayesian-optimization)实战篇

### 关于 UniApp 框架的推荐资源与教程 #### 1. **Uniapp 官方文档** 官方文档是最权威的学习资料之一,涵盖了从基础概念到高级特性的全方位讲解。对于初学者来说,这是了解 UniApp 架构和技术细节的最佳起点[^3]。 #### 2. **《Uniapp 从入门到精通:案例分析与最佳实践》** 该文章提供了系统的知识体系,帮助开发者掌握 Uniapp 的基础知识、实际应用以及开发过程中的最佳实践方法。它不仅适合新手快速上手,也能够为有经验的开发者提供深入的技术指导[^1]。 #### 3. **ThorUI-uniapp 开源项目教程** 这是一个专注于 UI 组件设计和实现的教学材料,基于 ThorUI 提供了一系列实用的功能模块。通过学习此开源项目的具体实现方式,可以更好地理解如何高效构建美观且一致的应用界面[^2]。 #### 4. **跨平台开发利器:UniApp 全面解析与实践指南** 这篇文章按照章节形式详细阐述了 UniApp 的各个方面,包括但不限于其工作原理、技术栈介绍、开发环境配置等内容,并附带丰富的实例演示来辅助说明理论知识点。 以下是几个重要的主题摘选: - **核心特性解析**:解释了跨端运行机制、底层架构组成及其主要功能特点。 - **开发实践指南**:给出了具体的页面编写样例代码,展示了不同设备间 API 调用的方法论。 - **性能优化建议**:针对启动时间缩短、图形绘制效率提升等方面提出了可行策略。 ```javascript // 示例代码片段展示条件编译语法 export default { methods: { showPlatform() { console.log(process.env.UNI_PLATFORM); // 输出当前平台名称 #ifdef APP-PLUS console.log('Running on App'); #endif #ifdef H5 console.log('Running on Web'); #endif } } } ``` #### 5. **其他补充资源** 除了上述提到的内容外,还有许多在线课程视频可供选择,比如 Bilibili 上的一些免费系列讲座;另外 GitHub 和 GitCode 平台上也有不少优质的社区贡献作品值得借鉴研究。 --- ###
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值