XGBoost模型训练和优化实践

文章讲述了使用XGBoost模型预测搜索量的过程,初始随机森林表现不佳,通过参数调优(如max_depth、n_estimators等)优化XGBoost模型,最终优化后的MSE降低,R²提高到0.7554。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

XGBoost,这是一种高效且广泛使用的梯度提升框架。XGBoost(Extreme Gradient Boosting)在多种数据集上都表现出色,特别适合处理复杂的非线性关系。

(随机森林回归模型来预测搜索量,效果稀烂。在大佬推荐下,尝试XGBoost模型)

import pandas as pd
import xgboost as xgb
from sklearn.model_selection import train_test_split
from sklearn.metrics import mean_squared_error, r2_score

# 加载数据
file_path = '您的文件路径.csv'  # 请替换成您的文件路径
df = pd.read_csv(file_path, encoding='GB18030')

# 选择特征和目标变量
feature_cols = ['关键词销量', '转化率', 'Cerebro IQ 得分']
target_col = '搜索量'

# 数据预处理:转换非数值型特征和处理缺失值
df[feature_cols] = df[feature_cols].apply(pd.to_numeric, errors='coerce')
df = df.dropna(subset=feature_cols + [target_col])

# 划分特征和目标变量
X = df[feature_cols]
y = df[target_col]

# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)

# 创建 XGBoost 模型
xg_reg = xgb.XGBRegressor(objective ='reg:squarederror', colsample_bytree = 0.3, learning_rate = 0.1,
                          max_dept
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值