机器学习中的集成学习与降维技术
1. 梯度提升与XGBoost
梯度提升可以与其他成本函数一起使用,这可以通过损失超参数来控制。在流行的Python库XGBoost中,有梯度提升的优化实现。XGBoost即极限梯度提升,最初由陈天奇作为分布式(深度)机器学习社区(DMLC)的一部分开发,它旨在实现极快的速度、可扩展性和可移植性,并且常是机器学习竞赛获胜方案的重要组成部分。
XGBoost的API与Scikit - Learn的非常相似,以下是使用示例:
import xgboost
xgb_reg = xgboost.XGBRegressor()
xgb_reg.fit(X_train, y_train)
y_pred = xgb_reg.predict(X_val)
XGBoost还提供了一些不错的特性,比如自动处理提前停止:
xgb_reg.fit(X_train, y_train,
eval_set=[(X_val, y_val)], early_stopping_rounds=2)
y_pred = xgb_reg.predict(X_val)
2. 堆叠集成学习
堆叠(stacking)是一种集成方法,其核心思想是训练一个模型来聚合集成中所有预测器的预测结果,而非使用简单的函数(如硬投票)。
训练堆叠模型的常见方法是使用保留集,具体步骤如下:
1. 将训练集拆分为两个子集,第一
超级会员免费看
订阅专栏 解锁全文
17万+

被折叠的 条评论
为什么被折叠?



