2015年Kaggle竞赛中,29支挑战成功队伍,有17支使用XGBoost。第二流行的方式是深度神经网络,有11支队伍使用。
scalability,可伸缩性,可在单机运行,也可在分布式系统和内存限制的系统运行。
创新点:
• We design and build a highly scalable end-to-end tree
boosting system.
• We propose a theoretically justified weighted quantile
sketch for efficient proposal calculation.
• We introduce a novel sparsity-aware algorithm for parallel tree learning.
• We propose an effective cache-aware block structure for out-of-core tree learning.
在2015年的Kaggle竞赛中,XGBoost成为最流行的机器学习算法,被17支获胜队伍采用,超过第二名深度神经网络。XGBoost的创新包括高度可伸缩的端到端树提升系统、加权分位数草图、稀疏性感知并行树学习算法及有效的缓存感知块结构。
1788

被折叠的 条评论
为什么被折叠?



