XGboost(eXtreme Gradient Boosting)属于有监督学习,是Gradient Boosting模型的一种改进版,在国外的Kaggle,国内的Kesci、天池、DataCastle等平台上的数据比赛中应用十分广泛,更加取得了非常不错的成绩。XGboost在Python、R、Java等多种语言中都有相应的实现版本,一下以Python为例,介绍python环境下xgboost的安装与使用。
XGboost的项目托管在Github上,XGBoost官网介绍了如何在Mac、Linux、Windows三大操作系统下的安装。
在Mac上构建XGboost
方法一:根据官网步骤进行安装
1.编译
libomp
从Homebrew
获取:
brew install libomp
克隆存储库:
git clone --recursive https://github.com/dmlc/xgboost
创建build/
目录并调用 CMake。
mkdir build
cd build
调用 CMake 后,使用以下命令构建 XGBoost make:
cmake ..
make -j4
2.系统级别安装:
cd python-package
sudo python setup.py install
3.删除安装文件
方法二:anaconda依赖版
1.打开anaconda自带的Prompt
anaconda search -t conda xgboost
得到很多可选的库
2.在里面找到可以在64位机器上安装的anaconda py-xgboost包,输入
conda install -c anaconda py-xgboost
3.检查完环境后,选择y继续安装即可完成
检验:
方法一:使用pip list
命令检验
pip list
方法二:在Python环境下引入XGBoost,没有提示信息证明安装成功
import xgboost