
集成学习
文章平均质量分 82
集成学习
浅梦s
浙大计算机硕士,现于阿里巴巴担任算法工程师。公众号:浅梦的学习笔记,Github:https://github.com/shenweichen
展开
-
Bagging与随机森林
Bagging Bagging是Bootstrap AGGregatING的缩写。 Bagging基于自助采样法(bootstrap sampling)。给定包含m个样本的数据集,先随机取出一个样本放入采样集中,再把该样本放回初始数据集,使得下次采样时该样本仍有可能被选中。这样,经过m次随机采样操作,我们得到含m个样本的采样集,初始训练集中有的样本再采样集里多次出现,有的则从未出现。 采样出...原创 2017-09-26 17:21:13 · 9997 阅读 · 0 评论 -
Win10-64位系统安装xgboost(使用MinGW编译)
准备工作: Pyton科学计算环境,推荐直接安装Anaconda选择Py2或者Py3版本都可以(注意选对版本,不要安装成32位的否则会出现“WindowsError:[Error 193] %1 不是有效的 Win32”错误) 如果之前已经安装过了,请确定下你的版本:打开cmd,输入python,确定是64位的 MinGW 之后选择安装路径即可进行安装。 Git Bash 关于Git的安装原创 2017-01-01 17:46:27 · 1254 阅读 · 0 评论 -
提升树和GBDT
本文首先介绍提升树的模型,算法和梯度提升方法。然后介绍GBDT模型的形式和损失函数。原创 2017-08-27 20:10:15 · 1684 阅读 · 0 评论 -
提升方法AdaBoost
本文首先介绍提升方法的思路和代表性提升方法AdaBoost。然后说明了AdaBoost算法训练误界及在二分类问题上的训练误差界。然后介绍前向分步加法模型。原创 2017-08-27 16:12:38 · 786 阅读 · 0 评论 -
XGBoost原理简介
本文从模型函数形式,树结点划分方法,系统设计三个层面介绍了XGBoost。原创 2017-09-28 13:50:11 · 2059 阅读 · 0 评论 -
LightGBM原理简介
本文介绍了LightGBM的若干改进方法。原创 2017-09-28 18:01:51 · 4649 阅读 · 0 评论