格式驾驭不了,图片大小不会改,可以直接看我的有道笔记:http://note.youdao.com/noteshare?id=8880899dec3d610a02c4988aba1e4e74
- 集成学习:
- 通过训练若干个弱学习器,并通过一定的结合策略,从而形成一个强学习器
- Boosting特点
- 一堆弱分类器组合(提升boosting)成一个强分类器
- 不断地在错误中学习,迭代降低犯错概率(改变权值)
- Adaboosting(Adaptive Boosting):
- 在之前的学习器的基础上给变样本权重,增加那些被分类错误的样本比重,降低正确样本比重,学习器重点关注被分类错误的样本。最后通过将这些学习器通过加权组合成一个强学习器,具体的,分类正确率高的学习器权重较高,分类正确率低的学习器权重较低。
- 算法流程:
- GBDT(Grasient Boosting Decision Tree ,梯度提升决策树)
- 迭代决策树算法,有多颗决策树组成,所有树结论累加起来做最终答案
- 回归树不是分类树,用来做回归预测,调整后也颗用于分类