
机器学习模型
文章平均质量分 80
ju22
这个作者很懒,什么都没留下…
展开
-
从boost到Adaboost再到GBRT-GBDT-MART
原文链接:https://www.cnblogs.com/xiangzhi/p/4626179.html 本文是要配合《统计学习方法》才能看懂的,因为中间有些符号和定义是直接使用书本中的 先弄明白以下三个公式: 1)Boost(提升法)=加法模型(即基函数的线性组合)+前向分步算法+损失函数 2)Adaboost=Boost+损失函数是指数函数(基函数可以任意)转载 2018-01-05 17:22:01 · 405 阅读 · 0 评论 -
统计学习方法--提升树模型(Boosting Tree)与梯度提升树(GBDT)
原文链接 http://www.cnblogs.com/daguankele/p/6557328.html 1、主要内容 介绍提升树模型以及梯度提升树的算法流程 2、Boosting Tree 提升树模型采用加法模型(基函数的线性组合)与前向分步算法,同时基函数采用决策树算法,对待分类问题采用二叉分类树,对于回归问题采用二叉回归树。提升树模型可转载 2018-01-04 18:18:25 · 667 阅读 · 0 评论 -
统计学习方法--提升方法adaBoost算法(集成学习)
原文链接 http://www.cnblogs.com/daguankele/p/6554973.html 1、主要内容 介绍集成学习,然后讲述boosting和bagging的区别与联系,同时对adaBoost进行推导然后进行gbdt的推导,最后比较随机森林和gdbt的区别和联系。 2、集成学习 集成学习(ensamble learning)通过构建转载 2018-01-04 18:17:38 · 544 阅读 · 0 评论 -
scikit-learn 梯度提升树(GBDT)调参小结
原文网址 http://www.cnblogs.com/pinard/p/6143927.html 在梯度提升树(GBDT)原理小结中,我们对GBDT的原理做了总结,本文我们就从scikit-learn里GBDT的类库使用方法作一个总结,主要会关注调参中的一些要点。 1. scikit-learn GBDT类库概述 在sacikit-learn中,GradientBoo转载 2017-08-31 11:13:46 · 2374 阅读 · 0 评论 -
scikit-learn Adaboost类库使用小结
本文系转载,原文链接为 http://www.cnblogs.com/pinard/p/6136914.html 在集成学习之Adaboost算法原理小结中,我们对Adaboost的算法原理做了一个总结。这里我们就从实用的角度对scikit-learn中Adaboost类库的使用做一个小结,重点对调参的注意事项做一个总结。 1. Adaboost类库概述转载 2017-08-31 11:03:26 · 1030 阅读 · 0 评论 -
集成学习之Adaboost算法原理小结
本文转自 刘建平Pinard 原文链接http://www.cnblogs.com/pinard/p/6133937.html 在集成学习原理小结中,我们讲到了集成学习按照个体学习器之间是否存在依赖关系可以分为两类,第一个是个体学习器之间存在强依赖关系,另一类是个体学习器之间不存在强依赖关系。前者的代表算法就是是boosting系列算法。在boosting系列算法中, Ad转载 2017-08-31 10:58:24 · 3163 阅读 · 0 评论 -
集成学习原理小结
本文转自 刘建平Pinard 原文链接 http://www.cnblogs.com/pinard/p/6131423.html 集成学习(ensemble learning)可以说是现在非常火爆的机器学习方法了。它本身不是一个单独的机器学习算法,而是通过构建并结合多个机器学习器来完成学习任务。也就是我们常说的“博采众长”。集成学习可以用于分类问题集成,回归问题集成,特征选转载 2017-08-31 10:54:25 · 292 阅读 · 0 评论