
集成学习
文章平均质量分 79
记录集成学习的算法
sunshinecxm_BJTU
这个作者很懒,什么都没留下…
展开
-
集成学习-6.Stacking算例
参考文献ensemble-learning转载 2021-07-25 23:12:50 · 172 阅读 · 0 评论 -
集成学习-5.Stacking
参考文献ensemble-learning1.导言本章我们继续讨论集成学习方法的最后一个成员–Stacking,这个集成方法在比赛中被称为“懒人”算法,因为它不需要花费过多时间的调参就可以得到一个效果不错的算法,同时,这种算法也比前两种算法容易理解的多,因为这种集成学习的方式不需要理解太多的理论,只需要在实际中加以运用即可。 stacking严格来说并不是一种算法,而是精美而又复杂的,对模型集成的一种策略。 Stacking集成算法可以理解为一个两层的集成,第一层含有多个基础分类器,把预测的结果(元特征转载 2021-07-22 16:57:30 · 1582 阅读 · 0 评论 -
集成学习-4.boosting
参考文献ensemble-learning转载 2021-07-21 00:00:00 · 376 阅读 · 0 评论 -
集成学习-2.机器学习基础
参考文献ensemble-learning1. 概念根据数据是否有因变量,机器学习的任务可分为:有监督学习和无监督学习。有监督学习:给定某些特征去估计因变量,即因变量存在的时候,我们称这个机器学习任务为有监督学习。如:我们使用房间面积,房屋所在地区,环境等级等因素去预测某个地区的房价。无监督学习:给定某些特征但不给定因变量,建模的目的是学习数据本身的结构和关系。如:我们给定某电商用户的基本信息和消费记录,通过观察数据中的哪些类型的用户彼此间的行为和属性类似,形成一个客群。注意,我们本身并不知道哪个转载 2021-07-15 21:45:00 · 287 阅读 · 0 评论 -
集成学习-1.数学基础
参考文献ensemble-learning高数1. 基于梯度的优化方法–梯度下降法使用梯度下降法求函数 y=x2y= x^2y=x2 的极小值点。import numpy as npimport matplotlib.pyplot as pltdef f(x): return np.power(x, 2)def d_f_2(f, x, delta=1e-4): ''' 求导数的第二种方法 ''' return (f(x+delta) - f(x-转载 2021-07-13 21:03:02 · 102 阅读 · 0 评论