- 博客(4)
- 资源 (9)
- 问答 (1)
- 收藏
- 关注
原创 笔记—集成学习—Bagging
集成学习——Bagging一、引言在机器学习的有监督学习算法中,我们的目标是学习出一个稳定的且在各个方面表现都较好的模型。但是,实际情况往往不这么理想,有时我们只能得到多个有偏好的模型(弱监督模型,在某些方面表现的比较好)。集成学习就是组合多个弱监督模型以期得到一个更好更全面的强监督模型,它是基于这样一种思想:将多个监督模型的判断进行适当的结合,要比其中任何一个单独的监督模型要好,因为即便某一...
2020-03-15 17:44:46
328
原创 笔记—集成学习—Boosting
集成学习——Boosting引言在机器学习的有监督学习算法中,我们的目标是学习出一个稳定的且在各个方面表现都较好的模型。但是,实际情况往往不这么理想,有时我们只能得到多个有偏好的模型(弱监督模型,在某些方面表现的比较好)。集成学习就是组合多个弱监督模型以期得到一个更好更全面的强监督模型,它是基于这样一种思想:将多个监督模型的判断进行适当的结合,要比其中任何一个单独的监督模型要好,因为即便某一个...
2020-03-14 21:01:40
692
原创 笔记—深度学习—参数初始化
一、引言神经网络的训练过程中的参数学习是基于梯度下降法进行优化的。梯度下降法需要在开始训练时给每一个参数赋一个初始值。这个初始值的选取十分关键。目前,深度学习存在以下几种参数初始化策略:Constant Initialization;Random Initialization;Xavier Initialization;Kaiming Initialization;本文首先将简单介...
2020-03-11 21:45:18
314
原创 笔记—集成学习—Stacking
集成学习—stacking引言集成学习主要包括Bagging、Boosting和Stacking。本文主要介绍stacking方法。stacking(有时也称为stacked generalization)是一种分层模型集成框架,主要的思想是训练一个模型用于组合(combine)其他各个模型。stacking方法在各大数据挖掘比赛上都很风靡,模型融合之后能够小幅度地提高模型的预测准确度。基本...
2020-03-07 17:58:59
739
使用了@DateTimeFormat注解没有效果(springboot)
2017-11-22
TA创建的收藏夹 TA关注的收藏夹
TA关注的人