3. Stochastic GD (SGD)
随机梯度下降算法(SGD)是mini-batch GD的一个特殊应用。SGD等价于b=1的mini-batch GD。即,每个mini-batch中只有一个训练样本。
4. Online GD
随着互联网行业的蓬勃发展,数据变得越来越“廉价”。很多应用有实时的,不间断的训练数据产生。在线学习(Online Learning)算法就是充分利用实时数据的一个训练算法。
Online GD于mini-batch GD/SGD的区别在于,所有训练数据只用一次,然后丢弃。这样做的好处是可以最终模型的变化趋势。比如搜索广告的点击率(CTR)预估模型,网民的点击行为会随着时间改变。用batch算法(每天更新一次)一方面耗时较长(需要对所有历史数据重新训练);另一方面,无法及时反馈用户的点击行为迁移。而Online Leaning的算法可以实时的最终网民的点击行为迁移。
Ref:
1. http://en.wikipedia.org/wiki/Gradient_descent
在线学习与随机梯度下降
本文探讨了在线学习(Online Learning)与随机梯度下降(SGD)两种机器学习算法。在线学习利用实时数据进行训练,特别适用于互联网环境下数据不断产生的场景。而SGD作为mini-batch GD的一种特殊情况,每次仅使用一个训练样本来更新参数。
1266

被折叠的 条评论
为什么被折叠?



