
机器学习基本概念
我是DJ你会爱我吗
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Batch gradient descent, Stochastic gradient descent, mini-batch gradient descent的区别
Batch gradient descent(批标准化),顾名思义,每次进行参数更新时,将所有样本得到的误差求均值,再进行梯度更新(反向传播) Stochastic gradient descent(随机梯度下降),每个训练数据都计算误差和梯度更新 mini-batch gradient descent,每m个训练数据计算一次误差的平均值,然后进行梯度更新 上述定义摘自吴恩达的机器学习课程,但在...原创 2019-11-24 22:42:33 · 263 阅读 · 0 评论 -
交叉熵的理解
知乎用户的回答原创 2019-11-03 16:10:34 · 203 阅读 · 0 评论