机器学习
愛桀桀
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
线性回归,逻辑回归 深入浅出
对线性回归,logistic回归和一般回归的认识 【转载时请注明来源】:http://www.cnblogs.com/jerrylead JerryLead 2011年2月27日 作为一个机器学习初学者,认识有限,表述也多有错误,望大家多多批评指正。 1 摘要 本报告是在学习斯坦福大学机器学习课程前四节加上配套的讲义后的总结与转载 2017-09-04 11:29:40 · 9053 阅读 · 0 评论 -
批量梯度下降法BGD,随机梯度下降法SGD
1. 批量梯度下降法BGD 批量梯度下降法(Batch Gradient Descent,简称BGD)是梯度下降法最原始的形式,它的具体思路是在更新每一参数时都使用所有的样本来进行更新,其数学形式如下: (1) 对上述的能量函数求偏导: (2) 由于是最小化风险函数,所以按照每个参数θ的梯度负方向来更新每个θ: 具体的伪代码形式为:转载 2017-09-04 11:39:51 · 689 阅读 · 0 评论
分享