看到蘑菇街招聘的一个加分项是学过Andrew Ng的机器学习课程,于是找来看了下目录,大多数内容之前在PRML中有接触过,研究生课程智能信息处理中也有接触,但觉得不够系统,于是按斯坦福的公开课课表过一遍,有个完整的框架。
————————————————————————————
第1集 机器学习的动机与应用
Arthur Samuel(1959)
Machine Learning:Field of study that gives computers the ability to learn without being explicitly programmed.
什么是机器学习?
不是显式地编程,而是给机器学习的能力。
Tom Mitchell(1998)
Well-posed Learning Problem: A computer program is said to learn from experience E with respect to some task T and some performance measure P, if its performance onT ,as measured by P,improves with eaperience E.
给出任务T,让机器去做,给出一个评价P,从经验E进行学习
简要讲了:
监督学习:给出训练集,输入x_i,对应有标签y_i,求x和y之间的关系 (回归是对连续变量,分类是对离散变量)
无监督学习:给出数据集,根据数据间的关系,分类
强化学习:给出数据集,去做任务,做的好会奖励,做的不好会惩罚,会逐渐学习出其中的经验,进行改进
(例子比较生动,易理解)
————————————————————————————————
第2集 监督学习应用梯度下降
监督学习的公式化表达
如何求解最优或近似最优的参数?转化为求解最小代价函数
(1)梯度下降方

本文是作者学习Andrew Ng在斯坦福大学机器学习公开课的心得笔记,涵盖了机器学习的基本概念、监督学习、无监督学习、强化学习以及监督学习中的梯度下降方法。通过实例解释了监督学习中的回归和分类问题,探讨了梯度下降的局部最小值问题以及批量梯度下降和随机梯度下降的区别。
最低0.47元/天 解锁文章
3966

被折叠的 条评论
为什么被折叠?



