《机器学习》(Machine Learning)——Andrew Ng 斯坦福大学公开课学习笔记(一)

本文是作者学习Andrew Ng在斯坦福大学机器学习公开课的心得笔记,涵盖了机器学习的基本概念、监督学习、无监督学习、强化学习以及监督学习中的梯度下降方法。通过实例解释了监督学习中的回归和分类问题,探讨了梯度下降的局部最小值问题以及批量梯度下降和随机梯度下降的区别。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

看到蘑菇街招聘的一个加分项是学过Andrew Ng的机器学习课程,于是找来看了下目录,大多数内容之前在PRML中有接触过,研究生课程智能信息处理中也有接触,但觉得不够系统,于是按斯坦福的公开课课表过一遍,有个完整的框架。

————————————————————————————

第1集  机器学习的动机与应用  

Arthur Samuel(1959)
Machine Learning:Field of study that gives computers the ability to learn without being explicitly programmed.

什么是机器学习?

不是显式地编程,而是给机器学习的能力。

Tom Mitchell(1998)
Well-posed Learning Problem: A computer program is said to learn from experience E with respect to some task T and some performance measure P, if its performance onT ,as measured by P,improves with eaperience E.

给出任务T,让机器去做,给出一个评价P,从经验E进行学习


简要讲了:

监督学习:给出训练集,输入x_i,对应有标签y_i,求x和y之间的关系 (回归是对连续变量,分类是对离散变量)

无监督学习:给出数据集,根据数据间的关系,分类

强化学习:给出数据集,去做任务,做的好会奖励,做的不好会惩罚,会逐渐学习出其中的经验,进行改进

(例子比较生动,易理解)

————————————————————————————————

第2集 监督学习应用梯度下降

监督学习的公式化表达

如何求解最优或近似最优的参数?转化为求解最小代价函数

(1)梯度下降方

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值