作为英语课程,读中文参考资料的确有助于理解,但是出于对以后更长久的学习优势考虑,笔记中我会尽量采用英文来表述,这样有助于熟悉专有名词以及常见语法结构,对于无中文翻译的资料阅读大有裨益。
Week1
一、Introduction
二、Algorithm(算法):
1. Supervised Learning(监督算法)
-
每个样本有一个正确答案
- 肿瘤分类
- Unsupervised Learning
- 并不知道样本正确与否,仅仅做一个分类
- 天文学星系聚集
- 并不知道样本正确与否,仅仅做一个分类
- Others: Reinforcement learning(强化学习).etc
三、Linear Regression with One Variable
-
单变量线性回归
- Regression(回归):根据历史数据推测未来数据
-
Training Set训练集m
- 训练集m
- 输入变量x
- 目标变量y
- 训练集实例(x,y)
- 参数parameterθ\thetaθ
- 学习率α\alphaα,Learning Rate
- h——hypothesis学习算法得到的解决函数(模型)
- (x (i) ,y (i) )具体的事例
-
Cost Function代价函数,又称为误差平方d代价函数
- 线性回归函数:hθ_\thetaθ (x)= θ0\theta_0θ0+θ1\theta_1θ1x
- Cost Function: J(θ0\theta_0θ0,θ1\theta_1θ1)=12m∑i=1m(hθ(xi)−yi)2\frac{1}{2m}\sum_{i=1}^{m}(h_\theta(x^i)-y^i)^22m1∑i=1m(hθ(xi)−yi)2
- 代价函数应当最小,代价函数绘制了等高线图
-
Gradient Descent梯度下降
- 一种方法,找到J(θ\thetaθ)的最小值
-
Gradient Descent Algorithm梯度下降算法
- θj:=θj−α∂∂θjJ(θ0,θj)\theta_j:=\theta_j-\alpha\frac{\partial}{\partial\theta_j}J(\theta_0,\theta_j)θj:=θj−α∂θj∂J(θ0,θj)
- 对于不同的迭代θj\theta_jθj务必需要同步更新
-
Linear Regression and Gradient Descent Algorithm
- ∂∂θjj(θ0,θ1)=∂∂θj12m∑i=1m(hθ(xi)−yi)2\frac{\partial}{\partial\theta_j}j(\theta_0,\theta_1)=\frac{\partial}{\partial\theta_j}\frac{1}{2m}\sum_{i=1}^m(h_\theta(x^i)-y^i)^2∂θj∂j(θ0,θ1)=∂θj∂2m1∑i=1m(hθ(xi)−yi)2
- 代入5.2中的公式可以得到θ\thetaθ的迭代公式如下
- θ0:=θ0−α1m∑i=1m((hθ(xi)−yi))\theta_0:=\theta_0-\alpha\frac{1}{m}\sum_{i=1}{m}((h_\theta(x^i)-y^i))θ0:=θ0−αm1∑i=1m((hθ(xi)−yi))
- θ1:=θ1−α1m∑i=1m((hθ(xi)−yi)xi)\theta_1:=\theta_1-\alpha\frac{1}{m}\sum_{i=1}{m}((h_\theta(x^i)-y^i)x^i)θ1:=θ1−αm1∑i=1m((hθ(xi)−yi)xi)
- Called:批量梯度下降
四、线性代数回顾
- 如题,对矩阵的转置、取逆运算等进行了回顾
这篇博客介绍了吴恩达机器学习课程的第一周内容,主要包括Introduction、Algorithm(特别是线性回归)和Gradient Descent。线性回归用于根据历史数据预测未来数据,而梯度下降是求解线性回归模型代价函数最小值的方法。博客还回顾了线性代数中的相关概念。
237

被折叠的 条评论
为什么被折叠?



