作为英语课程,读中文参考资料的确有助于理解,但是出于对以后更长久的学习优势考虑,笔记中我会尽量采用英文来表述,这样有助于熟悉专有名词以及常见语法结构,对于无中文翻译的资料阅读大有裨益。
Week1
一、Introduction
二、Algorithm(算法):
1. Supervised Learning(监督算法)
-
每个样本有一个正确答案
- 肿瘤分类
- Unsupervised Learning
- 并不知道样本正确与否,仅仅做一个分类
- 天文学星系聚集
- 并不知道样本正确与否,仅仅做一个分类
- Others: Reinforcement learning(强化学习).etc
三、Linear Regression with One Variable
-
单变量线性回归
- Regression(回归):根据历史数据推测未来数据
-
Training Set训练集m
- 训练集m
- 输入变量x
- 目标变量y
- 训练集实例(x,y)
- 参数parameter θ \theta θ
- 学习率 α \alpha α,Learning Rate
- h——hypothesis学习算法得到的解决函数(模型)
- (x (i) ,y (i) )具体的事例
-
Cost Function代价函数,又称为误差平方d代价函数
- 线性回归函数:h θ _\theta θ (x)= θ 0 \theta_0 θ0+ θ 1 \theta_1 θ1x
- Cost Function: J(
θ
0
\theta_0
θ0,
θ
1
\theta_1
θ1)=
1
2
m
∑
i
=
1
m
(
h
θ
(
x
i
)
−
y
i
)
2
\frac{1}{2m}\sum_{i=1}^{m}(h_\theta(x^i)-y^i)^2
2m1∑i=1m(hθ(xi)−yi)2
- 代价函数应当最小,代价函数绘制了等高线图
-
Gradient Descent梯度下降
- 一种方法,找到J( θ \theta θ)的最小值
-
Gradient Descent Algorithm梯度下降算法
- θ j : = θ j − α ∂ ∂ θ j J ( θ 0 , θ j ) \theta_j:=\theta_j-\alpha\frac{\partial}{\partial\theta_j}J(\theta_0,\theta_j) θj:=θj−α∂θj∂J(θ0,θj)
- 对于不同的迭代 θ j \theta_j θj务必需要同步更新
-
Linear Regression and Gradient Descent Algorithm
- ∂ ∂ θ j j ( θ 0 , θ 1 ) = ∂ ∂ θ j 1 2 m ∑ i = 1 m ( h θ ( x i ) − y i ) 2 \frac{\partial}{\partial\theta_j}j(\theta_0,\theta_1)=\frac{\partial}{\partial\theta_j}\frac{1}{2m}\sum_{i=1}^m(h_\theta(x^i)-y^i)^2 ∂θj∂j(θ0,θ1)=∂θj∂2m1∑i=1m(hθ(xi)−yi)2
- 代入5.2中的公式可以得到 θ \theta θ的迭代公式如下
- θ 0 : = θ 0 − α 1 m ∑ i = 1 m ( ( h θ ( x i ) − y i ) ) \theta_0:=\theta_0-\alpha\frac{1}{m}\sum_{i=1}{m}((h_\theta(x^i)-y^i)) θ0:=θ0−αm1∑i=1m((hθ(xi)−yi))
- θ 1 : = θ 1 − α 1 m ∑ i = 1 m ( ( h θ ( x i ) − y i ) x i ) \theta_1:=\theta_1-\alpha\frac{1}{m}\sum_{i=1}{m}((h_\theta(x^i)-y^i)x^i) θ1:=θ1−αm1∑i=1m((hθ(xi)−yi)xi)
- Called:批量梯度下降
四、线性代数回顾
- 如题,对矩阵的转置、取逆运算等进行了回顾
