吴恩达机器学习线性回归

监督学习

回归问题(预测连续型数据)

分类问题(预测离散型数据)

线性回归

预测函数:h(x) = θ0+xθ1\theta_0+x\theta_1θ0+xθ1
减小误差即使误差函数J(θ)=12m∑i=0n(h(θ)i+yi)2J(\theta)= \frac{1}{2m}\sum\limits_{i=0}^{n}{(h(\theta)^i+y^i)}^2J(θ)=2m1i=0n(h(θ)i+yi)2 最小。

m代表训练集数据地数量
举例说明:

在这里插入图片描述
在这里插入图片描述

梯度下降法

找出现在位置下降最快地方向

θj:=θj−α∂J(θ0,θ1)∂θj\theta_j:=\theta_j-\alpha \frac{\partial J(\theta_0,\theta_1)}{\partial \theta_j }θj:=θjαθjJ(θ0,θ1)
α\alphaα是学习率,即下降的步长
:=代表的是赋值地意思

θ0:=θ0−α∂J(θ0,θ1)∂θ0\theta_0:=\theta_0-\alpha \frac{\partial J(\theta_0,\theta_1)}{\partial \theta_0}θ0:=θ0αθ0J(θ0,θ1)

这个方法的缺点是只能获取局部最优点。
但是线性回归的梯度下降法只有全局最优解。

矩阵向量乘法

hθ(x)=−40+0.25xh_\theta(x)=-40+0.25xhθ(x)=40+0.25x
[210414161534852]×[−400.25] \begin{gathered} \begin{bmatrix} 2104 \\ 1 416\\1534\\852\end{bmatrix} \quad \times \begin{bmatrix} -40 \\ 0.25 \end{bmatrix} \quad \end{gathered} 210414161534852×[400.25]

多功能(多变量)
hθ(x)=θ0+θ1x1+θ2x2+……h_\theta(x)=\theta_0+\theta_1x_1+\theta_2x_2+……hθ(x)=θ0+θ1x1+θ2x2+
x=[x0x1x2……xn]θ=[θ0θ1θ2……θn] \begin{gathered} x= \begin{bmatrix} x_0 \\ x_1\\x_2\\……\\x_n\end{bmatrix} \quad \theta= \begin{bmatrix} \theta_0 \\ \theta_1 \\ \theta_2\\……\\ \theta_n\end{bmatrix} \quad \end{gathered} x=x0x1x2xnθ=θ0θ1θ2θn
h0(x)=θTxh_0(x)=\theta^Txh0(x)=θTx

梯度下降
θj:=θj−α1m∑i=1m(hθ(x)i−yi)xji\theta_j:=\theta_j-\alpha \frac{1}{m}\sum\limits_{i=1}^{m}{(h_\theta(x)^i-y^i)}x_j^iθj:=θjαm1i=1m(hθ(x)iyi)xji

变量x需要归一化
x=x−E(x)cov(x)x=\frac{x-E(x)}{cov(x)}x=cov(x)xE(x)
这样可以使−1≤xi≤1-1\leq x^i\leq11xi1

特别注意不要使步长α\alphaα太大,不然损失函数无法收敛
α\alphaα最好取值:0.001,0.003,0.01,0.03,0.1,0.3,1……

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值