吴恩达机器学习笔记2

本文探讨了一维线性回归中的成本函数、梯度下降算法的直观理解及其实现。通过学习如何利用导数调整参数θ,达到局部最优,并介绍了批量梯度下降在凸函数中的应用。同时,我们关注了如何避免局部最优并确保全局最优解的搜索策略。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Linear regression with one variable

Model representation

来看一个房价预测问题。
在这里插入图片描述
模型描述中的一些符号。
在这里插入图片描述

2-2 Cost function

线性回归Linear regression
在这里插入图片描述

2-3 Cost function intuition I

在这里插入图片描述

2-4 Cost function intuition II

在这里插入图片描述

2-5 Gradient descent intuition I(Simultaneous update)

在这里插入图片描述

2-6 Gradient descent intuition II

在这里插入图片描述
导数项的意义:当导数项为负数时,也就是点的切线的斜率为负数时,θ加上一个步长;当导数项为正数时,也就是点的切线的斜率为正数时,θ减去一个步长;当导数项为0时,则θ为局部最优解。
在这里插入图片描述
当θ更新后值不变时,这正是我们想要的,也就是局部最优解。
在这里插入图片描述
根据斜率自动更新步长,斜率(绝对值)越大,步子越大,斜率(绝对值)越小,步子也越小。

2-7 Gradient descent for linear regression

在这里插入图片描述
接下来要将梯度下降应用到线性回归中
在这里插入图片描述
simultaneous update
在这里插入图片描述
梯度下降很容易陷入局部最优,解决这个问题是一件比较头疼的事。我们讨论的线性回归模型一般都是一个凸函数(convex function),也就是一个碗状的(bowl-shaped)曲面。
在这里插入图片描述
它只有一个全局最优解(global optimum)。
在这里插入图片描述
先让θ0到达最优,再改变θ1到达最优?
这是一个Batch gradient descent。
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

banjitino

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值