吴恩达机器学习——单变量线性回归(代价函数与梯度下降)

本文详细介绍了吴恩达机器学习课程中的单变量线性回归,包括模型描述、代价函数及梯度下降的概念。通过实例展示了代价函数的形状,并解释了梯度下降如何找到最优解。讨论了学习率对梯度下降过程的影响,以及为何梯度下降能收敛到最小值。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

吴恩达机器学习——单变量线性回归(代价函数与梯度下降)

目录

1、声明

2、模型描述

3、 代价函数

3.1、函数解释

3.2、具体表达

4、梯度下降

4.1、函数解释

4.2直观表达

4.3 为何会得到最小值


1、声明

本文章所应用材料来源于吴恩达老师的机器学习课资料、黄海广老师的公众号下载的整理资料、本文所有内容为个人学习笔记的整理,并非原创。(因为也不是转载,所以发表标签设置为原创,在此声明) 


2、模型描述

假设有一组训练数据:房子的大小与房子的价格,通过已有数据进行线性拟合,以预测任意房子大小的价格。其中有监督学习的思想。

训练数据如下:

所以我们可以给出一个h的表达式


3、 代价函数

3.1、函数解释

我们预测的目的就是为了是预测结果h与实际结果y之间的差最小,所以我们可以使其误差的平方和能够最小

代价函数也被称作平方误差函数,有时也被称为平方误差代价函数。我们之所以要求出误差的平方和,是因为误差平方代价函数,对于大多数问题,特别是回归问题,都是一个合理的选择。还有其他代价函数也能很好地发挥作用,但是平方误差代价函数可能是解决回归问题最常用的手段了。

3.2、具体表达

我们可以给出代

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

By-Q

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值