机器学习吴恩达第二章上 单变量线性回归

本文介绍了监督学习中的线性回归算法,详细解释了如何通过训练集来确定模型参数,并提出了用于评估模型性能的代价函数概念。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

2.1 模型表示

第一个算法是线性回归算法。

在监督学习中,数据集被称为训练集。

m代表训练样本的数目。

x代表特征/输入变量

y代表目标/输出变量

(x,y)代表训练集中的实例

xiyi)代表第i个观察实例

h代表学习算法的解决方案或函数,也称为假设(hypothesis

如图所示,训练集是房屋的价格,我们输入了房屋的面积x,h表示一个函数,映射出房屋的价格y。而我们要考虑的问题是如何表达h。

一种可能的表达形式是:hθ(x)=θ0+θ1(x因为只含有一个特征/输入变量,因此这样的问题叫作单变量线性回归问题。

2.2 代价函数

假设m=47,而我们的假设函数为hθ(x)=θ0+θ1(x),我们要做的是为我们的模型选择适当的参数。这决定了我们的训练集的准确程度。

模型所预测的值和实际值之间的差距叫做建模误差。

我们的目标是选择出可以使建模误差的平方和能最小的模型参数。也就是使代价函数最小。

代价函数:



排版不好换下一页。




评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值