单变量线性回归 from 吴恩达的机器学习

本文介绍了单变量线性回归的基本概念,包括模型表示、训练样本的定义及其在数学上的表达方式。进一步解释了如何通过调整参数来减小模型预测值与实际值之间的差距,并引入了代价函数的概念。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一、模型表示

只含有一个特征/输入变量,这样的问题叫作单变量线性回归问题。

m :表示训练样本的数目

X:代表特征/输入变量

Y:代表目标变量/输出变量

(x, y):表示一个训练样本

(x(i), y(i)) :表示第i个训练样本

h(hypothesis):function h : X → Y so that h(x)



  我们选择的参数决定了我们得到的直线相对于我们的训练集的准确程度,模型所预测的值与训练集中实际值之间的差距(下图中蓝线所指)就是建模误差modeling error)。


  我们的目标便是选择出可以使得建模误差的平方和能够最小的模型参数。 即使得代价函数 最小。

二、代价函数


代价函数的直观理解:


在三维空间中存在一个使得 最小的点

等高线图


在三维空间中存在一个使得 最小的点


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值