机器学习基础 - [第一章:单变量线性回归](3)代价函数

文章围绕代价函数J(θ)展开,期望使其最小化。通过将训练集样本想象成xy平面上的点,用假设函数hθ(x)=θ0+θ1x拟合,令θ0=0,展示了θ1取不同值(如1、0.5)时,代价函数J(θ)的几何意义及数值变化,还提到将θ1取值绘成曲线。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

上篇文章中我们提到了代价函数J(θ)J(\theta)J(θ),并期望使它最小化,那代价函数长什么样子呢?
接下来,我们将给大家一个直观的感受,看看参数θ\thetaθ取不同值时,J(θ)J(\theta)J(θ)的几何呈现

我们可以把训练集中的样本(x,y)(x,y)(x,y)想象成分散在xy平面上的点,然后通过一条直线来拟合这些点,这条直线就是我们的假设函数hθ(x)=θ0+θ1xh_{\theta}(x)=\theta_{0}+\theta_{1}xhθ(x)=θ0+θ1x,这里我们令θ0=0\theta_{0}=0θ0=0,看J(θ)J(\theta)J(θ)θ1\theta_{1}θ1的变化情况

(1). 当θ1=1时\theta_{1}=1时θ1=1hθh_{\theta}hθJ(θ)J(\theta)J(θ)的几何意义分别如下:
在这里插入图片描述
从上图右可以看出,当θ1=1时\theta_{1}=1时θ1=1,代价函数的值(绿叉表示的点)J(θ)=0J(\theta)=0J(θ)=0

(2). 当θ1=0.5时\theta_{1}=0.5时θ1=0.5hθh_{\theta}hθJ(θ)J(\theta)J(θ)的几何意义分别如下:
在这里插入图片描述
从上图右可以看出,当θ1=0.5\theta_{1}=0.5θ1=0.5时,代价函数的值(蓝叉表示的点)J(θ)=0.58J(\theta)=0.58J(θ)=0.58,增加了0.58。
(3). 我们把θ1\theta_{1}θ1一些可能的取值画出来,就形成了以下曲线:
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Albert_YuHan

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值