机器学习基础-[第一章:单变量线性回归](2)代价函数

本文介绍了机器学习中假设函数的预测效果度量方式——代价函数,特别是聚焦于单变量线性回归的均方误差函数。均方误差是预测值与真实值之差的平方和的均值的一半,模型的目标是通过最小化代价函数来提高预测准确性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1、上一篇中我们提到了假设函数hθh_{\theta}hθ,该函数的作用根据输入变量xxx输出预测相应的输出变量hθ(x)h_{\theta}(x)hθ(x),那么该假设函数的预测效果该怎么度量呢?
2、我们可以使用代价函数(cost function)来度量估计假设函数的预测效果。代价函数,就是用来度量假设函数对样本目标变量的预测值与真实值之间差异的一个函数。
3、不同模型使用的代价函数不一定相同(后续我们会谈到),在这里我们只以线性回归的代价函数为例来简单介绍下:

线性回归问题的代价函数称之为均方误差函数,其具体形式:
J(θ)=12∗1m∑i=1m(y(i)→−y(i))2=12∗1m∑i=1m(hθ(x(i))−y(i))2J(\theta)={\frac{1}{2}*\frac{1}{m}\sum_{i=1}^{m}}(\overrightarrow{y^{(i)}}-y^{(i)})^{2}={\frac{1}{2}*\frac{1}{m}\sum_{i=1}^{m}}(h_{\theta}(x^{(i)})-y^{(i)})^{2}J(θ)=21m1i=1m(y(i)y(i))2=21m1i=1m(hθ(x(i))y(i))2
从公式中我们可以看出,均方误差是预测值与真实值之差的平方和的均值的一半,其中,θ=[θ0,θ1]\theta =[\theta_{0},\theta{1}]θ=[θ0,θ1],平均值乘以1/2是为了在计算梯度下降时方便,因为对平方项进行求导后可以抵消。
在这里插入图片描述

  • 有监督学习模型的目的就是最小化代价函数,即
    minimizeJ(θ)minimize{J(\theta)}minimizeJ(θ)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Albert_YuHan

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值