斯坦福大学机器学习笔记——单变量的线性回归以及损失函数和梯度下降法(包含代码)

本文介绍了回归问题和分类问题的区别,重点讲解了单变量线性回归的原理和表达式。通过均方误差代价函数来衡量预测误差,并探讨了如何选择参数。文章还详细阐述了梯度下降法的思路和影响因素,以及在线性回归中的应用。最后,给出了使用梯度下降法实现线性回归的MATLAB代码示例。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

回归问题:
所谓的回归问题就是给定的数据集,且每个数据集中的每个样例都有其正确的答案,通过给定的数据集进行拟合,找到一条能够最好代表该数据集的曲线,然后对于给定的一个样本,能够预测出该样本的答案(对于回归问题来说,最终的输出结果是一个连续的数值)。比如,房价预测问题,最终的输出房价是一个连续的数值。回归问题是监督学习的一种。
分类问题:
与回归问题一样,分类问题同属于监督学习,与之不同的是,分类问题预测的结果输出是离散的值,比如判断一个人得的肿瘤是良性的还是恶性的,这就是0/1离散输出问题。
对于一个回归问题来说,它的一般流程为:
回归问题的流程
其中,h代表拟合的曲线,也称为学习算法的解决方案或函数或假设
单变量的线性回归是回归问题的一种,它的表达式为:
hθ(x)=θ0+θ1x
由于它只有一个特征/输入变量x,同时它拟合的曲线是一条直线,所以该问题叫做单变量线性回归问题
以房价问题为例,来举例说明回归问题。
这里写图片描述
对于回归问题来说,假设的选择是一个关键问题,在只有数据的情况下,如何确定h的形式?我们假设房价问题是线性回归,则 θ0 θ1 ,在房价问题这个例子中便是直线的斜率和在y轴上的截距。
但是我们如何选择参数 θ0 θ1 ,来使得到的线性拟合更加准确呢!这里需要引入一个代价函数(cost function),该函数的功能就是衡量了预测的结果与真正结果之间的差距。
在回归问题中我们一般选择均方误差代价函数(也叫作平方误差代价函数),它是解决回归问题最常用的手段,该函数的表达形式如下:
J(θ0,θ1)=12mmi=1(hθ(x</

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值