斯坦福大学机器学习笔记——多变量的线性回归以及梯度下降法注意事项(内有代码)

本文介绍了多变量线性回归算法,对比了单变量与多变量的区别,并详细阐述了多变量线性回归的模型构成,以及梯度下降法在多变量情况下的应用。还提到了特征缩放的重要性,包括最大值缩放、去均值化和标准差缩放的方法,以及学习率设置对梯度下降算法收敛速度的影响。最后,提供了相关代码实现。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

在前面博客中介绍了单变量线性回归的实现过程,本文将介绍多变量线性回归算法
两者的对比如下:
1.数据方面的差异:
单变量线性回归数据:
单变量回归
多变量线性回归数据:
多变量回归
对于单变量线性回归来说,只有一个特征(房子的大小),而对于多变量线性特征回归特征的数量为多个(房子的大小、卧室的数量等)
2.模型构成上的差异:
单变量模型:
单变量模型
多变量模型:
多变量模型

首先介绍多维特征用矩阵形式的表示:
对于上述多变量的数据来说,我们一般使用:
n代表特征的数量;m代表样本的数量;
x(i) 代表第i个训练实例,是特征矩阵中的第i行,是一个向量,例如:
x2=[1416 3 2 40 ]
x(i)j 代表特征矩阵中的第i行第j列,也就是第i个实例中的第j个特征,例如: x(3)4=30
多变量的假设h可以表示为: h

评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值