机器学习入门系列一(关键词:单变量线性回归,梯度下降法)

这篇博客介绍了机器学习入门的基础——单变量线性回归,探讨了如何通过梯度下降法寻找最佳拟合直线。文章阐述了梯度下降法的工作原理,包括其能找到最优值、可能陷入局部最优以及步长α选择的重要性。通过对代价函数的分析,解释了在实际应用中如何利用梯度下降法进行参数更新。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

这里写图片描述
如上图所示,我们的目标是希望通过这些数据得到城市人口数和利润可能的对应关系,并可以通过城市人口数(利润)来预测它的利润(城市人口数),在这里我们先规定一下符号记法。

符号 含义
m 训练样本的个数
x 训练样本中的输入变量(特征)
y 训练样本中的输出变量(特征)
(x(i),y(i)) i 个训练样本
hθ(x) 输入变量 x 与输出变量 y 的映射关系

在本例中,训练样本个数 m 为97;输入变量 x 为城市人口数,其中 x(i) 表示第 i 个城市的人口数;输出变量 y 为利润,其中 y(i) 表示第 i 个城市所得利润。有了训练样本,下一步我们需要用一种算法得到一个比较好的映射关系 hθ(x) ,当给定城市人口数 x 时,通过映射关系可以得到一个符合训练样本规律的合理的利润 y 。由于我们现在讨论的是比较简单的单变量的线性回归,因此我们假设

hθ(x)=θ0+θ1x(1)
现在我们要选择一组 θ0 θ1 ,使得在训练集中对于给定 x hθ(x) 尽可能地接近 y ,因为只有这样, hθ(x) 才能更为接近训练样本的规律,才能进行更为准确的预测。汉语言中的“尽可能地接近”非常的抽象,此时我们要把它转化为数学语言。不妨用数值之差的平方来表示,事实证明用这种表示方法可以更为方便地进行后续的数学处理。
argminθ0,θ112m</
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值