机器学习入门——单变量线性回归

本文介绍了机器学习中的单变量线性回归,从寻找最逼近样本点的直线开始,通过cost function的概念解释如何确定theta0和theta1。通过举例说明,阐述了在theta1=0时优化问题简化为最小化一元二次函数,并进一步扩展到二维情况。文章提到了梯度下降法用于找到最优解,并给出了算法迭代公式,讨论了learning rate的影响。最后,提供了配套练习链接以巩固理解。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

线性回归的概念,在高中数学书里就出现过。

给你一些样本点,如何找出一条直线,使得最逼近这些样本点。


给出一个例子:假设 x 是房子面积,y是房子价格,确定一条直线需要theta0和theta1.

给出x,我们就可以计算出房子的价格 h(x) = theta0+theta1*x

关键是如何计算出theta0和theta1,也就是如何找出这么一条直线呢?


在这里,引入一个概念,叫做cost function.m表示样本个数,也就是训练样本数目

这是一个square error,学过统计的应该经常见到

因此,我们的目的i就变成如何最小化这个J,意味着这条直线最逼近我们的样本点



先简化一下问

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值