机器学习—————线性回归、损失函数

本文深入探讨了线性回归,包括一元和多变量线性回归,重点介绍了梯度下降法及其优化策略,如学习率的选择。同时,文章详细阐述了损失函数在模型训练过程中的作用,并讨论了随机梯度下降和'Mini-batch'梯度下降的适用场景。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

线性回归

一元线性回归

一元线性回归是分析只有一个自变量(自变量x和因变量y)线性相关关系的方法。

对于一元线性回归(单变量线性回归)来说,学习算法为 y = ax + b
我们换一种写法: hθ(x) = θ0 + θ1x1

线性回归实际上要做的事情就是: 选择合适的参数(θ0, θ1),使得hθ(x)方程,很好的拟合训练集在这里插入图片描述
模型
hθ(x) = θ0 + θ1x1
参数
θ0, θ1
损失函数
在这里插入图片描述
目标
在这里插入图片描述
在这里插入图片描述

梯度下降

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值