吴恩达 机器学习笔记二(lecture 2)(损失函数、梯度下降)

本文介绍了单变量线性回归模型及最常用的平方误差损失函数。通过探讨梯度下降法,包括梯度的概念、算法原理以及优化策略,阐述如何找到损失函数的最小值。虽然梯度下降可能找到局部最优解,但在凸函数情况下能得全局最优。内容还涵盖了步长选择、初始值影响及特征数据归一化等调优技巧。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >


一、单变量的LR模型


 最简单的单变量线性回归模型:



二、损失函数(cost function)


在这个例子中使用的是平方误差函数最为损失函数,这是解决线性回归问题最常用的损失函数



1、假设函数和损失函数之间的关系



先考虑θ₀=0的情况:当θ₁ = 1时,损失函数取最小值



θ₀不知道时,两个参数,对应的损失函数的图像如下:是一个三维图像。与上面例子类似,都是找到损失函数值最小时候的参数值。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值