2.4 梯度下降法

本文介绍了梯度下降法在训练深度学习模型时的作用,通过解释如何使用梯度下降法最小化成本函数J来优化参数w和b。内容包括成本函数的定义、初始化、学习率的概念以及二维函数图的示例,展示了梯度下降法如何通过更新参数逐步逼近全局最优解。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

梯度下降法

如何使用梯度下降法来训练或学习训练集上的参数w和b。
在这里插入图片描述
之前,我们定义了logistic回归算法 y ̂以及 成本函数 J。
这个成本函数J的参数是w和b。
定义为平均值,1/m 的 损失函数之和。
其中的损失函数在这里插入图片描述
可以衡量你的算法的效果,每一个训练样例都输出yi ̂,再把它 与基本 真值标签yi进行比较。
如果想要通过学习获得合适的参数w和b,就需要通过 找到一个 w,b值,能让成本函数J尽可能的小,这就需要使用到梯度下降法
在这里插入图片描述
图形的高,代表了J(w,b)在某一点的值。我们需要做的就是,找到这个图形的最小值。
为了找到更好的参数值,我们要做的就是用某个初始值,去初始化w和b。对于,logistic回归而言,几乎任意的初始化方法都是有效的。通常使用0,或是任意值。但在logistic回归中,我们通常不这么做。因为函数是凸的,无论在哪里初始化,都应该达到同一个点或是大致相同的点。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值