导数和梯度

突然出现的疑惑

阅读神经网络通过梯度下降算法进行反向传播优化参数的相关资料时,突然想到权重更新首先是通过输出函数对权重求偏导,之后在原有权重值得情况下进行更新(减去或者加上偏导值),那难道求到的偏导就是梯度嘛,这样岂不是梯度和偏导是同样的含义,梯度和偏导之间又有什么关系呢?

查找资料解惑

最初在网上学习梯度下降时,基本上都会看到资料以“下山”为例来讲解梯度,下山方向最快的方向就是梯度方向,最开始只了解到这么一个结论,只理解字面含义,今天又重新查找资料,在知乎(参考https://www.zhihu.com/question/36301367)中看到相关解释,增加了一些自己的理解。

1)函数中的某个点在满足一定条件时会存在多个方向导数,具体条件可查看相关数学理论。
2)其中“导数值”最大的“方向导数”所对应的方向就是梯度方向,该“导数值”就是梯度值。即梯度就是多个方向导数中“值”最大的方向导数。
3)此时也就和“下山”的例子相对应,在某个点下山时有多个下山方向,多个下山方向就对应了多个方向导数,下山最快的方向就是“值”最大的方向导数即梯度方向。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值