[深度学习] 反向传播推导

本文详细探讨了深度学习中反向传播的原理,重点在于如何进行链式求导法则的应用。首先介绍了基本的求导概念,并强调在实际编程中缓存中间变量值的重要性。接着,文章详细讲解了Softmax损失函数对输入的求导方法,特别是在矩阵求导时的维度分析技巧。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

反向传播推导

反向传播是一种利用链式求导法则求梯度的方法,理解这个过程对于学习深度学习是十分重要的。之前一直只是理解基本的概念,下面详细说明具体的理论并具体推导。

基本求导

f(x,y)=xyfx=yfy=xf(x,y)=xy∂f∂x=y∂f∂y=x

f(x,y)=max(x,y)fx=1(xy)fy=1(yx)fx=0(xy)fy=0(yx)f(x,y)=max(x,y)∂f∂x=1(x≥y)∂f∂y=1(y≥x)∂f∂x=0(x≤y)∂f∂y=0(y≤x)

x=2y=5z=4q=x+y=3f=qz=12x=−2y=5z=−4q=x+y=3f=q∗z=−12

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值