Deep learning I - III Shallow Neural Network - Derivatives of activation functions激励函数导数推导

本文详细解析了常用激活函数的导数计算过程,包括Sigmoid、tanh、ReLU及其变种Leaky ReLU等。这些导数对于理解神经网络的学习过程至关重要。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Derivatives of activation functions 激励函数的导数


Derivatives of Sigmod

sigmod=g(z)=11+ez(1)(1)sigmod=g(z)=11+e−z

g(z)=ddzg(z)=d(1+ez)1d(1+ez)d(1+ez)d(z)d(z)dz=(1+ez)2ez1=1(1+ez)ez(1+ez)=1(1+ez)1+ez1(1+ez)=1(1+ez)(11(1+ez))=g(z)(1g(z))(2)(2)g′(z)=ddzg(z)=d(1+e−z)−1d(1+e−z)∗d(1+e−z)d(−z)∗d(−z)dz=−(1+e−z)−2∗e−z∗−1=1(1+e−z)∗e−z(1+e−z)=1(1+e−z)∗1+e−z−1(1+e−z)=1(1+e−z)∗(1−1(1+e−z))=g(z)∗(1−g(z))

这里写图片描述
Derivatives of tanh

sinh(z)=ezez2(3)(3)sinh(z)=ez−e−z2

cosh(z)=ez+ez2(4)(4)cosh(z)=ez+e−z2

ddzsinh(z)=ez+ez2=cosh(z)(5)(5)ddzsinh(z)=ez+e−z2=cosh(z)

ddzcosh(z)=ezez2=sinh(z)(6)(6)ddzcosh(z)=ez−e−z2=sinh(z)

tanh(z)=sinh(z)cosh(z)=g(z)=ezezez+ez(7)(7)tanh(z)=sinh(z)cosh(z)=g(z)=ez−e−zez+e−z

g(z)=ddz(sinh(z)cosh(z)1)=ddzsinh(z)cosh(z)1+sinh(z)ddcosh(z)cosh(z)1ddzcosh(z)=1+sinh(z)1cosh(z)2sinh(z)=1tanh(z)2(8)(8)g′(z)=ddz(sinh(z)cosh(z)−1)=ddzsinh(z)∗cosh(z)−1+sinh(z)∗ddcosh(z)cosh(z)−1∗ddzcosh(z)=1+sinh(z)∗−1cosh(z)2∗sinh(z)=1−tanh(z)2

这里写图片描述
Derivatives of ReLU

ReLU=g(z)=max(0,z)(9)(9)ReLU=g(z)=max(0,z)

g(z)={01if z<0if z0(10)(10)g′(z)={0if z<01if z≥0

Leaky ReLU=g(z)=max(0.01z,z)(11)(11)Leaky ReLU=g(z)=max(0.01z,z)

g(z)={0.011if z<0if z0(12)(12)g′(z)={0.01if z<01if z≥0

这里写图片描述
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值