backpropagation

two layer neural network
Wi=WiαdWimin(L)
L=(YŶ )2 where Ŷ  is the ground truth
Y=φ(W3Y2)=φ(z)
z(W,Y)=WY
Y2=f(W2Y1)
f(x)=RELU(x)=max(x,0)

dLdW3
=dLdYdYdW3
=dLdYdYdzdzdW3
=2(YŶ )φ(z)(1φ(z))Y2
=dLdYdYdzdzdW3=2(YŶ )φ(W3Y2)(1φ(W3Y2))Y2

dLdW2
=dLdY2dY2dW2
=dLdYdYdφdφdY2Y2W2

if W2Y10,f(W2Y1)=W2Y1

=

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值