池化层(pooling)的反向传播是怎么实现的
参考:https://blog.youkuaiyun.com/oBrightLamp/article/details/84635308
https://zhuanlan.zhihu.com/p/93556580
源码:
https://github.com/pytorch/pytorch/blob/v0.2.0/torch/nn/_functions/thnn/pooling.py#L81
参考博客:https://blog.youkuaiyun.com/qq_21190081/article/details/72871704
在看卷积神经网络的时候,突然想起来池化是会改变特征图的尺寸的,那反向传播是怎么实现的呢。于是搜了一些博客,感觉上面这个博客写得最清晰直观,就从这个博客里面搬了点东西过来作为笔记。
Pooling池化操作的反向梯度传播
本文探讨了池化层在卷积神经网络中的反向传播实现,包括mean pooling和max pooling。mean pooling反向传播时将梯度平均分配,确保总和不变,而max pooling则将梯度仅传递给前一层的最大值像素,使用max id记录最大值位置,以保持梯度总和恒定,防止梯度爆炸问题。
订阅专栏 解锁全文
1325

被折叠的 条评论
为什么被折叠?



