卷积神经网络(二):卷积神经网络CNN的BP算法

本文档详细介绍了卷积神经网络(CNN)的反向传播(BP)算法,特别是在误差从池化层传递到卷积层的过程。讲解了在不同池化方法下,误差如何平均分配或全部反传,并且阐述了卷积层误差项如何通过与输入层做相关操作来计算核函数的偏导数以及偏置项的偏导数计算方式。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

该文档参考了:http://www.cnblogs.com/tornadomeet/p/3468450.html

在此表示感谢。

一般而言,多类别神经网络的输出一般采用softmax形式,即输出层的激活函数不采用sigmoid或者tanh函数。那么神经网络的最后一层的输出则为


下面看从pooling层到卷积层的误差如何反向传播,和多层神经网络一样,可以通过层与层间的连接实现误差传播,只是计算公式变为,

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值