神经网络时间复杂度

本文探讨了三层BP神经网络的计算复杂度,包括前馈计算与反向传播过程的时间复杂度分析。对于一个样本,前馈计算的时间复杂度为O(n2),反向传播亦相同;若训练样本总数为m,则整体训练时间复杂度为O(m*n2)。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

拿一个简单的三层BP神经网络来说好了,假设每层神经元数量分别为n1,n2,n3。


拿一个样本(n1 * 1)进行前馈计算,那么就要进行两次矩阵运算,两次矩阵乘法(实际上是向量和矩阵相乘)分别要进行n1 * n2 和 n2 * n3次计算,

由于输入层和最终输出层结点数量(n1和n3)是确定的,所以可以视为常量,中间的隐藏层n2可以由自己设定。


所以对一个样本的前馈计算时间复杂度应该是O(n1 * n2 + n2 * n3) = O(n2)。


反向传播时时间复杂度和前馈计算相同,假设总共有m个训练样本,每个样本只训练一次,那么训练一个神经网络的时间复杂度应该是O(m*n2)。


同样的,如果是对一个样本进行预测,那么时间复杂度应该是O(n2)。

评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值