【从零开始AI】卷积神经网络中的参数量和计算量

本文详细介绍了卷积神经网络模型中的参数量和计算量计算方法,包括卷积层和全连接层的参数量公式以及FLOPs(浮点运算量)的计算。参数量和计算量是衡量模型复杂度和运行效率的关键指标,对于理解和优化深度学习模型至关重要。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

卷积神经网络模型的中的参数量和计算量是衡量深度学习算法的重要指标,计算量对应的是算法的时间复杂度。

一、参数量

1、卷积层的参数量
parameter=(kw∗kh∗Cin+1)∗Cout parameter = (k_w*k_h*C_{in}+1)*C_{out} parameter=(kwkhCin+1)Cout
其中表示Cout输出通道数,Cin表示输入通道数,kw表示卷积核宽,kh表示卷积核高。 kw*kh*Cin括号内的表示一个卷积核的权重数量,+1表示bias,括号表示一个卷积核的参数量,Cout表示该层有Cout个卷积核。
2、全连接层的参数量
parameter=(Nin+1)∗Nout parameter = (N_{in}+1)*N_{out} parameter=(Nin+1)Nout
其中表示Nout表示输出的权重数量,Nin表示输入的特征向量的权重,+1表示偏置。

二、计算量

1、卷积层的FLOPs
FLOPs=[(Cin∗kw∗kh)+(Cin∗kw∗kh−1)+1)∗Cout∗w∗h FLOPs = [(C_{in}*k_w*k_h)+(C_{in}*k_w*k_h-1)+1)*C_{out}*w*h FLOPs=[(Cinkwkh)+(Cinkwkh1)+1)Coutwh
FLOPs是英文floating point operations的缩写,表示浮点运算量,中括号内的值表示卷积操作计算出feature map中一个点所需要的运算量(乘法和加法),kw*kh*Cin表示一次卷积操作中的乘法运算量,kw*kh*Cin-1表示一次卷积操作中的加法运算量,+ 1 表示bias,W和H分别表示feature map的长和宽,Coutwh表示feature map的所有元素数。
2、全连接层的FLOPs
FLOPs=(In+(In−1)+1)∗Out FLOPs = (In+(In-1)+1)*Out FLOPs=(In+(In1)+1)Out
其中In表示乘法运算量,In-1表示加法运算量,+1表示偏置。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值