【pytorch】计算一个CNN模型model的参数量,即论文中常用的#parameters

本文澄清了模型存储量与参数量的区别,并提供了在PyTorch中计算模型参数量的具体方法,通过实例代码展示了如何获取模型总参数数量。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

在开始之前,请记住,存储量不是参数量!!!!
存储量不是参数量!!!!
存储量不是参数量!!!!

通常来说我们在训练模型的时候会用checkpoint的方法把模型保存下来,一个模型小则几十M,大则上百M,并且我们很多时候会把这个存储量误认为是参数量,比如在这里插入图片描述
但是实际上这个是存储量而不是参数量,那么在pytorch中参数量怎么计算呢?
实际上我们可以直接在pytorch代码中print一个模型的参数:
话不多说,代码如下:

params = list(self.get_model().parameters())#所有参数放在params里
k = 0
for i in params:
   l = 1
   for j in i.size():
        l*=j     #每层的参数存入l,这里也可以print 每层的参数
   k = k+l   #各层参数相加
print("all params:"+ str(k))   #输出总的参数

通常来说这个params最后print出来要除以100万转换为M为单位(论文中常用的格式)
好了,这就是pytorch中模型参数量的计算方法

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值