PyTorch模型参数统计问题

PyTorch模型参数统计问题

使用torchsummary

使用torchsummary可以方便的统计模型的参数量

from torchsummary import summary
model = net().cuda()
input_shape = (1,256,256)
summary(model, input_shape)

即可打印出网络结构和参数统计
但是有一个问题:对于共享参数的模块(说白了就是重复调用的模块)会重复统计
这里有一篇知乎专栏文章很直观地分析了这个问题。

以后用torchsummary统计参数时如若遇到参数量爆炸的情况可以用下面的方法进行统计,不过两个还是结合着来用比较好,毕竟torchsummary还可以打印网络结构,比较直观。

def count_parameters(model):
	return sum(p.numel() for p in model.parameters() 
		if p.requires_grad)

看一下对比:
在这里插入图片描述

评论 9
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值