pytorch
测试时内存暴增,考虑前向传播时梯度被保存,torch.no_grad()要在变量创建之前使用,变量已创建使用无效。
#关闭梯度
for param in model.parameters():
param.requires_grad=False
测试时内存暴增,考虑前向传播时梯度被保存,torch.no_grad()要在变量创建之前使用,变量已创建使用无效。
#关闭梯度
for param in model.parameters():
param.requires_grad=False