pytorch同批数据测试多轮结果不同

本文探讨了在PyTorch中,模型在验证集上结果不稳定的问题,发现未在模型预测阶段启用`model.eval()`导致批内均值和方差变化。解释了`model.eval()`去除Dropout和BN层动态行为的作用,并强调了BN层如何影响验证结果。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

问题

Val验证集,dataloader设置shuffle=True,图像预处理不采用随机增强,使用同一个模型,测试多轮,结果准确率每轮都不同。

分析

正常情况下,同一个模型,同一批数据,测试结果应该相同。如果不同则可能是每轮输入数据随机增强方式不同,或者是每轮模型参数发生改变。但是我并没有采取随机增强,因此问题主要出在模型改变上。

解决

经过仔细分析代码,发现模型预测中没有加model.eval(),加了后每轮评估结果都相同了。

原因

Pytorch model.eval()做了什么

后来查阅资料发现,model.eval()能够去掉模型中的Dropouts层和BatchNorm层等。

而我的模型采用torchvision的resnet18,模型中有BN层,但没有Dropouts层。

在这里插入图片描述

如上图所示,γ和β是训练参数,在模型验证过程中不变,但批均值μ和批方差σ与每批的输入相关,而采用shuffle=True会导致每轮验证中批数据不同,因此结果也不同。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值