train和eval在训练集上表现差距很大

博主遇到在训练结束后使用train和eval模式下模型表现不佳的问题。通过排除过拟合、代码错误等因素并尝试冻结BN层、调整dropout等方法仍未解决。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

目前在训练结束之后发现使用train和eval跑出来的结果很差。于是做了以下测试:

1.为避免问题是过拟合导致的,于是在训练集上使用eval发现替换model.train与model.eval差别很大。并且使用train与训练时计算的loss也有比较大的差距。

2.为避免代码造成的问题,于是将train.py基础上去掉后向传播和模型保存部分,结果与上述一致。

3.根据网上的一些办法,使用以下函数冻结bn层:结果保持不变

def freeze_bn(m):
    classname = m.__class__.__name__
    if classname.find('BatchNorm') != -1:
        m.momentum=1
        #m.track_running_stats = False
        #m.eval()

4.数据处理时加入归一化重新训练,结果表现依然不变

5.将验证时的dropout的概率置0,结果保持不变

backbone使用了resnet,显卡原因batchsize只能到8,我现在这个问题有大佬能帮忙解决吗,感激不尽

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值