测试集多次测试结果不一致原因总结

本文探讨了模型预测结果不稳定的原因,主要集中在数据预处理中的随机变换和测试过程未启用评估模式。数据预处理的随机操作可能导致训练集与测试集之间的差异,从而影响模型预测的准确性。同时,若未使用model.eval(),网络中的BN和Dropout等操作可能仍生效,进一步导致结果波动。理解并避免这些因素有助于提升模型的预测稳定性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

        所有的原因可以归结为测试过程中出现了随机的情况,但随机发生的原因不一而论。

一、数据预处理使用随机变换操作

        为了使模型更具鲁棒性,训练集数据的预处理往往会使用随机裁剪、随机水平垂直变换、随机仿射变换等数据增强手段,但在测试集数据的预处理过程务必避免随机操作的出现。

        这会导致每次输入的数据存在一定的偏差,进而导致模型预测结果的偏差。这种情况下,模型准确率一般会在较小的范围波动。

二、测试过程未开启评估模式

        即model.eval(),开启此模式才能使网络中的BN、Dropout等操作失效。

        若遇其它情况,会持续添加总结内容!大家若遇到其它情况,也欢迎在评论区留言~

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值