pytorch 半精度训练

在应用torch.cuda.amp的autocast进行GPU加速后,训练时间从44秒减少到35秒,但发现训练过程中的精度出现了下降。具体表现为从epoch703时的train_acc0.4415到1406时的0.5842,以及对应的测试和验证精度变化。这表明优化可能影响了模型学习的稳定性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

必坑记录

在这里插入图片描述
这种训练直接变成nan了结果

实验结果

前者采用正常训练
在这里插入图片描述
后者改进为
from torch.cuda.amp import autocast as autocast
在这里插入图片描述
实验发现从一epoch44秒,减少为35秒。
但是训练的速度下降???

1 0.1 0.24348857969172819 2023-03-24 13:55:18
train_iters::703
train_acc::0.4415
test_acc::0.5398
validation_acc::0.5471
2 0.1 0.19170414526042015 2023-03-24 13:56:02
train_iters::1406
train_acc::0.5842
test_acc::0.5678
validation_acc::0.5729

1 0.1 0.2459259320416118 2023-03-24 14:08:25
train_iters::703
train_acc::0.438
test_acc::0.5173
validation_acc::0.5286
2 0.1 0.19614916702846374 2023-03-24 14:08:59
train_iters::1406
train_acc::0.5719
test_acc::0.5507
validation_acc::0.5513

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值