问题
training_loss异常大,在二分类损失中,收敛在1~2附近,而eval_loss却正常(小于0.5)
分析
参考:
Bug in gradient accumulation training_step in huggingface Trainer?
Fix Gradient Accumulation issue
使用解决了多卡gradient accumulation严重BUG的最新transformer库(以及对应的trl库),DPO训练的时候LOSS变为之前的好几倍
New GA fix causes training loss multiple times higher across the board (5x to 10x higher)
版本:trainsformer==4.46.0
怀疑启用training_args.gradient_accumulation_steps后,training_loss变大。

最低0.47元/天 解锁文章
2522

被折叠的 条评论
为什么被折叠?



