V100显卡无法支持dolly系列模型BP16运算及BP16与FP16模型转换解决方式

在V100显卡上,由于不支持BP16运算,需要将模型从BP16转换为FP16。问题在于HuggingFace的transformer库加载的模型可能默认为BP16。解决方案包括修改模型配置文件config.json,将torch_dtype从bfloat16改为float32或float16,并在训练参数中设置bp=False和fp16=True。注意,转换至float16可能造成精度损失。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

项目场景:

在模型训练过程中,可能会出现由BP16类型的模型需要转换到FP16类型的模型的需求,我研究了半天才试验出来,分享一个在实际过程中方便更改并能跑通的处理过程如下。


问题描述

V100无法支持BP16运算。 BP16类型的模型转换到FP16l类型的模型解决办法


原因分析:

在使用V100显卡进行模型训练:模型数据在加载及实际运算过程中会由自身配置的参数设定进行加载和运算,使用huggingface的transfomer库中的AutoModel.from_pretrained(“model_name_or_path”)虽然能正常加载,但在运算时会进行报错,需要我们使用FP类型的数据在V100显卡上进行运算。


解决方案:

修改模型加载方式及训练过程中数据类型为FP类型

例如:以dolly-v**系列模型举例,模型的本身数据类型为bfloat16,运算过程中也是这种格式,导致此模型无法再V100这种不支持BF类型的显卡上运行。
我们需要先将模型默认的数据类型修改为FP类型,直接在模型的config.json文件中修改,处理方式如下:
在这里插入图片描述
然后在训练的参数配置中设置bp=False,不转换为BP类型,设置fp16=True,这样会将我们原先加载的float32数据类型的模型转换为fp16数据类型进行模型的运算(会有一定的精度损失)。
在这里插入图片描述
小提示:congfig.json文件中定义的 "torch_dtype": "bfloat16",我们改为"torch_dtype": “float32”,如果直接改为“float16”会出现比较大的精度损失(BP16和FP32的数值表示范围一致,而FP16的表示范围要小得多)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值