机器学习中为什么要用混合精度训练

TensorFlow-v2.15

TensorFlow-v2.15

TensorFlow

TensorFlow 是由Google Brain 团队开发的开源机器学习框架,广泛应用于深度学习研究和生产环境。 它提供了一个灵活的平台,用于构建和训练各种机器学习模型

FP16与显存占用关系

显存(Video RAM,简称 VRAM)是显卡(GPU)专用的内存。

FP32(单精度浮点):传统深度学习默认使用32位浮点数

每个参数占用`4字节`

例如:1亿参数的模型 → 约400MB显存

FP16(半精度浮点):

每个参数占用`2字节`(直接减半)

相同模型 → 约200MB显存

双精度浮点(FP64)占 8字节
EEE 754标准:FP64遵循该国际标准,用 64位(8字节) 存储一个浮点数

机器学习中一般使用混合精度训练:FP16计算 + FP32存储关键变量。

混合精度方案的解决方式:

关键部分保留FP32:

    模型权重在优化时会保留FP32副本(主权重)

    损失计算使用FP32

非关键部分使用FP16:

    前向传播的中间激活值

    反向传播的梯度

您可能感兴趣的与本文相关的镜像

TensorFlow-v2.15

TensorFlow-v2.15

TensorFlow

TensorFlow 是由Google Brain 团队开发的开源机器学习框架,广泛应用于深度学习研究和生产环境。 它提供了一个灵活的平台,用于构建和训练各种机器学习模型

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

十子木

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值