7、深度学习模型的内存与计算优化策略

深度学习模型的内存与计算优化策略

1. 量化技术的数据类型选择

在深度学习模型训练和推理过程中,内存管理是一个关键问题,尤其是对于多十亿参数的大型模型。量化技术是解决这一问题的有效手段,通过使用不同的数据类型来减少内存占用。

  • bfloat16 :bfloat16 已成为 fp16 的流行替代方案,它仅用 16 位就涵盖了 fp32 的全范围,减少了模型训练期间因溢出导致的数值不稳定问题。与 fp16 相比,bfloat16 动态范围更大但精度稍低,通常是可以接受的。它用 1 位表示符号,8 位表示指数,分数部分截断为 7 位,因此常被称为“截断的 32 位浮点数”。例如,存储 20 位小数的 π 值时,bfloat16 表示为 3.140625,有轻微的精度损失,但保持 fp32 动态范围和减少溢出的好处通常超过了精度损失。较新的 GPU 如 NVIDIA 的 A100 和 H100 原生支持 bfloat16,许多现代生成式 AI 模型如 FLAN - T5、Falcon 和 Llama 2 都使用 bfloat16 进行预训练。
    |数据类型|总位数|符号位|指数位|分数位|存储一个值所需内存|
    | ---- | ---- | ---- | ---- | ---- | ---- |
    |fp32|32|1|8|23|4 字节|
    |fp16|16|1|5|10|2 字节|
    |bf16|16|1|8|7|2 字节|
    |fp8|8|1|7|1 字节|
    |int8|8|1|n/a|7|1 字节|

  • fp8

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值