3B模型大概占多少存储

3B模型下大概占多少存储

  • 模型参数总量:3 × 10⁹ 个参数

  • 单位换算

    • 1 KB = 10³ 字节
    • 1 MB = 10⁶ 字节
    • 1 GB = 10⁹ 字节

下面将分别针对 FP32、FP16、INT8、INT4 四种精度,展示每个参数占用的字节数、计算公式,以及最终得到的磁盘占用。

1. FP32(单精度浮点)

  • 每参数字节数:4 字节
  • 参数总数:3 × 10⁹
计算步骤
  1. 先计算所有参数占用的总字节数:

    3 × 10⁹(参数) × 4(字节/参数) = 12 × 10⁹ 字节
    
  2. 将字节数转换为 GB:

    12 × 10⁹ 字节 ÷ (10⁹ 字节/GB) = 12 GB
    

结论:FP32 权重文件约 12 GB

2. FP16(半精度浮点)

  • 每参数字节数:2 字节
  • 参数总数:3 × 10⁹
计算步骤
  1. 计算总字节数:

    3 × 10⁹(参数) × 2(字节/参数) = 6 × 10⁹ 字节
    
  2. 转换为 GB:

    6 × 10⁹ 字节 ÷ (10⁹ 字节/GB) = 6 GB
    

结论:FP16 权重文件约 6 GB

3. INT8(8 位整数量化)

  • 每参数字节数:1 字节
  • 参数总数:3 × 10⁹
计算步骤
  1. 计算总字节数:

    3 × 10⁹(参数) × 1(字节/参数) = 3 × 10⁹ 字节
    
  2. 转换为 GB:

    3 × 10⁹ 字节 ÷ (10⁹ 字节/GB) = 3 GB
    

结论:INT8 权重文件约 3 GB

4. INT4(4 位整数量化)

  • 每参数字节数:0.5 字节

    • 4 位 = ½ 个字节
  • 参数总数:3 × 10⁹

计算步骤
  1. 计算总字节数:

    3 × 10⁹(参数) × 0.5(字节/参数) = 1.5 × 10⁹ 字节
    
  2. 转换为 GB:

    1.5 × 10⁹ 字节 ÷ (10⁹ 字节/GB) = 1.5 GB
    

结论:INT4 权重文件约 1.5 GB

汇总表格

精度类型每参数占用计算公式总字节数转换后大小说明
FP324 字节3 × 10⁹ × 4 = 12 × 10⁹ 字节12 × 10⁹ 字节12 GB单精度浮点,训练常用
FP162 字节3 × 10⁹ × 2 = 6 × 10⁹ 字节6 × 10⁹ 字节6 GB半精度浮点,推理常用
INT81 字节3 × 10⁹ × 1 = 3 × 10⁹ 字节3 × 10⁹ 字节3 GB8 位量化,适合边缘设备
INT40.5 字节3 × 10⁹ × 0.5 = 1.5 × 10⁹ 字节1.5 × 10⁹ 字节1.5 GB4 位量化,存储最小,但可能精度损失更大

说明:上表仅计算了模型权重文件的大小,不包含配置文件(config.json)、分词器文件(tokenizer.jsonvocab.txt 等)和可能存在的拆分索引文件。实际下载的文件夹会略大(通常额外增加几百 MB)。

总结

  • FP32(4 字节/参数):约 12 GB,适合训练阶段使用。
  • FP16(2 字节/参数):约 6 GB,兼顾精度与推理效率。
  • INT8(1 字节/参数):约 3 GB,适合资源受限的部署场景。
  • INT4(0.5 字节/参数):约 1.5 GB,存储需求最小,但相对更容易影响模型性能。

以 LLaMA 3.2 3B 模型为例,其在不同精度下的显存需求如下

精度类型显存需求(约)
FP166.5 GB
FP83.2 GB
INT41.75 GB
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

frostmelody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值