解锁模型魔法:你需要的基础知识秘籍

模型基础应用知识

我们经常会看到模型的名字中会带有0.5B、7B、32B等等,其中B表示是Billion(十亿)个参数

模型大小参数数量
0.5B5亿
1.5B15亿
7B70亿
13B130亿
32B320亿
70B700亿
计算机基础知识,内存/磁盘存储,基本单位为字节(byte)
单位换算
KB1 KB=1024 Bytes
MB1 MB=1024 KB
GB1 GB=1024 MB
TB1 TB=1024 GB
训练模型参数类型
参数类型占用字节说明
float4 bytes32位浮点数
half/BF162 bytes16位浮点数
int81 bytes8位整数
int40.5 bytes4位整数
评估内存使用需求

此处以Qwen2.5-VL-7B-Instruct-bf16为例

  1. 7B = 7 Billion 70亿个参数
  2. BF16 = 使用参数类型为half/BF16,占用2个字节

计算:需要占用字节数:7,000,000,000 * 2 = 14,000,000,000 bytes 也就是140亿字节

换算成占用多少GB

= 14 * 1000 * 1000 * 1000 / 1024 / 1024 / 1024 = 14 *

≈ 14 * 0.93

≈ 13.02 GB

说明:
1000∗1000∗1000/1024/1024/1024=(1000/1024)3≈0.93 1000 * 1000 * 1000 / 1024 / 1024 / 1024 = (1000 / 1024)^3 ≈ 0.93 100010001000/1024/1024/1024=(1000/1024)30.93

评估模型训练需求

说明:

为了确保模型训练的精准度,一般参数类型选择float类型,如果硬件性能稍微差点,也可以选择half/BF16,但是不能选择Int8和Int4。

由于模型训练收到反向传播算法、Adam优化算法以及Transformer架构等因素的影响,训练所需的内存一般是LLM(Large Language Model)内存需求的3~4倍。

例如:训练Qwen-7B模型所需的内存计算(保守估算按照4倍的方案来计算)
  1. 使用Float参数类型来计算,7B * 4 * 4 ≈ 104GB
  2. 使用half/BF16参数类型计算,7B * 2 * 4 ≈ 52GB
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

会编程的吕洞宾

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值