目录
Llama3 70B,参数量,普通5千元电脑能本地实现单次推理吗
大模型参数大小,占用多少字节,验证环节需要多少算力
关于主流大模型的参数大小、占用的字节数以及验证环节所需的算力,以下是一些具体的例子和分析:
一、主流大模型参数大小及占用字节数
-
ChatGPT
- 参数规模:约1750亿(即175B)
- 占用字节数(以float32为例):175,000,000,000 × 4字节 = 700,000,000,000字节 =
目录
Llama3 70B,参数量,普通5千元电脑能本地实现单次推理吗
关于主流大模型的参数大小、占用的字节数以及验证环节所需的算力,以下是一些具体的例子和分析:
ChatGPT