如何选择适合自己电脑的本地部署模型,模型的大小与b之间的关系,模型参数,量化Q

FP32 LLM   4字节/参数

FP16 LLM   2字节/参数

INT4       0.5字节/参数

无论原始模型是FP32还是FP16,用INT4量化后都是0.5字节/参数

1B=10亿参数,用FP32模型,10亿字节为1GB,1B为4GB

GPU不仅要容纳模型本身大小,还要存储中间结果梯度梯度等等,需要额外空间20%~50%

1B->4GB->4*1.2~1.5=4.8GB~6GB

Deepseek 14B LLM模型大小计算:

14B-> 140*4/10*1.2~1.5=67.2GB~84GB

参与量化后,14B->140*4/10/8*1.1*1.2~1.5(量化后为原八分之一大小,然后还有一部分源数据,所以乘以1.1)=8.4GB~10.5GB

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值