如何估算 LLMs 微调的内存消耗

 在深入研究PEFT方法之前,重要的是要理解为什么完全微调的成本会非常高。

诸如GPT-2和BERT之类的第一批LLM现在可能被认为是小型的,但当它们发布时,我们从未处理过如此大型的模型。在分多个阶段发布后,OpenAI的GPT-2被提议分为小型、中型、大型和XL尺寸,分别包含1.37亿、3.8亿、8.12亿和16.1亿个参数。

BERT模型的大小相似:分别为1.1亿和3.36亿。虽然在消费级硬件上微调这些模型已经极具挑战性,但与最近的大型语言模型(LLM)的规模相比,这些规模根本不算什么。例如,最大的Llama 3模型有4050亿个参数。谷歌的Switch是有史以来提出的最大的LLM之一,拥有1.6T参数。

在本节中,我们将评估微调大型语言模型在 GPU 内存消耗方面的成本。请注意,我在本节中建立了一些公式,用于形式化和编写内存消耗估算器。

首先,我们将了解如何快速估算加载大型语言模型的精确内存消耗。然后,我们将估算为微调而创建的优化器状态和梯度的内存消耗。最后一个部分,我们将估算模型的激活内存消耗,这是最复杂的部分,也是最近似的部分,因为它没有考虑现代深度学习框架(如 PyTorch)中实现的任何优化。尽管如此,了解微调框架需要创建和存储什么来更新模型的参数仍然是有益的。

模型内存消耗

我们从 Llama 3.1 8B 开始举例。该模型以 bfloat16 参数进行

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

runner000001

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值