大模型如transformers的提高训练速度,减少内存使用的方法

本文探讨了多种优化Transformer模型训练的方法,包括梯度累积以增加虚拟批量大小,网络层冻结以减少计算,浮点精度降低(如float16)以节省内存,使用8-bit Optimizers实现内存占用下降,Gradient Checkpointing通过牺牲计算换取内存,以及Fast Tokenizers加速处理。此外,动态Padding策略允许根据输入动态调整填充,避免固定最大长度带来的浪费。这些技术对于训练大模型时的效率和资源管理至关重要。
部署运行你感兴趣的模型镜像

本文主要将针对大模型如transformers的提高训练速度,减少内存使用的方法。

1. 梯度累积(Gradient Accumulation):

梯度累积(Gradient Accumulation)是一种不需要额外硬件资源就可以增加批量样本数量(Batch Size)的训练技巧。这是一个通过时间换空间的优化措施,它将多个Batch训练数据的梯度进行累积,在达到指定累积次数后,使用累积梯度统一更新一次模型参数,以达到一个较大Batch Size的模型训练效果

if step % gradient_accumulation_steps == 0 or step == steps:
        torch.nn.utils.clip_grad_norm_(model.parameters(), max_norm)
        optimizer.step()
        model.zero_grad()

2. freezing:
网络的底层学习输入数据的通用特征,而网络顶层学习目标任务特定的高级特征,所以在对预训练模型进行微调时,一般网络底层的参数都不怎么需要变,这些都是通用的知识,需要学习的是顶层的那些参数,当使用某种优化算法(如 SGD、AdamW 或 RMSprop)执行优化步骤时,网络的底层的梯度就都很小,因此参数几乎保持不变,这也被称为梯度消失,因此,与其花费大量的时间和算力来计算底层这些“无用”梯度,并对此类梯度很小的参数进行优化,不如直接冻结它们,直接不计算梯度也不进行优化。

3. 主要是float32变成float16,这样内存使用变小,增加处理的数据量,提高了运行效率和速度。

4. 8-bit Optimizers:作者(Meta Research)在最初的论文 “8-bit Optimizers via Block-wise Quantization” 中详细介绍了 8-bit Optimizers,表明 8-bit Optimizers 显著降低了显存占用,略微加快了训练速度。
量化是指将信号的连续取值近似为有限多个离散值的过程。具体到计算机系统,指的是将浮点数值映射到低bit数值的操作。一般来说,我们可以通过以下手段应用量化

  1. 量化模型参数来压缩模型;
  2. 量化模型某些层的激活值来减少内存占用*;

5. Gradient Checkpointing:
Checkpointing的工作原理是用计算换取内存。Checkpointing部分不会存储整个计算图的所有中间激活以进行反向计算,不会保存中间激活,而是在反向过程中重新计算它们。它可以应用于模型的任何部分。

具体而言,在前向传播中,该函数将以 torch.no_grad 的方式运行,即不存储中间激活。然而,前向传播保存了输入元组和函数参数。在反向传播时,检索保存的输入和函数,然后再次对函数进行前向传播,跟踪中间激活,然后使用这些激活值计算梯度。
6. Fast Tokenizers:使用rust语言,多核处理。

# initializing Fast version of Tokenizer
fast_tokenizer = AutoTokenizer.from_pretrained(model_path, use_fast=True)
print(f"Fast version Tokenizer:\n\n{fast_tokenizer}")

7. Dynamic Padding

根据输入大小动态padding,不用每次都是最大长度。

上面内容感觉还和我以前一篇文章内容有些重合,以前这篇文章偏迁移学习多些。
大模型的压缩/微调方法:https://blog.youkuaiyun.com/zephyr_wang/article/details/125535751

参考:
1.Optimization approaches for Transformers
https://www.kaggle.com/code/vad13irt/optimization-approaches-for-transformers

您可能感兴趣的与本文相关的镜像

Yolo-v5

Yolo-v5

Yolo

YOLO(You Only Look Once)是一种流行的物体检测和图像分割模型,由华盛顿大学的Joseph Redmon 和Ali Farhadi 开发。 YOLO 于2015 年推出,因其高速和高精度而广受欢迎

<think>好的,我现在需要解决用户在Colab上训练大模型时遇到的内存不足问题。首先,我应该回忆一下自己之前学过的相关知识,或者查找相关的解决方案。记得用户提到了微调大模型,可能涉及全微调和部分微调,而内存不足通常和模型大小、数据批次、资源限制有关。 首先,Colab的内存是有限的,尤其是免费版。所以,用户可能在训练较大的模型时遇到了内存不足的问题。我需要考虑如何减少内存的使用。根据引用中的内容,部分微调可能比全微调更节省资源,所以这可能是一个方向。另外,检查是否有不必要的参数被加载,比如冻结部分层,只训练顶层,这样可以减少内存占用。 接下来,混合精度训练也是一个常用的方法,使用FP16可以减少内存使用,同时加快训练速度。不过需要确保硬件支持,比如Colab的GPU是否支持。然后是梯度累积,通过多次前向传播后再更新梯度,这样可以使用更小的批次,减少单次的内存需求。 优化器的选择也很重要,比如使用AdamW或者更高效的优化器如Adafactor,这些优化器可能在内存使用上更高效。此外,检查模型和数据是否有冗余,比如是否有重复加载的数据,或者模型结构中有没有可以精简的部分。 可能还需要考虑使用内存分析工具,比如Colab自带的资源监控,或者PyTorch的memory profiler,来找出内存使用的瓶颈。此外,减少批次大小是最直接的方法,但可能会影响训练效果,需要权衡。 还有,使用checkpointing技术,即梯度检查点,用时间换空间,在计算梯度时只保留部分中间结果,从而减少内存占用。例如,在PyTorch中可以用torch.utils.checkpoint。 最后,如果以上方法都不够,可能需要考虑模型并行,将模型分散到多个设备上,但Colab可能只提供单个GPU,这时候可能不太可行。或者使用更小的模型,或者采用分布式训练的其他技巧。 总结下来,可能的解决方案包括: 1. 部分微调,冻结部分层。 2. 混合精度训练。 3. 梯度累积。 4. 优化批次大小。 5. 使用内存高效的优化器。 6. 检查模型和数据冗余。 7. 梯度检查点。 8. 监控和分析内存使用情况。 9. 使用Colab Pro获得更多资源。 需要将这些方法逐一解释,并给出具体的操作步骤,比如代码示例或者配置调整。同时,要确保引用相关的内容,比如部分微调的优势来自引用[2],混合精度训练可能需要引用其他资料,但用户提供的引用中没有,所以可能需要避免引用不存在的来源。 另外,用户可能需要具体的代码示例,比如如何在PyTorch中设置混合精度,或者如何冻结层。需要确保代码正确,并且符合Colab的环境。同时,提醒用户注意硬件限制,可能需要升级到Colab Pro或者考虑其他云服务。 最后,生成相关问题,比如如何选择微调方法,或者如何优化批次大小等,保持问题的相关性。</think>### 分步解决方案 在Colab中训练大模型时遇到内存不足的问题,可以通过以下方法逐步优化: --- #### 1. **使用部分微调(Partial Fine-Tuning)** 冻结模型底层参数,仅训练顶层部分。 - **原理**:底层通常提取通用特征,顶层更适配具体任务,减少需更新的参数量[^2]。 - **代码示例(PyTorch)**: ```python # 假设使用BERT模型 from transformers import BertForSequenceClassification model = BertForSequenceClassification.from_pretrained("bert-base-uncased") # 冻结前8层参数 for param in model.bert.encoder.layer[:8].parameters(): param.requires_grad = False ``` --- #### 2. **启用混合精度训练** 使用FP16精度减少内存占用并加速计算。 - **操作步骤**: - 在PyTorch中设置`autocast`和`GradScaler`: ```python from torch.cuda.amp import autocast, GradScaler scaler = GradScaler() for batch in data: with autocast(): outputs = model(batch) loss = outputs.loss scaler.scale(loss).backward() scaler.step(optimizer) scaler.update() ``` --- #### 3. **梯度累积(Gradient Accumulation)** 通过多次小批次累积梯度后再更新参数。 - **代码示例**: ```python accumulation_steps = 4 # 累积4次梯度后更新 optimizer.zero_grad() for i, batch in enumerate(data): loss = model(batch).loss loss = loss / accumulation_steps # 梯度归一化 loss.backward() if (i+1) % accumulation_steps == 0: optimizer.step() optimizer.zero_grad() ``` --- #### 4. **减少批次大小(Batch Size)** - **直接调整**:将`batch_size`降低为原值的1/2或1/4,例如从32调整为8。 --- #### 5. **使用高效优化器** 选择内存占用更小的优化器(如Adafactor)。 - **代码示例**: ```python from transformers import Adafactor optimizer = Adafactor(model.parameters(), scale_parameter=False, relative_step=False) ``` --- #### 6. **启用梯度检查点(Gradient Checkpointing)** 以时间换空间,减少中间激活值的内存占用。 - **代码示例**: ```python model.gradient_checkpointing_enable() ``` --- #### 7. **监控内存使用** 通过Colab资源管理器或代码检查内存瓶颈: ```python # 查看GPU内存使用情况 !nvidia-smi # 使用PyTorch内存分析 print(torch.cuda.memory_summary()) ``` --- #### 8. **升级硬件配置** 若上述方法仍不足,可考虑: - 升级到Colab Pro获得更多内存(最高25GB RAM)。 - 使用云服务(如AWS/Azure)配置更高显存的GPU。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值