Overview
🤗 Accelerate is a library that enables the same PyTorch code to be run across any distributed configuration by adding just four lines of code! In short, training and inference at scale made simple, efficient and adaptable.
Demo
# + 代表使用accelerate的增加语句;- 代表去掉 + from accelerate import Accelerator from transformers import AdamW, AutoModelForSequenceClassification, get_scheduler + accelerator = Accelerator() model = AutoModelForSequenceClassification.from_pretrained(checkpoint, num_labels=2) optimizer = AdamW(model.parameters(), lr=3e-5) - device = torch.device("cuda") if torch.cuda.is_available() else torch.device("cpu") - model.to(device) + train_dataloader, eval_dataloader, model, optimizer = accelerator.prepare( + train_dataloader, eval_dataloader, model, optimizer + ) num_epochs = 3 num_training_steps = num_epochs * len(train_dataloader) lr_scheduler = get_scheduler( "linear", optimizer=optimizer, num_warmup_steps=0, num_training_steps=num_training_steps ) progress_bar = tqdm(range(num_training_steps)) model.train() for epoch in range(num_epochs): for batch in train_dataloader: - batch = { k: v.to(device) for k, v in batch.items()} outputs = model(**batch) loss = outputs.loss - loss.backward() + accelerator.backward(loss) optimizer.step() lr_scheduler.step() optimizer.zero_grad() progress_bar.update(1)如果简单来说,就是添加了一个
accelerate来控制分布式训练,其中了loss的backward变成了accelerate.backward(loss)。
Installation & Configuration
安装和配置参考官网即可,其中配置的过程是需要在终端Terminal上通过回答一系列问题,然后自动生成一个名为default_config的yaml文件,并保存在根目录.catch/huggingface/accelerate目录下。
配置完成之后可以使用accelerate env [--config_file] [config_file_name]来验证配置文件是否是Valid。
默认配置文件内容:
- `Accelerate` version: 0.11.0.dev0
- Platform: Linux-5.10.0-15-cloud-amd64-x86_64-with-debian-11.3
- Python version: 3.7.12
-

� Accelerate 是一个PyTorch库,只需4行代码就能实现跨各种分布式配置运行。它简化了训练和推理,支持分布式训练、梯度裁剪、混合精度训练等功能。通过accelerate启动、配置、验证和训练脚本,可以轻松处理分布式环境。在训练过程中,dataloader会在各GPU间均匀分布,确保数据同步。加速器提供了自动处理device和loss backward的功能,并允许手动配置。此外,它还提供了一种分布式评估方法,以及模型和训练状态的保存与加载。
最低0.47元/天 解锁文章
2320

被折叠的 条评论
为什么被折叠?



