haiscale | 幻方萤火高性能并行训练工具库

haiscale是一个轻量级的高性能并行训练库,整合了幻方AI的并行训练经验,支持PyTorch用户在大规模集群上高效训练模型。主要特性包括:haiscale.ddp(分布式数据并行,基于hfreduce通信)、haiscale.fsdp(优化的FSDP实现)、haiscale.pipeline(流水线并行工具,支持GPipe、PipeDream等)和haiscale.cpu_offload(神经网络模型Offload)。实验证明,haiscale在各种并行方式下相比PyTorch官方工具有显著性能提升。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

 

haiscale (Highflyer AI Scale) 是一个轻量级的高性能并行训练工具库,其整合了幻方 AI 多年的并行训练研发优化经验,能够帮助 PyTorch 用户更加高效、便捷地在大规模集群上训练模型。

haiscale 中包含了以下几种工具:

1. haiscale.ddp: 分布式数据并行工具,以幻方 AI 自研的 hfreduce 通信为后端,相比于 NCCL 能够获得更好的多卡拓展性能;

2. haiscale.fsdp: 极致优化 Fully Sharded Data Parallel (FSDP) 算法的实现,相比于 PyTorch FSDP 速度更快、占用显存更少;

3. haiscale.pipeline: 分布式流水线并行(或称模型并行)工具包,包含 GPipe, PipeDream 等算法,支持多机多卡训练;

4. haiscale.cpu_offload: 神经网络模型 Offload 工具,节省训练占用的显存。

下图展示了 haiscale 三种并行方式的性能,其相比 PyTorch 官方自带工具都有显著的性能提升:

用于测试的模型是 GPT-2 Medium,相关代码已开源至 hfai 模型仓库。下面将为大家简要介绍。

API文档:https://doc.hfai.high-flyer.cn/api/haiscale_ddp.html

示例模型:https://github.com/HFAiLab/hfai-models/tree/main/gpt


安装

haiscale 提供 Python 接口,通过如下方式安装:

  1. 如果要使用 haiscale DDP,首先需要先安装 hfreduce (如果不需要使用 DDP 可跳过这步):
    sudo apt install libnuma-dev
    sudo apt install libibverbs-dev
    pip install hfreduce --extra-index-url https://pypi.hfai.high-flyer.cn/simple --trusted-host pypi.hfai.high-flyer.cn
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

幻方AI小编

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值