deepspeed分布式训练在pytorch 扩展(PyTorch extensions)卡住

文章讲述了在使用PyTorch进行多卡训练时,特别是deepspeed遇到长时间卡顿的问题。解决方法是删除根目录下的torch和torch_extensions缓存文件,以加快初次构建速度并避免卡住。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

错误展示:

Using /root/.cache/torch_extensions/py310_cu121 as PyTorch extensions root...

Using /root/.cache/torch_extensions/py310_cu121 as PyTorch extensions root...

 

错误表现:

出现在多卡训练过程的pytorch 扩展,deepspeed 长时间卡住(1-2小时)

 PyTorch extensions 初次构建需要一定的时间,如果构建失败需要将之前构建的缓存删除,否则就有可能卡住较长的时间

# 跳到用户目录
cd ~
# 展示所有的文件
ls -alh
# 上述步骤可以看到一个.cache的目录,需要删除 .cache 中与torch有关的缓存文件
rm -rf ~/.cache/torch
rm -rf ~/.cache/torch_extensions

重新运行训练脚本,程序work 

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值