服务器有两块GPU,原本没有指定GPU的,直接用cuda()语句可以运行
今天GPU 0 上面有别人在跑的程序,所以让我指定GPU 1 来跑
一开始试了各种方法代码还是报错,最后简单地加了一条语句就跑通了
import torch
device = 1
torch.cuda.set_device(device)
当服务器上有多个GPU并需要避免干扰时,可以使用PyTorch的torch.cuda.set_device()函数指定使用特定GPU。博客中提到,在有其他程序占用GPU0的情况下,通过设置设备变量为1,并调用该函数成功将程序运行在GPU1上。
服务器有两块GPU,原本没有指定GPU的,直接用cuda()语句可以运行
今天GPU 0 上面有别人在跑的程序,所以让我指定GPU 1 来跑
一开始试了各种方法代码还是报错,最后简单地加了一条语句就跑通了
import torch
device = 1
torch.cuda.set_device(device)
您可能感兴趣的与本文相关的镜像
PyTorch 2.5
PyTorch 是一个开源的 Python 机器学习库,基于 Torch 库,底层由 C++ 实现,应用于人工智能领域,如计算机视觉和自然语言处理
4992
1323
1004

被折叠的 条评论
为什么被折叠?