指定服务器中的特定GPU

当需要在服务器上特定的GPU上运行任务时,可以通过设置环境变量CUDA_VISIBLE_DEVICES来实现。首先,通过命令`watch -n1 nvidia-smi`观察所有GPU的状态,然后使用`os.environ['CUDA_VISIBLE_DEVICES']='1'`将运行环境指定到第二块GPU。这有助于在多GPU环境中有效管理和分配计算资源。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

如果服务器上有多块儿GPU可以供使用,但此时你希望在指定的服务器上跑,这个时候我们可以使用环境变量CUDA_VISIBLE_DEVICES来解决这个问题。

watch -n 1 nvidia-smi  #查看当前多块GPU的状态

然后设置指定的GPU,例如设定在第二个GPU上运行,可设置为:

os.environ['CUDA_VISIBLE_DEVICES'] = '1'

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值