Bug--pytorch张量不在一个设备上

RuntimeError: Expected all tensors to be on the same device, but found at least two devices, cuda:0 and cpu! (when checking argument for argument index in method wrapper_CUDA__index_select)

这个错误通常意味着你在 PyTorch 中尝试执行的操作涉及到了位于不同设备(通常是 CPU 和 GPU)上的张量。

1.检查张量所在设备

        print("Tensor CPU device:", input_ids.device)
        print("Attention mask device:", attention_mask.device)

Tensor CPU device: cpu
Attention mask device:cpu

2.将所有张量移动到相同的设备
一旦确认了张量所在的设备,你需要确保所有张量都在同一个设备上。你可以使用 .to() 方法来将张量移动到目标设备。移动到 GPU 

device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
        print("Model device:", device)
        input_ids = input_ids.to(device)
        attention_mask = attention_mask.to(device)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

西柚小萌新吖(●ˇ∀ˇ●)

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值