【libtorch】tensor.to(at::CUDA)不生效以及 tensor.to(at::CUDA)&&model.to(at::CUDA)的区别

本文详细介绍了在PyTorch中,将模型和张量迁移到CUDA设备上的不同之处。对于张量,to()操作返回一个新的在GPU上的张量,而原始张量保留在CPU上。而对于模型,to()操作则是直接移动模型到GPU,完成资源的迁移。正确使用张量的CUDA操作应通过赋值来替换原始张量,或者一步到位直接在创建时指定设备。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

tensor.to(at::CUDA)&&model.to(at::CUDA)的区别

执行tensor.to(at::CUDA)发现tensor还在cpu中

官方文档如下:文档链接

在这里插入图片描述
注意move和return的区别
对于model,是move,即将model从cpu中移动到GPU中
对于tensor,是return,即返回一个新的tensor,新的Tensor在gpu中,原赖的Tensor还在CPU中

代码例子:

torch::Tensor a = torch::ones({23});	//此时a在cpu中
a.to(at::kCUDA);	// 跟pytrch不一样,这么用的话,a仍然还在cpu中,典型的被pytorch坑了
torch::Tensor b = a.to(at::kCUDA);	// 此时b在gpu中,a在cpu中,正确用法

一步到位法:

torch:Tensor a = torch::ones({2, 3}).to(at::kCUDA);

如果是model的话,就直接是move可,代码例子:

torch::jit::script::Module get_jit_module(std::string model_path){
    torch::jit::script::Module module;
    //读取模型
    try {
        module = torch::jit::load(model_path);
        module.to(at::kCUDA);	// 直接移到cuda中
    } catch (const c10::Error& e) {
        std::cerr << "Error : can't load the jit file..." << std::endl;
        throw(e);
    }
    return module;
}
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值