pytorch中.data()与.item(),.numpy(),.detach(),.cuda(),.cpu()的作用

本文介绍了PyTorch中处理张量的一些关键操作,如.data用于将变量转化为tensor并关闭梯度追踪,.item()转换tensor为Python浮点数,.numpy()生成共享内存的numpy数组,detach()用于断开张量与计算图的关联,以及.cuda()和.cpu()在GPU与CPU间移动张量的方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

我们在深度 pytorch 代码中经常看到以下表示,简单记录一下:
.data:
把变量设置成 tensor 类型,requires_grad 设置为 Flase

a = torch.tensor ([1.0], requires_grad=True)
b = a.data
print (b, b.requires_grad)

输出为: tensor ([1.]) False

.item ()
把 tensor 转为 python 的 float 类型

a = torch.tensor ([1.0], requires_grad=True)
 
c = a.item ()
print (c, type (c))
## 输出为:1.0 <class 'float'>

.numpy ()
将张量转换为与其共享底层存储的 n 维 numpy 数组

.detach ()
当我们在训练神经网络的时候可能希望保持一部分的网络参数不变,只对其中一部分参数进行调整;或者只训练部分分支网络,并不让其梯度对主网络的梯度造成影响,这时候我们就需要使用 detach ()函数来切断一些分支的反向传播

返回一个与当前计算图分离的、不再需要梯度的新张量
返回一个新的 tensor,从当前计算图中分离下来的,但是仍指向原变量的存放位置,不同之处只是 requires_grad 为 false,得到的这个 tensor 永远不需要计算其梯度,不具有 grad。

.cuda ()
将张量拷贝到 GPU 上

.cpu ()
将张量拷贝到 CPU 上

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值