torch.tensor 内存共享机制

这篇博客探讨了Python中Tensor作为可变数据类型的特性。当创建变量a并赋值为torch.tensor([1,2,3,4]),然后将b也赋值为a时,a和b都指向同一堆内存。如果对a进行切片或添加数据等操作,b也会相应变化。然而,对a重新赋值,如a=torch.tensor([2,3,4,5]),则会改变a的堆内存指向,导致a和b不再共享相同数据。这解释了可变类型数据如何在原地修改,而不可变类型数据需要在堆中创建新对象来改变值的基本原理。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

tensor属于可变数据类型,因此变量的值存储在堆中,变量名存储在栈中,当进行变量赋值时,就是让栈中的变量指向堆,如下面代码:

import torch
a  =  torch.tensor([1,2,3,4])
b = a

首先将栈中的a指向堆中的torch.tensor([1,2,3,4])。b=a则是将栈中的b也指向堆中的torch.tensor([1,2,3,4])。也就是说此时ab指向堆中同一个地址。
此时若对a本体就行操作如切片或者增加数据等,如:

a[1] = 9

此时由于a,b指向同一个地址,那么b也会改变。但若对a进行赋值操作,如:

a = torch.tensor([2,3,4,5])

那么此时就相当于重新改变栈中a在堆中地址的指向,重新指向torch.tensor([2,3,4,5]),而b还是指向原来的tenor,因此两者的数据不对等。

可变类型数据与不可变类型数据的本质区别就是可变类型数据能够改变数据本体的值,即可以在数据本身操作,如第二片代码,不可变数据想要改变栈中的变量名的值,只能在堆中重新建立变量,再另变量名指向该变量。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值