查看torch版本号
print(t.__version__)
定义tensor
# 构建 5x3 矩阵,只是分配了空间,未初始化,元素是些随机数
x = t.Tensor(5, 3)
#直接用list初始化
x = t.Tensor([[1,2],[3,4]])
# 使用[0,1]均匀分布随机初始化2×2的矩阵
x = t.rand(2, 2)
tensor基本运算
# torch.Size 是tuple对象的子类,因此它支持tuple的所有操作
shape=x.size()
print(shape,"\n",type(shape),"\n",shape[1])
z = x+y #直接相加
z=t.add(x, y)#使用torch方法
#指定加法结果的输出目标为result
result = t.Tensor(2, 2) # 预先分配空间
t.add(x, y, out=result) # 输入到result
z=y.add(x)# 普通加法,不改变y的内容
y.add_(x) # inplace 加法,y变了
tensor与numpy对比
#切片
print(x[:, 1])#取第1列
# 新建一个全1的Tensor
a = t.ones(5)
# Tensor -> Numpy
b = a.numpy()
print(b,type(b))
# Numpy->Tensor
c = t.from_numpy(b)
print(c)
#Tensor和numpy对象共享内存,所以他们之间的转换很快,而且几乎不会消耗什么资源。
# 但这也意味着,如果其中一个变了,另外一个也会随之改变。
c.add_(1)
print(b)
print(c)
#需要注意的是,t.tensor()或者tensor.clone()总是会进行数据拷贝,
# 新tensor和原来的数据不再共享内存。所以如果你想共享内存的话,
# 建议使用torch.from_numpy()或者tensor.detach()来新建一个tensor, 二者共享内存。
x=[[1,2],[3,4]]
y=t.tensor(x)#修改x,y不被修改
x[1][1]=100
print(x)
print(y)
z=y.clone()#修改y,z不被修改
y[1][1]=500
print(y)
print(z)
z=y.detach()#修改y,z被修改
y[1][1]=1000
print(y)
print(z)