Pytorch入门 (一)

本文主要介绍了Pytorch的基本使用,包括查看版本号、定义tensor以及进行tensor的基本运算。同时,还对比了tensor与numpy的操作差异,帮助读者更好地理解和掌握Pytorch。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

查看torch版本号

print(t.__version__)

定义tensor

# 构建 5x3 矩阵,只是分配了空间,未初始化,元素是些随机数
x = t.Tensor(5, 3)
#直接用list初始化
x = t.Tensor([[1,2],[3,4]])
# 使用[0,1]均匀分布随机初始化2×2的矩阵
x = t.rand(2, 2)

tensor基本运算

# torch.Size 是tuple对象的子类,因此它支持tuple的所有操作
shape=x.size()
print(shape,"\n",type(shape),"\n",shape[1])

z = x+y	#直接相加
z=t.add(x, y)#使用torch方法

#指定加法结果的输出目标为result
result = t.Tensor(2, 2) # 预先分配空间
t.add(x, y, out=result) # 输入到result

z=y.add(x)# 普通加法,不改变y的内容
y.add_(x) # inplace 加法,y变了

tensor与numpy对比

#切片
print(x[:, 1])#取第1列

# 新建一个全1的Tensor
a = t.ones(5)

# Tensor -> Numpy
b = a.numpy() 
print(b,type(b))
# Numpy->Tensor
c = t.from_numpy(b)
print(c)
#Tensor和numpy对象共享内存,所以他们之间的转换很快,而且几乎不会消耗什么资源。
# 但这也意味着,如果其中一个变了,另外一个也会随之改变。
c.add_(1)
print(b)
print(c)

#需要注意的是,t.tensor()或者tensor.clone()总是会进行数据拷贝,
# 新tensor和原来的数据不再共享内存。所以如果你想共享内存的话,
# 建议使用torch.from_numpy()或者tensor.detach()来新建一个tensor, 二者共享内存。
x=[[1,2],[3,4]]
y=t.tensor(x)#修改x,y不被修改
x[1][1]=100
print(x)
print(y)
z=y.clone()#修改y,z不被修改
y[1][1]=500
print(y)
print(z)
z=y.detach()#修改y,z被修改
y[1][1]=1000
print(y)
print(z)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值