torch.stack,torch.cat, torch.stack.max/mean/sum
学习pytorch时,总免不了遇到stack和cat操作,或者有时候搞不清楚stack后max/mean/sum的操作原理。我通过代码实验为大家解说一些这些操作的原理。
torch.stack
torch.stack说白了原理也是来自于numpy.satck的操作。
主要接受两个参数:
一个数组(包含了具有相同维度的tensor元素);
一个维度(制定了堆叠的维度位置)
一般因为我们深度学习中一般都是会用到四个维度信息,所以在这里我们也以创建具有四个维度信息的tensor变量来做说明。
创建两个[x,x,x,x]tensor变量
import torch
a = torch.FloatTensor([[[[1,2,3],[4,5,6],[7,8,9]],[[10,11,12],[13,14,15],[16,17,18]]]])
b = torch.FloatTensor([[[[19,20,21], [22,23,24],[25,26,27]],[[28,29,30],[31,32,33],[34,35,36]]]])
print(a, b, a.data.shape, b.data.shape, sep='\n')
shape信息都是[1, 2, 3, 3]
torch.stack([x,x], dim=0)
对于四维信息,可以指定dim=0-4共五个维度