#pytorch笔记
以后打算用优快云作为记笔记的地方,去年9月份本来就有这样的想法,后来因为种种原因搁置了。现在还存着去年的草稿。
对于张量降维度
a=torch.arange(24).reshape(2,3,4)
Out[24]:
tensor([[[ 0, 1, 2, 3],
[ 4, 5, 6, 7],
[ 8, 9, 10, 11]],
[[12, 13, 14, 15],
[16, 17, 18, 19],
[20, 21, 22, 23]]])
a是个三阶张量/ 三维张量
a.sum(dim=0/1/2)这里,dim(axis)=0表示,对0维度的进行相加也就是说把这一维消除/这一维度相加。
默认情况下,调用求和函数会沿所有的轴降低张量的维度,使它变为一个标量。 我们还可以指定张量沿哪一个轴来通过求和降低维度。 以矩阵为例,为了通过求和所有行的元素来降维(轴0),可以在调用函数时指定axis=0
。 由于输入矩阵沿0轴降维以生成输出向量,因此输入轴0的维数在输出形状中消失。
如果想要对n阶张量进行所有元素求和,直接a.sum()即可。
当然,如果想要不断分层求和也可以:
A.sum(axis=[0, 1]) # 结果和A.sum()相同
一个与求和相关的量是平均值(mean或average)。 我们通过将总和除以元素总数来计算平均值。 在代码中,我们可以调用函数来计算任意形状张量的平均值。
A.mean(), A.su