- 二维矩阵乘法 torch.mm()torch.mm(mat1, mat2, out=None)其中 , , 输出的 该函数一般只用来计算两个二维矩阵的矩阵乘法,并且不支持broadcast操作。
-
- 三维带batch的矩阵乘法 torch.bmm()由于神经网络训练一般采用mini-batch,经常输入的时三维带batch的矩阵,所以提供torch.bmm(bmat1, bmat2, out=None)其中 , , 输入出的 该函数的两个输入必须是三维矩阵并且第一维相同(表示Batch维度), 不支持broadcast操作
-
- 多维矩阵乘法 torch.matmul()torch.matmul(input, other, out=None)支持broadcast操作,使用起来比较复杂。针对多维数据 matmul() 乘法,可以认为该乘法使用使用两个参数的后两个维度来计算,其他的维度都可以认为是batch维度。假设两个输入的维度分别是input(1000×500×99×111000×500×99×11), other(500×11×99500×11×99)那么我们可以认为torch.matmul(input, other, out=None)乘法首先是进行后两位矩阵乘法得到(99×11)×(11×99)⇒(99×99)(99×11)×(11×99)⇒(99×99) ,然后分析两个参数的batch size分别是 (1000×500)(1000×500) 和 500500 , 可以广播成为 (1000×500)(1000×500), 因此最终输出的维度是(1000×500×99×991000×500×99×99)。
-
- 矩阵逐元素(Element-wise)乘法 torch.mul()torch.mul(mat1, other, out=None)其中 other 乘数可以是标量,也可以是任意维度的矩阵, 只要满足最终相乘是可以broadcast的即可。
-
- torch.einsum()
Pytorch里的乘法类型
最新推荐文章于 2024-04-26 16:19:48 发布