各种深度学习框架中的tensor广播机制和numpy是一样一样的。使用于张量形状不一致的情况。广播机制需要遵循以下条件:
- 每个张量至少为一维张量。就是说总得有吧
- 然后从后往前对张量比较张量的形状,当前维度的大小要么相等,要么其中一个的大小为1(之所以为1相当于可以根据这个值进行“copy”到匹配大小)
- 如果两个张量的形状长度不一致。我们就扩充短的形状张量的维度(形状上向前+1)到形状长度一致(维度一致)
总得过程可以理解为,先通过广播的方式让两个张量的形状变得一致,然后进行运算
各种深度学习框架中的tensor广播机制和numpy是一样一样的。使用于张量形状不一致的情况。广播机制需要遵循以下条件:
总得过程可以理解为,先通过广播的方式让两个张量的形状变得一致,然后进行运算