原文地址https://luoyoyo.com/articles/4f12ec0ba42553838be4917fcab46398
二维的转置大家都很熟悉,横轴变纵轴嘛,
1 2 3 1 4 7
4 5 6 转一下变成 2 5 8
7 8 9 3 6 9
但是对于深度学习来说,尤其在transformer以及后来的bert模型出世以后,需要对多个大批次的多个部分的二维数据进行转置,已进行打分机制的计算(Self Attention),那就是4维数据的转置。
原文地址https://luoyoyo.com/articles/4f12ec0ba42553838be4917fcab46398
二维的转置大家都很熟悉,横轴变纵轴嘛,
1 2 3 1 4 7
4 5 6 转一下变成 2 5 8
7 8 9 3 6 9
但是对于深度学习来说,尤其在transformer以及后来的bert模型出世以后,需要对多个大批次的多个部分的二维数据进行转置,已进行打分机制的计算(Self Attention),那就是4维数据的转置。