permute函数_Pytorch之permute函数

54037d14aa57cd6d993c1a0ff9642caa.png

1 先看看官方中英文doc:

  torch.Tensor.permute (Python method, in torch.Tensor)

1.1 permute(dims)

将tensor的维度换位。

参数: - __dims__ (int ..*) - 换位顺序

例:

>>> x = torch.randn(2, 3, 5) 
>>> x.size() 
torch.Size([2, 3, 5]) 
>>> x.permute(2, 0, 1).size() 
torch.Size([5, 2, 3])

1.2 permute(*dims) → Tensor

Permute the dimensions of this tensor.

Parameters: *dims (int...) – The desired ordering of dimensions

Example:

>>> x = torch.randn(2, 3, 5) 
>>> x.size() 
torch.Size([2, 3, 5]) 
>>> x.permute(2, 0, 1).size() 
torch.Size([5, 2, 3])

2 pytorch permute的使用

permute函数功能还是比较简单的,下面主要介绍几个细节点:

2.1 transpose与permute的异同

Tensor.permute(a,b,c,d, ...):permute函数可以对任意高维矩阵进行转置,但没有 torch.permute() 这个调用方式, 只能 Tensor.permute():

>>> torch.randn(2,3,4,5).permute(3,2,0,1).shape
torch.Size([5, 4, 2, 3])

torch.transpose(Tensor, a,b)transpose只能操作2D矩阵的转置,有两种调用方式;

另:连续使用transpose也可实现permute的效果

>>> torch.randn(2,3,4,5).transpose(3,0).transpose(2,1).transpose(3,2).shape
torch.Size([5, 4, 2, 3])
>>> torch.randn(2,3,4,5).transpose(1,0).transpose(2,1).transpose(3,1).shape
torch.Size([3, 5, 2, 4])

从以上操作中可知,permute相当于可以同时操作于tensor的若干维度,transpose只能同时作用于tensor的两个维度;

2.2 permute函数与contiguous、view函数之关联

contiguous:view只能作用在contiguous的variable上,如果在view之前调用了transpose、permute等,就需要调用contiguous()来返回一个contiguous copy;

一种可能的解释是:有些tensor并不是占用一整块内存,而是由不同的数据块组成,而tensor的view()操作依赖于内存是整块的,这时只需要执行contiguous()这个函数,把tensor变成在内存中连续分布的形式;

判断ternsor是否为contiguous,可以调用torch.Tensor.is_contiguous()函数:

import torch 
x = torch.ones(10, 10) 
x.is_contiguous()                                 # True 
x.transpose(0, 1).is_contiguous()                 # False
x.transpose(0, 1).contiguous().is_contiguous()    # True

另:在pytorch的最新版本0.4版本中,增加了torch.reshape(),与 numpy.reshape() 的功能类似,大致相当于 tensor.contiguous().view(),这样就省去了对tensor做view()变换前,调用contiguous()的麻烦;

3 permute与view函数功能demo

import torch
import numpy as np

a=np.array([[[1,2,3],[4,5,6]]])
unpermuted=torch.tensor(a)
print(unpermuted.size())              #  ——>  torch.Size([1, 2, 3])

permuted=unpermuted.permute(2,0,1)
print(permuted.size())                #  ——>  torch.Size([3, 1, 2])

view_test = unpermuted.view(1,3,2)
print(view_test.size())               #  ——>  torch.Size([1, 3, 2])

利用函数 permute(2,0,1) 可以把 Tensor([[[1,2,3],[4,5,6]]]) 转换成:

tensor([[[ 1,  4]],
        [[ 2,  5]],
        [[ 3,  6]]])     # print(permuted)    

如果使用view(1,3,2) 可以得到:

tensor([[[ 1,  2],
         [ 3,  4],
         [ 5,  6]]])   # print(view_test)

5 参考

https://zhuanlan.zhihu.com/p/64376950

https://pytorch.org/docs/stable/tensors.html?highlight=permute#torch.Tensor.permute

https://pytorch-cn.readthedocs.io/zh/latest/package_references/Tensor/#permutedims

<think>嗯,用户想了解permute函数。首先,我需要确认permute函数是在哪个上下文中提到的。因为在不同的编程语言或库中,permute函数的用途可能不同。比如,在PyTorch或者NumPy这样的张量操作库中,permute通常用于调整张量的维度顺序。而在数学或排列组合中,permute可能指排列操作。 根据用户提到的系统级指令中提到数学表达式,可能用户的问题更偏向于编程中的张量操作,尤其是在深度学习框架里的应用。比如,PyTorch中的permute函数。不过,也有可能用户指的是其他环境中的permute,比如R语言中的permute包,用于排列检验。需要进一步分析。 首先,我应该先回忆PyTorch中的permute函数。在PyTorch中,permute是用来重新排列张量维度的,类似于numpy中的transpose,但更灵活,可以任意调整维度的顺序。比如,一个三维张量形状是(batch, height, width),使用permute(0,2,1)会交换height和width的维度。 然后,考虑用户可能的需求。如果用户在处理张量数据,比如图像或序列数据时,可能需要调整维度顺序以适应模型的输入要求。例如,将通道维度从最后调整到前面,这在图像处理中常见,比如从HWC转为CHW格式。 不过,用户可能对permute的具体用法和与transpose的区别不太清楚。这时候需要解释清楚permute的参数是维度的新顺序,而transpose通常交换两个维度。此外,要强调permute不会改变数据本身,只是改变视图,即不复制数据,因此效率较高。 另外,需要给出具体的使用示例,比如代码片段,这样用户更容易理解。例如,在PyTorch中创建一个张量,然后展示permute后的结果。同时,要提醒用户注意维度的合法性,确保调整后的维度数与原始一致,否则会报错。 可能用户在使用过程中遇到了维度不匹配的问题,所以需要了解如何正确调整维度顺序。或者,用户可能在阅读代码时遇到了permute函数,想要了解其作用。 另外,是否有其他可能的permute函数?比如在列表操作中,生成所有排列,但这种情况通常使用itertools.permutations。但根据系统指令中提到的数学表达式,可能用户的问题更偏向于张量操作,因此应优先考虑这种情况。 总结下来,回答应该包括permute函数的定义、用途、与类似函数的区别、使用示例以及注意事项。结构清晰,分点说明,并给出代码示例帮助理解。</think>permute函数在不同编程环境中有不同实现,以下以PyTorch/Numpy张量操作为例详细说明: $$ \text{假设原始张量形状为}(d_0,d_1,d_2,\dots,d_n) $$ ### 一、核心作用 通过维度索引的重新排列,改变张量的视图(view),但不改变底层数据存储顺序。数学表达为: $$ \text{permute}([i_0,i_1,\dots,i_n]) \Rightarrow \text{新形状}(d_{i_0},d_{i_1},\dots,d_{i_n}) $$ ### 二、典型使用场景 1. **维度重排**:将通道维度前置 ```python # 原始形状:(批量大小, 高度, 宽度, 通道数) x = torch.randn(32, 256, 256, 3) y = x.permute(0, 3, 1, 2) # → (32, 3, 256, 256) ``` 2. **矩阵转置**:二维特例 $$ \begin{bmatrix} a & b \\ c & d \end{bmatrix} \xrightarrow{\text{permute(1,0)}} \begin{bmatrix} a & c \\ b & d \end{bmatrix} $$ ### 三、与transpose对比 | 特性 | permute | transpose | |-----------------|-----------------------|-------------------| | 维度调整方式 | 任意多维度重排 | 仅交换两个指定维度 | | 参数数量 | 接受全部维度顺序 | 仅接受两个维度号 | | 功能范围 | 更通用 | 是permute的特例 | ### 四、底层实现原理 通过修改张量的元数据(metadata)实现: 1. 不复制数据 2. 仅修改步长(stride)和维度尺寸(size) 3. 时间复杂度:$O(1)$ ### 五、注意事项 1. **连续性验证**: ```python x = torch.randn(2,3,4) y = x.permute(2,0,1) print(y.is_contiguous()) # 通常返回False y = y.contiguous() # 需要时显式复制 ``` 2. **维度合法性**: $$ \forall i \in [0,n], \exists!\, j \text{ s.t. } i_j = i $$ 3. **广播机制影响**: 重排后的维度必须保持广播兼容性,如: $$ (A \times 1 \times C) \nRightarrow (C \times A \times 1) \text{ 若存在广播} $$ ### 六、数学意义拓展 对于n阶张量,permute操作对应置换群$S_n$的元素应用。每个permute参数对应一个置换: $$ \sigma = \begin{pmatrix} 0 & 1 & \dots & n-1 \\ i_0 & i_1 & \dots & i_{n-1} \end{pmatrix} $$ ### 七、性能优化建议 1. 优先使用`permute`而非连续多次`transpose` 2. 避免在计算图中频繁使用(可能打断自动微分优化) 3. 必要时配合`contiguous()`使用(会增加显存复制) 通过理解这些细节,可以更高效地处理张量形状转换问题,特别是在深度学习模型输入输出适配、特征图维度调整等场景中。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值