详解pytorch fold和unfold用法

先上结论,conv = unfold + matmul + fold. 即卷积操作等价于,先unfold(展开),再执行矩阵乘法matmul,然后再fold(折叠)。具体过程如下:

unfold函数将一个输入Tensor(N,C,H,W) 展开成 (N,C * K1 * K2, Blocks),其中kernel形状为(K1,K2),总的Block数为Blocks。即把输入的Tensor根据kernel的大小展开成Blocks个向量。Block的计算公式如下:
B l o c k s = H b l o c k s × W b l o c k s Blocks = \text H_{blocks} \times W_{blocks} Blocks=Hblocks×Wblocks
其中:
H b l o c k s = H + 2 ∗ p a d d i n g [ 0 ] − k e r n e l [ 0 ] s t r i d e [ 0 ] + 1 H_{blocks} = \frac {H+2*padding[0]-kernel[0]}{stride[0]}+1 Hblocks=stride[0]H+2padding[0]kernel[0]+1

W b l o c k s = W + 2 ∗ p a d d i n g [ 1 ] − k e r n e l [ 1 ] s t r i d e [ 1 ] + 1 W_{blocks} = \frac {W+2*padding[1]-kernel[1]}{stride[1]}+1 Wblocks=stride[1]W+2padding[1]kernel[1]+1

代码举例:

inp = torch.randn(1, 3, 10, 12)
w = torch.randn(2, 3, 4, 5)
inp_unf = torch.nn.functional.unfold(inp, (4, 5))#shape of inp_unf is (1,3*4*5,7*8)

其中,inp_unf的shape计算过程如下
H b l o c k s = 10 − 4 1 + 1 = 7 H_{blocks} = \frac {10-4}{1}+1 = 7 Hblocks=1104+1=7

W b l o c k s = 12 − 5 1 + 1 = 8 W_{blocks} = \frac {12-5}{1}+1 = 8 Wblocks=1125+1=8

out_unf = inp_unf.transpose(1, 2).matmul(w.view(w.size(0), -1).t()).transpose(1, 2)
#shape of out_unf is (1,2,56)

以上代码相当于 inp_unf(1, 60, 56) .t() * w(2 , 3 * 4 * 5).t() → out_unf (1, 56, 2 ) → out_unf (1, 2, 56)

unfold + matmul已经完成,最后是 fold过程. fold过程其实就是unfold的反过程,即把向量折叠回矩阵形式。

out = torch.nn.functional.fold(out_unf, (7, 8), (1, 1))
#out.size() = (1,2,7,8)

以上过程其实等价于直接进行Conv,因此

(torch.nn.functional.conv2d(inp, w) - out).abs().max()
#tensor(1.9073e-06)

可以看出卷积的结果和经过了unfold + matmul + fold的结果差距为10的-6次方,几乎可以认为是相等的了。

总结

利用pytorch 中fold 和unfold的组合可以实现类似Conv操作的滑动窗口,其中如果同一个图片的每个block的参数都是相同的,那么称为参数共享,就是标准的卷积层;如果每个block的参数都不一样,那么就不是参数共享的,此时一般称为局部连接层(Local connected layer)。

参考

https://pytorch.org/docs/stable/generated/torch.nn.Unfold.html

https://pytorch.org/docs/stable/generated/torch.nn.Fold.html

https://blog.youkuaiyun.com/LoseInVain/article/details/88139435

### PyTorch `unfold` 函数使用说明 #### 输入参数解释 `torch.nn.functional.unfold(input, kernel_size, dilation=1, padding=0, stride=1)` 接受如下参数: - **input**: 形状为 `(N, C, H, W)` 的四维张量,分别表示批量大小、通道数、高度宽度。 - **kernel_size**: 卷积核尺寸,可以是一个整数或者两个整数组成的元组`(kH, kW)`来定义高宽方向上的窗口大小。 - **dilation**, **padding**, **stride**: 控制滑动窗口的行为,类似于卷积层中的设置。 这些参数决定了如何从原始图像中抽取子区域[^2]。 #### 输出结果解析 应用 `unfold` 后的结果会变成一个新的三维张量,其形状取决于输入数据以及上述参数的选择。具体来说,如果原图像是 `(N, C, H, W)`,那么经过 `unfold` 处理后的输出将是 `(N, C×kH×kW, L)`,这里 `L=(H−kH+2p)/s + 1 × (W−kW+2p)/s + 1` 表示总的采样位置数量,其中 `p` 是填充值,`s` 则代表步幅[^3]。 #### 实际案例演示 下面给出一段简单的 Python 代码用于展示 `unfold` 如何工作: ```python import torch from torch import nn # 创建随机测试张量 inp = torch.randn(1, 3, 10, 12) # 定义 unfold 层并执行变换 unfold_layer = nn.Unfold(kernel_size=(4, 5)) output_tensor = unfold_layer(inp) print(f'Original tensor shape: {inp.shape}') print(f'Transformed tensor shape after unfolding: {output_tensor.shape}') ``` 这段程序创建了一个模拟的小批次彩色图片集合作为输入,并通过调用 `nn.Unfold()` 方法实现了基于特定窗口规格的数据重排过程。最终打印出来的信息展示了转换前后张量维度的变化情况[^1].
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

daimashiren

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值