卷积神经网络:转置卷积与滤波器层级结构解析
1. 转置卷积的概念与原理
在处理输入数据时,我们既可以通过池化或步幅操作来缩小输入的尺寸(下采样),也能够增大输入的尺寸(上采样)。上采样时,我们会增加张量的宽度和高度,但不改变通道的数量。
上采样可以通过单独的层来实现,也可以将其融入卷积层中。单独的上采样层通常会按照我们的要求多次重复输入张量的值。例如,若在宽度和高度上都将张量上采样两倍,每个输入元素会变成一个 2×2 的小方块。
当我们将上采样与卷积结合时,这个过程被称为转置卷积,也被叫做分数步幅卷积、扩张卷积或空洞卷积。“转置”一词源于数学中的转置运算,我们可以用它来表示这个操作的方程;“空洞”(atrous)在法语中是“有洞”的意思。
下面我们来看转置卷积是如何放大张量的。假设我们有一个 3×3 的初始图像(通道数量不变),想用一个 3×3 的滤波器对其进行处理,最终得到一个 5×5 的图像。一种方法是在输入周围填充两圈零,如图所示:
graph LR
classDef startend fill:#F5EBFF,stroke:#BE8FED,stroke-width:2px;
classDef process fill:#E5F6FF,stroke:#73A6FF,stroke-width:2px;
A([3×3 输入图像]):::startend --> B(填充两圈零):::process --> C([5×5 输出图像]):::startend
如果在输入中添加更多圈的零,会得到更大的输出,但
超级会员免费看
订阅专栏 解锁全文
54

被折叠的 条评论
为什么被折叠?



