卷积神经网络中的转置卷积与滤波器层级结构
1. 转置卷积概述
在卷积神经网络中,我们既可以对输入进行下采样(缩小尺寸),也可以进行上采样(增大尺寸)。下采样可以通过池化或步幅操作实现,而上采样同样有多种方式。
上采样时,我们会增加张量的宽度和高度,但不改变通道数。上采样可以通过单独的层实现,也可以集成到卷积层中。单独的上采样层通常会按照我们的要求多次重复输入张量的值。例如,将一个张量在宽度和高度上都上采样两倍,每个输入元素会变成一个 2x2 的小方块。
将上采样与卷积结合的操作被称为转置卷积,也被称为分数步幅卷积、扩张卷积或空洞卷积。“转置”一词源于数学中的转置运算,可用于表示该操作的方程;“空洞”(atrous)在法语中意为“有洞的”,稍后我们会解释这些名称的由来。
2. 转置卷积的工作原理
假设我们有一个 3x3 的输入图像(通道数不变),想用一个 3x3 的滤波器处理它,并得到一个 5x5 的输出图像。一种方法是在输入周围填充两圈零,如图所示:
graph LR
classDef process fill:#E5F6FF,stroke:#73A6FF,stroke-width:2px;
A(3x3 输入图像):::process --> B(填充两圈零):::process
B --> C(3x3 滤波器处理):::process
C --> D(5x5 输出图像):::process
如果在输入中添加更多圈的零,会得到更大的输出,但会在中心 5x5 的核心周围
超级会员免费看
订阅专栏 解锁全文
9758

被折叠的 条评论
为什么被折叠?



