转置卷积其实就相当于正常卷积的反向传播。
考虑一个输入为x=4x4,卷积核为w=3x3,步长为stride=1,zero-padding=0
将卷积核展开为一个稀疏矩阵C:
做卷积可得2x2的输出y,C*x=y。如下图所示:
那么怎么得到转置卷积呢。正如我们上面说的转置卷积其实就相当于正常卷积的反向传播。
再对上式求输入x的梯度:
转置卷积在深度学习中用于扩大特征图尺寸,它等价于普通卷积的反向传播过程。通过矩阵乘法理解CT*y实现从输出到输入的转换,但并不恢复原始值。TensorFlow中利用这一性质实现转置卷积。虽然与信号处理中的反卷积不同,但可通过反向思考普通卷积参数来设定转置卷积参数。
转置卷积其实就相当于正常卷积的反向传播。
考虑一个输入为x=4x4,卷积核为w=3x3,步长为stride=1,zero-padding=0
将卷积核展开为一个稀疏矩阵C:
做卷积可得2x2的输出y,C*x=y。如下图所示:
那么怎么得到转置卷积呢。正如我们上面说的转置卷积其实就相当于正常卷积的反向传播。
再对上式求输入x的梯度:
3108
1673
1545
4893

被折叠的 条评论
为什么被折叠?