Convolution Networks 和Deconvolution Networks

本文深入探讨了卷积网络和反卷积网络的概念,包括卷积操作的可视化、矩阵乘积表示、傅里叶变换实现以及反卷积的定义。卷积通过 Toeplitz 矩阵与矩阵乘积的关系进行转换,并通过傅里叶变换降低计算复杂度。反卷积实际上是转置卷积,用于从特征映射恢复原始输入。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一.卷积的概念

卷积是分析数学中的一种重要运算,英文convolution。需要注意的是,以下我们考虑都是离散情况下的卷积操作。从概念上说,卷积是线性情况的下的滤波处理,性滤波处理经常被称为“掩码与图像的卷积”[1]。具体的操作则是,卷积是两个变量在某范围内相乘后求和的结果。如果卷积的变量是序列x(n)和h(n),则卷积的结果。

这里写图片描述

其中*表示卷积。

那对于二维图像上的卷积操作,是计算机视觉中的一个重要,常见的图像处理方法。离散卷积的计算过程是模板翻转,然后在原图像上滑动模板,把对应位置上的元素相乘后加起来,得到最终的结果。

给定这里写图片描述

滤波器:这里写图片描述

则有卷积公式为:

这里写图片描述

有些滤波算法就可以通过特殊的卷积滤波器来实现的,比如均值滤波(mean filter).算数均值滤波器是最简单的均值滤波器[2],也就是将当前位置的像素值设为滤波器窗口中所有像素的平均值,这个可以通过用value=1/mn的卷积模板来实现。

二.卷积操作的可视化表示

先来可视化化的看下卷积操作。具体看开源项目。

关于可视化的开源项目链接

其中的样历。


其中蓝色矩阵为输入值,绿色矩阵为输出值。(No padding, no strides)

三.卷积操作转化为矩阵乘积

以padding=‘FULL’的conv为例。此时,输入的大小为(width , height) , filter的大小为(f_w , f_h),输出的大小为(width+f_w -1 , height +f_h-1)。

可视化表示为:

这里写图片描述

公式为:

F=XY

具体例子(the mode of padding is “full”):

这里写图片描述

卷积神经网络中,大部分的框架中的卷积操作都是转化成了矩阵相乘(Matrix mutiplication)的形式。以caffe为例。

the convolution naturally gets reduced to a matrix multiplication[8]

Caffe的作者贾扬青也说明了自己对卷积操作的优化的一个过程[8]。其中一个操作,就是将卷积转化为矩阵相乘的形式,然后通过MKL,blas矩阵库来进行处理。

那卷积操作是怎么转化为Matrix multiolication的形式的呢?

3.1了解Toeplitz matrix(diagonal-constant matrix)

卷积的处理转化为Matrix multi的形式是和一个特殊的矩阵相关系的,这个矩阵就是Toeplitz matrix[7].那这个矩阵特殊在什么方面呢?
我们看wiki关于此的定义:

It is a matrix in which each descending diagonal from left to right is constant(恒量).也就是如果i,j element of A is denoted Aij.那么会有:

Ai,j=Ai+1,j+1=aij

对于一个

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值