Padding\Valid convolutions\Same convolutions

本文探讨了卷积神经网络中Padding的概念及其作用,详细解释了如何通过填充边缘像素来避免图像尺寸减小和边缘信息丢失的问题。文章介绍了Valid和Same卷积的区别,并讨论了选择奇数滤波器大小的原因。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

整理并翻译自吴恩达深度学习系列视频:卷积神经网络1.4。

Padding

在这里插入图片描述
在对一张6X6图片进行卷积后,它变成了一张4X4的图片。直接卷积有以下2个缺点:

  • Shrinking the output(缩小输出图像大小)
  • Throw away info from edge(相对于中间经过多次卷积计算的部分,图像边缘信息被抛弃了)

为了解决这一点问题,我们可以在图像的边缘填充(padding)0,来使得边缘部分也能够被经过多次卷积计算。

假设原图是n×nn\times nn×n,filter是f×ff\times ff×f,那么卷积后的图像大小是(n−f+1)×(n−f+1)(n-f+1)\times(n-f+1)(nf+1)×(nf+1)

假设填充p=1p=1p=1,填充之后再卷积得到的图像大小是(n+2p−f+1)×(n+2p−f+1)(n+2p-f+1)\times(n+2p-f+1)(n+2pf+1)×(n+2pf+1)

如果要维持原图大小,令(n+2p−f+1)=n(n+2p-f+1)=n(n+2pf+1)=n,得p=f−12p=\frac{f-1}{2}p=2f1

Valid convolutions\Same convolutions

在这里插入图片描述

Valid convolution,即不填充,卷积后的图像大小是(n−f+1)×(n−f+1)(n-f+1)\times(n-f+1)(nf+1)×(nf+1)

Same convolution,即填充使其保持原图大小,选择p=f−12p=\frac{f-1}{2}p=2f1

通过上式你也能够理解,为什么通过选fff是奇数,如果fff是偶数,也能达到我们的目的,但填充使得图像不对称了,左边填的比右边多或者反过来。选择fff奇为数也可以使得filter有明确的中心点。

当然这些理由并没有那么的有说服力。

3X3、7X7、9X9,都是论文里常见的filter大小。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值