卷积神经网络(CNN)卷积核与滤波器理解

本文深入探讨了卷积神经网络(CNN)中的卷积概念,解释了卷积与滤波的关系,以及CNN卷积核如何作为参数进行学习,以实现对图像特征的有效提取。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

  卷积神经网络接触很久了,但是总感觉有一种很朦胧的感觉,今天重新理解一下CNN和CNN中卷积的概念。
  如何通俗的理解卷积,关于卷积首先要理解,他只是一个为了方便计算学习而定义的概念,是一种抽象的符号,就像是加减乘除一样。原文文章从连续卷积,离散卷积定义开始,以动图的形式将卷积形象化,其中掷骰子和蒸馒头对于离散和连续卷积解释的很清楚。请参照引用文章。
  说到图像卷积这一点,终于弄明白卷积和平滑滤波的关系与区别了,当然我认为CNN实质上还是一种滤波,也就是局部像素的加权和。一直以来我都有一个误区,认为这个滤波就是卷积核与原始图像对应位置相乘求和,这与数字图像种滤波的操作没有什么异同,为什么叫图像卷积呢?

在这里插入图片描述

  文章这个二维卷积过程给出,实际上卷积过程中需要满足下标和是固定的,也就是公式中的 n n n是定的。所以如果理解为卷积核与图像对应位置加权和,那么就像原文中所说的,把 g g g矩阵,也就是卷积核旋转了180°。那么CNN中的卷积核翻转了嘛,这个问题其实没什么意思,因为上述卷积过程 g g g矩阵是已知的,而我们CNN中的卷积核是参数,需要求解的,可以认为是最能够提取特征点的卷积核参数,那是不是也可以认为是翻转过的呢。从这个角度来说,CNN卷积核学习滤波器参数好像更合理。关于CNN中卷积核与卷积的关系,知乎几个答案都有都道理也比较清晰。

在这里插入图片描述

评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值