深度学习介绍(四)卷积操作

本文介绍了卷积神经网络(CNNs)如何利用权值共享和卷积操作减少参数数量,以处理图像的局部空间联系。通过设置局部感受野、stride和kernel size,以及权值共享,可以显著降低网络的复杂性。卷积过程通过滤波器(kernel)对图像进行扫描,生成代表不同特征的feature maps,进一步理解这一过程可通过观察卷积示例。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

接下来介绍一下,CNNs是如何利用空间结构减少需要学习的参数数目的
如果我们有一张1000x1000像素的图像,有1百万个隐层神经元,那么他们全连接的话(每个隐层神经元都与图像的每一个像素点相连),这样就有1000x1000x1000000=10^12个连接,也就是10^12个权值参数。然而图像的空间联系是局部的,就像人是通过一个局部的感受野去感受外界图像一样,每一个神经元都不需要对全局图像做感受,每个神经元只感受局部的图像区域,然后在更高层,将这些感受不同局部的神经元综合起来就可以得到全局的信息了。这样,我们就可以减少连接的数目,也就是减少神经网络需要训练的权值参数的个数了。
这里写图片描述
假如局部感受野是10x10,隐层每个神经元只需要和这10x10的局部图像相连接,所以1百万个隐层神经元就只有一亿个连接,即10^8个参数。比原来减少了四个数量级,这样训练起来就没那么费力了,但还是感觉很多,那还有什么办法吗?那就是权值共享了。
由以上分析可知,隐含层的每一个神经元都连接10x10的图像区域,也就是说每一个神经元存在10x10=100个连接权值参数。那如果我们每个神经元对应的这100个参数是相同的呢(也就是说每个神经元用的是同一个卷积核去卷积图像。)?这样岂不是就只有100个参数了?!不管隐层有多少个神经元,两层间的连接就只有100个参数。这就是权值共享的作用了。
这样卷积后得到的就是能够代表图像一种特征的一个feature map,而我们需要提取的是图像的多种特征,那如何提取图像的多种特征呢。需要注意的一点是,上面的讨论都没有考虑每个神经元的偏置部分,所以权值个数需要加1。这个也是同一种滤波器共享的。
(停下来捋一捋上面的内容,如果有细节不理解也没关系,下面将进行更加详细的分析)
每个隐层神经元只与10*10的局部区域像素相连,这里的10*10就是滤波器的kernel size。stride就是滤波器的步长,即从一个隐层神经元到相邻隐层神经元之间的移动长度。各个神经元之间的权重是相同的,即权重共享。这样对kernel size中的局部图像进行卷积

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值