关于全连接神经网络和卷积神经网络

本文对比了卷积神经网络与全连接神经网络的区别,详细解释了卷积神经网络如何通过减少参数数量解决图像处理中的过拟合问题,并深入探讨了filter在卷积过程中的作用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

区别

在全连接神经网络中,每相邻两层之间的节点都有边相连,于是会将每一层的全连接层中的节点组织成一列,这样方便显示连接结构。而对于卷积神经网络,相邻两层之间只有部分节点相连。

卷积神经网络的优点

用全连接神经网络处理图像的最大问题就是:全连接层的参数太多,对于MNIST数据,每一张图片的大小是28x28x1,其中28x28代表的是图片的大小,1表示图像是黑白的,有一个色彩通道。假设第一层隐藏层的节点数为500个,那么一个全连接层的神经网络有28x28x500+500=392500个参数,而且有的图片会更大或者是彩色的图片,这时候参数将会更多。参数增多除了导致计算速度减慢,还很容易导致过拟合的问题。所以需要一个合理的神经网络结构来有效的减少神经网络中参数的个数。卷积神经网络就可以更好的达到这个目的。

关于卷积神经网络的filter的理解

如果是输入224x224x3(rgb三通道),输出是32位深度,卷积核尺寸为5x5。则是有32个filter,每一个的尺寸为5x5x3(最后的3就是原图的rgb位深3),每一个filter的每一层是5x5(共3层啊)分别与原图的每层224x224卷积,然后将得到的三张新图叠加,变成一张新的feature map。 每一个filter都这样操作,就可以得到32张新的feature map了。 也就是说:

不管输入图像的深度为多少,经过一个Filter,最后都通过下面的公式变成一个深度为1的特征图。不同的filter可以卷积得到不同的特征,也就是得到不同的feature map。

Alt

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值