为什么用卷积层而不用全连接层

全连接层在处理图像数据时忽视了形状信息,将三维数据拉平为一维,丢失空间相关性。卷积层则保持形状不变,利用局部连接和权值共享,降低参数数量,减少过拟合风险,同时保持对图像特征的敏感性。卷积神经网络的特点包括非全连接和权值共享,对平移等变换具有高度不变性。

全连接神经网络中使用了全连接层,在全连接层中,相邻层的神经元全部连接在一起,输出的数量可以任意指定.

全连接层存在什么问题呢?那就是数据的形状被忽视了,比如,输入数据是图像是,图像通常是长,宽,通道方向上的高三维形状,但是,在向全连接层输入时,需要将三维数据拉平为1维数据,比如下面的的网络:

输入图像是1通道,长,宽均为28像素的形状,但是却被排列成了1列,784个数据的形式输入到最开始的网络层.

图像是三维形状,这个形状中应该含有重要的空间信息,比如,空间上临近的像素为相似的值,RGB的各个通道之间分别有密切的关联性,相距较远的像素之间没有什么关联等,3维形状中可能隐藏有值得提取的本质模式,但是,因为全连接层会忽视形状,将全部的输入数据作为相同的神经元(同一维度的神经元)处理,所以无法利用与形状相关的信息.

而卷积层可以保持形状不变,当输入数据是图像时,卷积层会以三维的数据形式接受输入数据,并且同样以3维数据的形式输至下一层,因此,在CNN中,可以正确理解具有形状的数据.

如下图:

 

不但可以保留形状信息,而且会有效减小参数数量和链接数量,全连接的情况下,需要16*4=64个参数,但是经过卷积处理后,只需要9个参数需要学习,其它都为0.

卷积核和上一层的关系可以用下面的网络图来表示,注意局部连接和权值共享,每个输出像素都是3*3的连接,需要9个参数,而非卷积需要的4*4个连接,16个参数。另一方面降低了模型的复杂度,也就减小了过拟合的风险。

可以看到,在不加padding的情况下,输入图像边缘的四个像素只有一个连接.

这里说明一下为什么要引入卷积运算,尽管前面的矩阵乘法其实已经可以解决很多问题了,但是一旦到了图像领域,对一个 1920*1080 的图像做乘法,就是一个 [1, 2,073,600] 的列向量了,这个运算量已经不算小了,而用卷积操作,计算量就会大大缩减;另一方面,如果把一个二维的图像压缩成一个一维的向量,其实就丢失了像素点在上下左右方向相互关联的信息,例如一个像素点和周围的颜色通常比较相近,这些信息很多时候是很重要的图像信息。

卷积神经网络的特点:

1、它的神经元之间的连接是非全连接的;

2、它在同一层中某些神经元之间的连接的权重是共享的。

这种非全连接和权值共享的网络结构降低了网络模型的复杂度,减少了权值的数量,这种网络结构对平移、旋转、倾斜、比例缩放等具有高度不变性。


结束! 

<think>我们正在讨论卷积神经网络(CNN)中的核心组件:卷积层、池化层、全连接层以及激活函数。用户要求了解它们之间的关系。根据引用内容,我们可以总结如下: 1. **卷积层**:用于提取输入数据的局部特征。通过卷积核在输入数据上滑动,计算局部区域的点积,从而得到特征图(feature maps)。卷积层可以捕捉空间上的局部模式,并且通过多个卷积核可以提取多种不同的特征。 2. **池化层**:通常位于卷积层之后,用于降低特征图的空间尺寸(即降维),从而减少计算量和参数数量,同时增加模型的鲁棒性(对微小位移、旋转等具有一定的不变性)。常见的池化操作有最大池化(Max Pooling)和平均池化(Average Pooling)。 3. **激活函数**:在卷积层全连接层之后通常都会使用激活函数,引入非线性因素,使得神经网络可以拟合复杂的非线性函数。常见的激活函数有ReLU、Sigmoid、Tanh等。激活函数的作用是将线性变换后的结果进行非线性映射,使得网络具有更强的表达能力。 4. **全连接层**:位于网络的最后部分,用于将前面提取的分布式特征进行整合,并映射到样本的标记空间(即分类任务中的类别)。全连接层中的每个神经元都与前一层的所有神经元连接,因此参数数量庞大。然而,近期一些网络(如ResNet、GoogLeNet)使用全局平均池化(GAP)来替代全连接层,以减少参数数量,防止过拟合[^1]。 ### 各组件之间的关系 1. **卷积层与激活函数**:卷积层输出的特征图通常会经过一个激活函数(如ReLU)进行非线性变换,增加网络的非线性表达能力。例如:`output = ReLU(conv(input))`。 2. **卷积层与池化层**:卷积层后面常常跟着池化层,池化层对卷积层输出的特征图进行下采样(降维),保留主要特征的同时减少数据量。例如:`pooled = MaxPool2d(conv_output)`。 3. **池化层与全连接层**:在传统的CNN结构中,池化层输出的特征图会被展平(flatten)成一维向量,然后输入到全连接层中。全连接层根据这些特征进行分类或回归。然而,引用中提到,现在一些网络使用全局平均池化(GAP)来取代全连接层,即对每个特征图进行平均池化得到一个值,然后将这些值直接送入分类器(如softmax)[^1][^2]。这样可以大大减少参数数量,避免过拟合。 4. **全连接层与激活函数**:全连接层之后通常也会使用激活函数(特别是分类任务中最后全连接层输出后接softmax激活函数,将输出转化为概率分布)。例如,对于二分类问题,我们可能在最后的全连接层后使用sigmoid函数;对于多分类,则使用softmax函数[^2]。 ### 整体流程 一个典型的CNN网络结构(例如用于图像分类)可能如下所示: ``` 输入图像 → [卷积层 → 激活函数(ReLU)] → 池化层 → ...(重复多次)... → 展平(Flatten)→ 全连接层 → 激活函数(如softmax)→ 输出 ``` 或者使用全局平均池化: ``` ... → 卷积层 → 激活函数 → ... → 全局平均池化(GAP)→ softmax → 输出 ``` ### 总结 - **卷积层**:特征提取。 - **激活函数**:引入非线性,增强模型表达能力。 - **池化层**:降维,减少计算量,增强模型鲁棒性。 - **全连接层**:整合特征,进行分类(或回归)。 它们共同协作,使得CNN能够从原始输入数据中学习到层次化的特征表示,并最终完成分类或其他任务。 §§相关问题§§ 1. 为什么卷积层后使用激活函数? 2. 全局平均池化(GAP)是如何替代全连接层的? 3. 在CNN中,如何设计卷积层、池化层和全连接层的堆叠顺序? </think>### 卷积神经网络各组件关系图解 卷积层、池化层、全连接层和激活函数在卷积神经网络中形成高效的特征处理流水线,其关系可通过以下公式表示: $$\small \text{输入} \xrightarrow{\text{卷积层}} \text{特征图} \xrightarrow{\text{激活函数}} \text{非线性特征} \xrightarrow{\text{池化层}} \text{降维特征} \xrightarrow{\text{全连接层}} \text{分类概率}$$ #### 1. **卷积层 → 激活函数:特征提取** - 卷积层使用卷积核提取局部特征:$F(x) = W \ast x + b$ - 激活函数引入非线性(常用ReLU):$\sigma(F(x)) = \max(0, F(x))$ - **关系**:激活函数使线性卷积获得非线性表达能力,可识别复杂模式(如边缘、纹理)[^1] #### 2. **激活函数 → 池化层:特征压缩** - 池化层(如最大池化)对特征图降维:$P(\sigma(F(x))) = \downarrow (\sigma(F(x)))$ - **关系**:池化保留激活后的主要特征,减少参数并增强平移不变性,防止过拟合[^2] #### 3. **池化层 → 全连接层:特征整合** - 多次"卷积-激活-池化"后,特征图被展平:$\text{Flatten}(P(\cdot))$ - 全连接层整合全局特征:$y = W_{\text{fc}} \cdot \text{Flatten}(P(\cdot)) + b_{\text{fc}}$ - **关系**:全连接层将分布式特征映射到样本标记空间,实现分类[^1] #### 4. **全连接层 → 输出:分类决策** - 最终激活函数(如Softmax)生成概率:$\text{Softmax}(y_i) = \frac{e^{y_i}}{\sum_j e^{y_j}}$ - **关系**:将全连接层输出转换为类别概率,完成分类任务[^2] ### 协同工作示例(图像分类) ```mermaid graph LR A[输入图像] --> B[卷积层提取特征] B --> C[ReLU激活非线性] C --> D[池化层降维] D --> E[重复卷积块] E --> F[展平特征] F --> G[全连接层整合] G --> H[Softmax分类] ``` ### 关键协作机制 1. **特征抽象层级递进** 浅层卷积:边缘/纹理 → 深层卷积:部件/对象 → 全连接层:语义整合[^1] 2. **参数效率优化** 卷积层参数共享 ➜ 池化层降维 ➜ 减少全连接层参数(现代网络用GAP替代FC)[^1] 3. **非线性能力累积** 每个"卷积+激活"组合增加非线性程度,使网络能拟合复杂函数 4. **平移不变性实现** 卷积层局部感知 + 池化层位置模糊 = 对目标位置不敏感[^2]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

papaofdoudou

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值