卷积神经网络(Convolutional Neural Network,CNN)是一类专门用于处理具有类似网格结构的数据的深度学习模型。它在计算机视觉领域取得了巨大成功,广泛应用于图像识别、物体检测、语义分割等任务。
LeNet-5

CNN的主要特点包括:
- 卷积层(Convolutional Layer): CNN使用卷积操作来提取图像中的特征。卷积操作通过滤波器(也称为卷积核)在输入图像上滑动,每次计算一小块区域的加权和,从而生成输出特征图。这有助于网络捕捉局部空间关系。
- 池化层(Pooling Layer): 池化层用于降低特征图的空间维度,减少计算复杂性。常用的池化操作包括最大池化和平均池化,它们分别取邻域中的最大值或平均值。
- 非线性激活函数: CNN使用非线性激活函数(如ReLU)引入非线性特性,使网络能够学习更复杂的映射关系。
- 全连接层(Fully Connected Layer): 在提取了图像特征后,通常会通过全连接层将这些特征映射到最终的输出层,用于分类或回归任务。
- 多层网络结构: CNN通常由多个卷积层和池化层交替堆叠而成,以提高网络的表达能力。深层网络能够学习更加抽象和复杂的特征。
- 权重共享: 在卷积层中,卷积核的参数是共享的,这意味着它们在整个图像上进行滑动时使用相同的权重。这减少了参数数量,有助于提高模型的泛化能力。
卷积层
卷积层是卷积神经网络(CNN)中的核心组件之一,它负责提取输入数据的局部特征,从而构建更高级的表示。卷积层通过卷积操作在输入数据上滑动卷积核(也称为过滤器),计算每个位置的加权和,生成输出特征图。
|
以下是卷积层的关键概念:
| ![]() | |
![]() | ![]() | |
![]() |
池化层
池化层(Pooling Layer)是卷积神经网络(CNN)中的一种常见层,其主要作用是通过减小特征图的空间维度,降低计算负担,同时保留重要的特征信息。池化层也被称作下采样层,池化操作通常在卷积层之后应用。
常见的池化操作包括最大池化(Max Pooling)和平均池化(Average Pooling):
- 最大池化(Max Pooling): 在每个池化区域内选择最大的元素作为输出。这有助于保留图像中最显著的特征,同时减小特征图的尺寸。最大池化的数学表达式如下:
![]()
- 平均池化(Average Pooling): 在每个池化区域内计算元素的平均值作为输出。平均池化有助于平滑特征图,对输入的小变化更为鲁棒。其数学表达式如下:
![]()
在池化操作中,同样可以设置池化窗口的大小和步幅。池化窗口的大小决定了每次池化操作选择的区域大小,而步幅定义了池化窗口在特征图上滑动的步长。
主要优点和作用包括:
- 降维: 池化操作通过减小特征图的尺寸,减少了模型的参数数量和计算负担,有助于防止过拟合。
- 平移不变性: 最大池化操作在池化区域内选择最大值,有助于使特征图对平移变化具有一定程度的不变性。
- 提取重要特征: 池化操作通常保留最显著的特征,有助于集中注意力于对任务重要的信息。
- 局部性保持: 池化操作在小区域内进行,有助于保持局部特征,对输入数据的平移不变性提供了某种程度的保护。
全连接层
全连接层(Fully Connected Layer),也称为密集连接层或全连接层,是深度学习神经网络中的一种基本层类型。在全连接层中,每个神经元与前一层的所有神经元相连接,形成全连接的结构。这样,全连接层将输入数据映射到输出层,每个神经元对应一个输出。
全连接层通常用于网络的最后几层,将前面层提取的特征整合到最终输出。在卷积神经网络(CNN)中,全连接层通常用于将卷积层和池化层提取的高级特征映射到最终的输出类别或值。
以下是全连接层的主要特点和作用:
- 权重共享: 在全连接层中,每个神经元与前一层的所有神经元相连接,其权重是可学习的参数。这种连接方式导致参数数量很大,容易导致过拟合。权重共享是指这些权重在整个层中是共享的,这有助于减少模型的参数数量。
- 非线性激活函数: 在全连接层中,通常会在神经元输出后应用非线性激活函数,如ReLU(Rectified Linear Unit)或Sigmoid,以引入网络的非线性特性。
- 特征整合: 全连接层将前一层提取的特征整合到最终的输出。这有助于网络学习输入数据的复杂关系,并在分类任务中生成适当的输出。
- 输出层设计: 在分类问题中,全连接层的最后一层通常是输出层,包含与类别数量相同的神经元。对于回归问题,输出层通常只有一个神经元。
- Dropout: 为了防止过拟合,全连接层中常常使用Dropout技术,即在训练过程中以一定的概率随机将某些神经元的输出置零,强制网络更加鲁棒。




3283

被折叠的 条评论
为什么被折叠?



