卷积神经网络的组成层

主结构

在这里插入图片描述

卷积层

在这里插入图片描述
特征图: 二维卷积层输出的二维数组可以看作是输入在空间维度(宽和高)上某一级的表征。
感受野: 是指神经网络中某一层输出的特征图上的像素点对应到输入图像上的区域大小。换句话说,它表示了一个特定层输出上的单个元素对输入数据的影响范围。
填充: 是指在输入高和宽的两侧填充元素(通常是0元素)
步幅: 每次滑动的行数和列数称为步幅(stride),默认在高和宽两个方向上步幅均为1。
单通道卷积,多通道卷积:https://zhuanlan.zhihu.com/p/634882615

卷积层参数:

  • 卷积核大小(Kernel Size):卷积核的大小定义了卷积的感受野。
  • 卷积核步长(Stride):定义了卷积核在卷积过程中的步长。
  • 填充方式(Padding):在卷积核尺寸不能完美匹配输入的图像矩阵时需要进行一定的填充策略。
  • 输入通道数(In Channels): 指定卷积操作时卷积核的深度。
  • 输出通道(Out Channels):指定卷积核的个数。

1x1卷积层
在这里插入图片描述
1x1卷积层的作用:

  • 降维,减少网络参数量(其实例如:3x3可以做到,但是3x3的参数量是很大的)。
  • 实现信息的跨通道交互和整合。
### 卷积神经网络组成 卷积神经网络(Convolutional Neural Network, CNN)是一种专门用于处理具有网格状拓扑数据的前馈神经网络,广泛应用于计算机视觉和图像识别等领域。CNN 的主要优势在于其能够自动提取特征的能力,这得益于其独特的分结构设计。以下是卷积神经网络的主要组成部分及其功能描述: #### 1. **输入 (Input Layer)** 输入负责接收原始数据或经过预处理后的数据。在图像分类任务中,输入通常是一张图片,包含 RGB 三个颜色通道,构成一个三维矩阵 \( H \times W \times 3 \),其中 \( H \) 和 \( W \) 分别代表图像的高度和宽度[^3]。输入的作用仅仅是将数据传递给后续的处理。 --- #### 2. **卷积 (Convolutional Layer)** 卷积CNN 中的核心组件之一,主要用于从输入数据中提取局部特征。通过应用多个可学习的小型滤波器(也称为核),卷积能够在不同的位置扫描整个输入区域,并生成一组被称为特征图的结果[^1]。每个滤波器专注于检测某种特定模式(如边缘、纹理等)。卷积操作不仅大幅减少了参数的数量,还使得模型具备平移不变性。 ```python import tensorflow as tf from tensorflow.keras.layers import Conv2D conv_layer = Conv2D(filters=32, kernel_size=(3, 3), activation='relu') ``` --- #### 3. **ReLU (Rectified Linear Unit Layer)** ReLU 是一种常用的非线性激活函数,定义为 \( f(x) = \max(0, x) \)[^2]。它的引入打破了线性映射的局限性,使网络能够模拟复杂的非线性关系。ReLU 的主要优点包括:当输入大于零时梯度恒定为 1,避免了梯度消失问题;同时增强了网络内部表示的稀疏性和鲁棒性[^2]。然而需要注意的是,不当的学习率可能导致部分神经元永久失效(即所谓的“死亡”现象)。 --- #### 4. **池化 (Pooling Layer)** 为了降低特征维度并提高计算效率,CNN 经常会在若干连续的卷积之后加入池化。最常见的两种形式分别是最大池化(Max Pooling)和平均池化(Average Pooling)。前者取滑动窗口内的最大值作为输出,后者则求均值[^1]。池化过程有效地缩减了空间尺寸,同时也增加了模型对小范围变形的容忍度。 ```python from tensorflow.keras.layers import MaxPooling2D pooling_layer = MaxPooling2D(pool_size=(2, 2)) ``` --- #### 5. **全连接 (Fully Connected Layer)** 全连接位于 CNN 架构的末端,起到综合所有高级语义特征并将它们映射至目标类别的作用。这一中的每一个节点都与其他的所有节点相连,类似于传统多感知机的工作方式。不过随着深度学习的发展趋势,越来越多的研究倾向于用更高效的替代方案取代标准意义上的全连接(详见先前讨论的内容)。 --- #### 总结 综上所述,典型的卷积神经网络至少应包含以下几个关键次:输入、卷积、ReLU 激活、池化以及最后的全连接或者类似的输出转换机构。这些构件共同协作完成了从底像素级信息到高次抽象概念的理解转变流程。 --- ###
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值