卷积层与自然语言处理:原理、实现与应用
卷积层原理
卷积层的核心思想是重复使用大量小型线性层,而非单个大型线性层。传统的大型密集线性层会将每个输入与每个输出相连,而卷积层采用的小型线性层通常输入少于 25 个且只有一个输出,这些小型线性层会在每个输入位置重复使用,每个小型线性层被称为卷积核。
例如,一个 3×3 的卷积核会在当前位置进行预测,然后向右移动一个像素再次预测,直至扫描完整个图像的一行,接着向下移动一个像素并向左扫描,重复此过程,直到对图像的每个可能位置都进行了预测。最终会得到一个较小的卷积核预测方阵,作为下一层的输入。卷积层通常包含多个卷积核。
卷积层的池化操作
当使用四个 3×3 的卷积核处理同一个 8×8 的图像时,每个卷积核会产生一个 6×6 的预测矩阵,卷积层的输出就是四个 6×6 的预测矩阵。对于这些矩阵,可以采用以下三种池化操作:
1. 求和池化(sum pooling) :将矩阵元素逐元素相加。
2. 平均池化(mean pooling) :计算矩阵元素的逐元素平均值。
3. 最大池化(max pooling) :对每个位置,在四个卷积核的输出中找到最大值,并将其复制到一个最终的 6×6 矩阵中。最大池化是最常用的方法,这个最终矩阵将被传播到下一层。
卷积层的优势
卷积层允许每个卷积核学习特定的模式,并在图像中搜索该模式的存在。由于每个小型卷积核会在多个数据段上多次进行前向传播,即使数据集不变,也能改变权重与训练数据点的比例,从而减少网络对训练数
超级会员免费看
订阅专栏 解锁全文
23万+

被折叠的 条评论
为什么被折叠?



