深度卷积神经网络图像分类
1. 卷积操作扩展
通常,卷积操作是将具有多个颜色通道的输入图像视为矩阵堆栈来进行的。即分别对每个矩阵进行卷积,然后将结果相加。不过,如果处理的是 3D 数据集,卷积也可以扩展到 3D 体积。
2. 神经网络正则化
2.1 网络规模选择问题
选择网络的大小,无论是传统的全连接神经网络还是卷积神经网络,一直是一个具有挑战性的问题。网络容量指的是它能够学习近似的函数的复杂程度。小网络或参数数量相对较少的网络容量较低,可能会出现欠拟合,导致性能不佳;而非常大的网络可能会导致过拟合,即在训练数据集上表现出色,但在测试数据集上表现不佳。
2.2 解决方法
一种解决方法是构建一个容量相对较大的网络(实际中选择略大于必要的容量)以在训练数据集上表现良好,然后应用一种或多种正则化方案来防止过拟合,从而在新数据(如测试数据集)上实现良好的泛化性能。
2.3 L1 和 L2 正则化
L1 和 L2 正则化可以通过在损失函数中添加惩罚项来防止或减少过拟合,在训练过程中缩小权重参数。在卷积或全连接网络中使用 L2 正则化时,可以通过设置 Keras API 中特定层的 kernel_regularizer 来添加 L2 惩罚项,示例代码如下:
from tensorflow import keras
conv_layer = keras.layers.Conv2D(
filters=16,
kernel_size=(3,3),
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



