深度卷积神经网络图像分类全解析
1. 卷积操作拓展
通常,卷积操作会将多通道输入图像视为矩阵堆栈,对每个矩阵分别进行卷积,然后将结果相加。不过,在处理 3D 数据集时,卷积也能拓展到 3D 体积。
2. 神经网络正则化之难题
选择合适的网络大小一直是个挑战。小型网络参数少、容量低,容易欠拟合;大型网络则可能过拟合,在训练集表现好,但在测试集表现差。为解决此问题,可构建大容量网络,再用正则化方案防止过拟合。
3. 常见正则化方法
- L1 和 L2 正则化 :通过在损失函数中添加惩罚项,缩小权重参数,防止或减少过拟合。在卷积或全连接网络中使用 Keras API 时,可设置
kernel_regularizer添加 L2 惩罚项。示例代码如下:
from tensorflow import keras
conv_layer = keras.layers.Conv2D(
filters=16,
kernel_size=(3,3),
kernel_regularizer=keras.regularizers.l2(0.001))
fc_layer = keras.layers.Dense(
units=16,
kernel_regularizer=keras.regularizers.l2(0.001))
- Dropout 正则化 :在神经网络训练阶段,
超级会员免费看
订阅专栏 解锁全文
3534

被折叠的 条评论
为什么被折叠?



