卷积神经网络与循环神经网络全解析
1. 卷积神经网络基础
1.1 运行卷积神经网络
运行卷积神经网络处理图像时,可使用以下代码:
batch_size = 64
epochs = 50
history = lenet.fit(X_train, y_train,
batch_size=batch_size,
epochs=epochs,
validation_data=(X_test,
y_test))
这里每个周期(epoch)会一次性处理 64 张图像的批次,整个运行过程需要 50 个周期。一个周期意味着整个数据集在神经网络中完整通过一次,而一个批次是数据集的一部分,在此例中就是将数据集分成 64 块。每个周期大约持续 8 秒(使用 Colab 时),可以通过进度条监控完成该周期所需的时间,同时还能查看训练集和测试集的准确率。最终,一个简单构建的 LeNet5 网络能达到 0.989 的准确率,即每识别 100 个手写数字,大约能正确猜出 99 个。
1.2 卷积在图像边缘和形状检测中的优势
卷积处理图像具有自动性,且比全连接层表现更优。卷积能在局部层面学习图像模式,并在图像的其他部分重现这些模式,这种特性称为平移不变性。而传统的全连接神经层以固定方式确定图像的整体特征,缺乏平移不变性。可以将其类比为学习一本书,逐块理解的学生
超级会员免费看
订阅专栏 解锁全文
3241

被折叠的 条评论
为什么被折叠?



