深度学习模型:从图像分类到循环神经网络
1. 图像分类模型比较
1.1 VGG16模型
VGG16模型在训练和验证中的表现如下:训练准确率为0.8278,验证准确率为0.7500(第24个epoch)。其ROC曲线下面积(AUC)约为0.807,整体准确性约为74%。不过,从内存和速度角度来看,加载和训练VGG16网络的成本很高。
1.2 VGG19模型
VGG19是在ImageNet数据集上训练的卷积神经网络,有19层,能将图像分为多达1000个类别,比VGG16更新且多了三层。其最终指标如下:
| 指标 | 值 |
| ---- | ---- |
| loss | 0.4062 |
| accuracy | 0.8333 |
| val_loss | 0.9118 |
| val_accuracy | 0.8000 |
可以看出,验证准确率比VGG16差,但ROC曲线下面积比VGG16高,不过训练时间更长,占用内存更多。
1.3 InceptionV3模型
InceptionV3架构由Google团队提出,其初始版本为GoogleNet,后续有Inception vN版本。InceptionV3的权重为96MB,小于VGG和ResNet等网络。以下是其模型实现代码:
# Model
input_shape = (IMAGE_SIZE2, IMAGE_SIZE2, 3)
inputs = Input(input_shape)
inceptionv3
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



