- 博客(10)
- 收藏
- 关注
原创 Week-T10 数据增强
这是大家可以自由发挥的一个地方# 随机改变图像对比度代码输出结果:将自定义增强函数应用到我们数据上,可以通过使用 preprocess_image 函数,将 aug_img 函数嵌入到 preprocess_image 函数中,在数据预处理时完成数据增强。
2025-03-19 14:20:03
721
原创 第T8周:猫狗识别
这篇文章中以往的model.fit()训练方法,改用model.train_on_batch方法。两种方法的比较:● model.fit():用起来十分简单,对新手非常友好● model.train_on_batch():封装程度更低,可以玩更多花样。此外也引入了进度条的显示方式,更加方便我们及时查看模型训练过程中的情况,可以及时打印各项指标。
2025-02-28 19:35:43
384
原创 第T7周:咖啡豆识别
本次实验围绕了基于 TensorFlow 构建 VGG-16 图像分类模型展开,从导入数据统计图片总数,到利用 image_dataset_from_directory 加载数据并划分训练集与验证集,可视化数据、配置数据集、归一化处理;再到自建 VGG-16 模型,深入理解其优缺点,设置初始学习率、优化器、损失函数和指标完成编译;然后进行 20 个 epoch 的训练,最后通过可视化训练结果,全面掌握了从数据处理到模型构建、训练与评估的完整流程,加深了对深度学习模型的理解 。
2025-02-20 23:39:35
607
原创 第T6周:好莱坞明星识别
卷积神经网络(CNN)的输入是张量 (Tensor) 形式的 (image_height, image_width, color_channels),包含了图像高度、宽度及颜色信息。在此示例中,我们的 CNN 输入的形状是 (224, 224, 3)即彩色图像。● Image_batch是形状的张量(32,224,224,3)。观察并对比上面的两幅图可以发现使用数据增强可以略微提升训练精度,但模型模型的精度还有较大的提升空间,还需要后续微调模型。● prefetch() :预取数据,加速运行。
2025-02-14 21:55:14
1014
原创 第T5周:运动鞋品牌识别
本次实验发现动态学习率参数会影响模型效果。起初 decay_steps 设为 10,学习率衰减过快,模型训练很快停止,准确率提升不明显。后来将 decay_steps 设为 30,学习率变化变缓,模型得以充分训练,测试集准确率提高到 0.9668 。可见,调整动态学习率参数对模型训练结果十分重要,这对后续研究和实验有重要指导意义。
2025-01-24 15:01:57
1005
原创 第T4周:猴痘病识别
本文将采用CNN实现猴痘病识别,并使用ModelCheckpoint回调函数,用于在每个 epoch 后保存模型。它可以帮助我们在训练过程中保存性能最好的模型,以便后续使用。
2025-01-17 17:15:32
663
原创 第T3周:卷积神经网络(CNN)天气识别
本文将采用CNN实现多云、下雨、晴、日出四种天气状态的识别。较上篇文章,本文为了增加模型的泛化能力,新增了Dropout层并且将最大池化层调整成了平均池化层。
2025-01-06 16:13:20
875
原创 第T2周:彩色图片分类
过拟合(Overfitting) 是机器学习模型训练中常见的问题,指的是模型在训练数据上表现得非常好,但在验证或测试数据(未见过的数据)上的表现较差。这意味着模型过于复杂,以至于学习到了训练数据中的噪声或特定模式,而不是数据的通用特征,导致在新数据上泛化能力不足。
2025-01-03 21:27:44
1040
原创 CNN实现mnist手写数字识别
本文使用的是最简单的CNN模型 LeNet-5,来实现mnist手写数字识别,希望可以给像我一样初次学习深度学习的新手带来帮助!
2024-12-27 12:07:51
996
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人