- 博客(25)
- 收藏
- 关注
原创 【深度学习】mini-batch训练思想及方法
如果面临过拟合问题,则可以考虑减小batch size,同时注意监测训练和验证的损失曲线,以便找到最佳的batch size。使用mini-batch训练的主要原因是它结合了全批量训练和随机梯度下降的优点,能够在加速收敛的同时提高模型的泛化能力。然而,选择不当的batch size可能导致训练过程的不稳定,甚至影响最终模型的性能。Mini-batch训练方法将整个训练数据集划分为多个小批量(mini-batches),每个小批量包含一定数量的样本。这样循环进行,直到所有mini-batch均被遍历完。
2024-07-29 15:57:11
529
原创 【深度学习】 基于tensorflow框架的卷积神经网络CNN实现手写数字图片识别案例
基于Tensor Flow框架构建CNN模型——以手写数字图片识别案例为例
2024-07-26 19:37:46
489
原创 【机器学习】过采样和欠采样结合使用
过采样和欠采样都是重采样的重要手段。SMOTE技术发明者在其论文《Synthetic Minority Over-sampling Technique》中说到,过采样和欠采样同时使用可以更好的调整数据的平衡,同时不破环数据原本的数量结构。也就是说,假如我们直接使用SMOTE进行过采样,那么得到的多数样本和少数样本的数据数量将会相等。而当使用两种重采样技术结合时,我们可以保持多数样本集的多数结构,以及少数样本集的少数占比,更接近真实情况。
2024-07-11 16:39:03
545
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人