Can we learn better with hard samples?
在STL-10上,我们证明了所提出的方法比传统的高效网络b4中的小批量方法少了26.47%的时间周期。我们的研究结果表明,δ值的选择应该根据网络架构、小批量和数据集的数量谨慎地进行平衡,以实现更快的收敛和可观的性能。一个众所周知的解决方案是增加网络的深度,从而提高网络的泛化和学习更精细、更复杂的潜在表示的能力。从数据中的硬样本中学习是必要的,因为它可以提高训练后的网络的性能。反向传播算法是训练神经网络的首选方法。这种方法背后的直觉是:在准备考试时,学生倾向于花更多的时间在困难的概念上,而不是简单的概念。
原创
2023-09-24 21:17:11 ·
84 阅读 ·
1 评论