这是一个典型的“难例(hard examples)记不住”的问题,也就是说模型在训练阶段见过这些样本,但仍无法泛化或记忆其规律。
这个问题可能源于以下几种原因:
- 模型容量不够,学不动复杂模式
- 难例本身特征异常或带有标签噪声
- 模型在难例上的关注不够,训练时没给足权重
- 当前训练策略不能让模型针对难例更充分学习
一、应对策略总结
-
困难样本挖掘(Hard Example Mining)
- 每轮训练中动态挑选预测错误的样本,加权训练,强化模型对其学习。
- 可使用 Online Hard Example Mining(OHEM)等策略。
-
难例重加权训练(Focal Loss / 样本加权)
- 对难学的样本给更高的 loss 权重,比如使用 Focal Loss 或自定义样本 loss 权重。
-
对抗训练 / 数据增强
- 人工合成或扰动难例生成更难的变体,增加模型鲁棒性。
-
记忆增强机制(Memory Bank / kNN辅助)
- 引入一个“记忆模块”,存储历史难例表示,在预测时进行辅助