Abstract & Introduction & Related Work
- 研究任务
lifelong learning - 已有方法和相关工作
- 面临挑战
- 现有方法大多基于图片或者游戏,而不是语言
- 创新思路
- 提出了一种基于语言模型的lifelong learning方法
- 重现以前任务的伪样本,同时不需要额外的内存或模型容量
- 实验结论
- 结果显示,LAMOL可以防止灾难性遗忘,而没有任何不妥协的迹象,并且只用一个模型就可以连续完成五种非常不同的语言任务
- sota
- 此外,我们建议在伪样本生成过程中增加特定任务的标记,以便在所有先前的任务中均匀地分配生成的样本。这一扩展稳定了LLL,在大量任务的训练中特别有用
- 我们分析了不同数量的伪样本如何影响LAMOL的最终性能,考虑了有和没有特定任务标记的结果
训练一个语言模型,同时具备生成伪样本的能力,而不需要额外的空间
LAMOL
DATA FORMATTING
受decaNLP(Bryan McCann & Socher,2018)使用的协议启发,我们使用的数据集的样本被框定在一个类似SQuAD的