Raki的读paper小记:LAMOL: LANGUAGE MODELING FOR LIFELONG LANGUAGE LEARNING

Abstract & Introduction & Related Work

  • 研究任务
    lifelong learning
  • 已有方法和相关工作
  • 面临挑战
    • 现有方法大多基于图片或者游戏,而不是语言
  • 创新思路
    • 提出了一种基于语言模型的lifelong learning方法
    • 重现以前任务的伪样本,同时不需要额外的内存或模型容量
  • 实验结论
    • 结果显示,LAMOL可以防止灾难性遗忘,而没有任何不妥协的迹象,并且只用一个模型就可以连续完成五种非常不同的语言任务
    • sota
    • 此外,我们建议在伪样本生成过程中增加特定任务的标记,以便在所有先前的任务中均匀地分配生成的样本。这一扩展稳定了LLL,在大量任务的训练中特别有用
    • 我们分析了不同数量的伪样本如何影响LAMOL的最终性能,考虑了有和没有特定任务标记的结果

训练一个语言模型,同时具备生成伪样本的能力,而不需要额外的空间
在这里插入图片描述

LAMOL

DATA FORMATTING

受decaNLP(Bryan McCann & Socher,2018)使用的协议启发,我们使用的数据集的样本被框定在一个类似SQuAD的

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值