本文是深度学习相关文章,针对《MEMORY-VQ: Compression for Tractable Internet-Scale Memory》的翻译。
摘要
检索增强是一种强大但昂贵的方法,可以使语言模型更了解世界。基于记忆的方法,如LUMEN,为检索到的段落预先计算token表示,以大大加快推理速度。然而,存储预计算的表示也会对内存产生更大的存储需求。
我们提出了MEMORY-VQ,这是一种在不牺牲性能的情况下降低内存增强模型存储需求的新方法。我们的方法使用矢量量化变分自动编码器(VQ-VAE)来压缩token表示。我们将MEMORY-VQ应用于LUMEN模型以获得LUMEN-VQ,这是一种在KILT基准上实现16x压缩率且性能相当的存储器模型。LUMEN-VQ能够实现实用的检索增强,即使是对于超大的检索语料库。
1 引言
2 背景
3 MEMORY-VQ
4 实验
5 相关工作
6 结论
我们介绍了MEMORY-VQ,这是一种在不影响性能的情况下降低内存增强语言模型存储需求的新方法。通过使用VQ-VAE来压缩token表示,我们获得了具有16x压缩的LUMEN模型,表示为LUMENVQ。值得注意的是,LUMEN-VQ保持了接近LUMEN和FiD的性能,并受益于LUMEN推理速度的提高和存储成本的大幅降低。使用MEMORY-VQ,记忆增强是一种实用的解决方案,可以在大量检索语料库的情况下大幅提高推理速度。