本文是LLM系列文章,针对《Persona-DB: Efficient Large Language Model Personalization for Response Prediction with Collaborative Data Refinement》的翻译。
摘要
对与大型语言模型(LLM)的个性化交互的日益增长的需求要求开发能够准确有效地识别用户意见和偏好的方法。检索增强是一种有效的策略,因为它可以容纳大量用户,而无需微调成本。然而,现有的研究主要集中在增强检索阶段,并对优化数据库的表示进行了有限的探索,这是个性化等任务的一个关键方面。在这项工作中,我们从一个新的角度来研究这个问题,重点是如何在LLM定制的背景下更好地表示数据,以实现更高效的检索。为了应对这一挑战,我们引入了Persona DB,这是一个简单而有效的框架,由分层构建过程组成,以提高跨任务上下文的泛化能力,并通过协作细化有效弥合用户之间的知识差距。在响应预测任务中,Persona DB在保持准确性方面表现出了卓越的效率,大大减少了检索量,这在具有广泛历史记录或有限上下文窗口的场景中是一个关键优势。我们的实验还表明,在冷启动场景下,当用户拥有极其稀疏的数据时,显著提高了15%以上。此外,我们的分析揭示了随着检索能力的扩大,协作知识的重要性越来越大。