本文是LLM系列文章,针对《Democratizing Large Language Models via Personalized Parameter-Efficient Fine-tuning》的翻译。
摘要
大型语言模型(LLM)中的个性化越来越重要,旨在使LLM的交互、内容和推荐与个人用户偏好保持一致。LLM个性化的最新进展突出了有效的提示设计,通过行为历史检索和文本配置文件,用非参数知识丰富了用户查询。然而,由于缺乏模型所有权,这些方法受到限制,导致定制和隐私问题受到限制。此外,它们往往无法准确捕捉用户行为模式,尤其是在用户数据复杂且动态的情况下。为了解决这些缺点,我们引入了每个用户一个PEFT(OPPU),它使用个性化参数有效微调(PEFT)模块来存储用户特定的行为模式和偏好。通过插入用户的个人PEFT参数,他们可以个人拥有和使用LLM。OPPU将个人PEFT参数中的参数化用户知识与通过检索和配置文件获得的非参数化知识相结合。这种集成使单个LLM适应用户行为的变化。实验结果表明,在LaMP基准测试的七个不同任务中,OPPU显著优于现有的基于提示的方法。进一步深入的研究表明,OPPU在处理用户行为转变、对不同活跃级别的用户建模、在各种用户历史格式中保持鲁棒性方面增强了能力,并通过不同的PEFT方法显示多功能性。
1 引言
2 相关工作
3 提出的方法
5 结论
LLM个性化已经成为一个快速发展的研究领域,旨在根据用户的独特需求定制L