Democratizing Large Language Models via Personalized Parameter-Efficient Fine-tuning

828 篇文章

已下架不支持订阅

本文是LLM系列文章,针对《Democratizing Large Language Models via Personalized Parameter-Efficient Fine-tuning》的翻译。

通过个性化参数高效微调实现大型语言模型的民主化

摘要

大型语言模型(LLM)中的个性化越来越重要,旨在使LLM的交互、内容和推荐与个人用户偏好保持一致。LLM个性化的最新进展突出了有效的提示设计,通过行为历史检索和文本配置文件,用非参数知识丰富了用户查询。然而,由于缺乏模型所有权,这些方法受到限制,导致定制和隐私问题受到限制。此外,它们往往无法准确捕捉用户行为模式,尤其是在用户数据复杂且动态的情况下。为了解决这些缺点,我们引入了每个用户一个PEFT(OPPU),它使用个性化参数有效微调(PEFT)模块来存储用户特定的行为模式和偏好。通过插入用户的个人PEFT参数,他们可以个人拥有和使用LLM。OPPU将个人PEFT参数中的参数化用户知识与通过检索和配置文件获得的非参数化知识相结合。这种集成使单个LLM适应用户行为的变化。实验结果表明,在LaMP基准测试的七个不同任务中,OPPU显著优于现有的基于提示的方法。进一步深入的研究表明,OPPU在处理用户行为转变、对不同活跃级别的用户建模、在各种用户历史格式中保持鲁棒性方面增强了能力,并通过不同的PEFT方法显示多功能性。

1 引言

2 相关工作

3 提出的方法

5 结论

LLM个性化已经成为一个快速发展的研究领域,旨在根据用户的独特需求定制L

已下架不支持订阅

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值