ALIGNER: ONE GLOBAL TOKEN IS WORTH MILLIONS OF PARAMETERS WHEN ALIGNING LARGE LANGUAGE MODELS

828 篇文章

已下架不支持订阅

Aligner是一种参数高效的微调方法,适用于大型语言模型(LLM)。通过全局共享的可调标记,即使只有少量参数,也能在指令遵循和价值调整任务中与高级方法相媲美。研究发现,LLM将‘形式’和‘知识’的处理分开,为理解LLM内部机制提供新视角。

本文是LLM系列文章,针对《ALIGNER: ONE GLOBAL TOKEN IS WORTH MILLIONS OF PARAMETERS WHEN ALIGNING LARGE LANGUAGE MODELS》的翻译。

ALIGNER:在对齐大型语言模型时,一个全局标记值数百万个参数

摘要

我们介绍了Aligner,这是一种新的参数有效微调(PEFT)方法,用于对齐数十亿参数大小的大型语言模型(LLM)。Aligner采用了一种独特的设计,构建了一组全局共享的可调标记,这些标记可以修改每一层的注意力。值得注意的是,使用这种方法,即使使用一个仅占5000个参数的token,Aligner仍然可以与最先进的LLM自适应方法(如需要数百万个参数的LoRA)相比表现良好。这种能力在指令遵循和价值调整任务中都得到了证实。除了参数效率的多个数量级提高外,Aligner对LLM内部机制的深入了解也很有价值。除了我们的实验之外,我们方法的架构特征和有效性还表明,LLM以某种正交的方式将其对“形式”和“知识”的内部处理分离开来。这一发现有望推动LLM机制理解和价值取向的新研究。

1 引言

2 相关工作

3 实验

4 方法

5 讨论

6 结论

我们介绍了一种新的参数高效微调方法,该方法仅使用一个或十个token,就可以实现与最先进的大参数方法(如LLaMA Adapter和LoRA)相比的跨LLM模型规模性能,

已下架不支持订阅

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值