LoRA-Flow: Dynamic LoRA Fusion for Large Language Models in Generative Tasks

828 篇文章

已下架不支持订阅

LoRAFlow是一种动态调整不同LoRA权重的方法,以适应大型语言模型在生成任务中的需求。通过融合门学习,仅用少量训练样本就能实现权重调整,提高任务性能,尤其在注释数据有限的情况下。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

本文是LLM系列文章,针对《LoRA-Flow: Dynamic LoRA Fusion for Large Language Models in
Generative Tasks》的翻译。

LoRA流:生成任务中大型语言模型的动态LoRA融合

摘要

LoRA采用轻量级模块为每个下游任务或领域定制大型语言模型(LLM),其中不同的学习附加模块代表不同的技能。将现有的LoRA组合起来处理新任务可以增强学习的LoRA的可重用性,特别有利于注释数据有限的任务。大多数先前关于LoRA组合的工作主要依赖于每个涉及的LoRA的任务级权重,使得不同的示例和token共享相同的LoRA权重。然而,在生成任务中,不同的token可能需要不同的管理技能。以语文数学任务为例,理解问题描述可能更多地依赖于语文LoRA,而计算部分可能更多地取决于数学LoRA。为此,我们提出了LoRAFlow,它利用动态权重来调整不同LoRA的影响。每一步的权重由具有极少数参数的融合门确定,仅用200个训练示例就可以学习该融合门。在六个生成任务上的实验表明,我们的方法在任务级融合权重方面始终优于基线。这强调了为LoRA组合引入动态融合权重的必要性。

1 引言

2 背景

3 方法

4 实验

5 分析

已下架不支持订阅

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值