VeRA: Vector-based Random Matrix Adaptation

828 篇文章

已下架不支持订阅

VeRA是一种针对大规模语言模型微调的优化方法,它减少了低秩适应(LoRA)的参数数量达10倍,同时保持相同性能。该方法通过共享的低阶矩阵部分估计参数,适用于需要频繁模型交换的场景,如个性化云AI服务,能有效提升服务效率并降低内存瓶颈。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

本文是LLM系列文章,针对《VeRA: Vector-based Random Matrix Adaptation》的翻译。

VeRA:基于向量的随机矩阵自适应

摘要

低秩(LoRA)是一种流行的方法,它可以在微调大规模语言模型时减少线性参数的数量,但在扩展更大的模型时仍然面临着巨大的存储挑战,需要大量的用户或任务自适应的模型。在这项工作中,我们提出了基于向量的随机矩阵自适应(VeRA),它将线性参数的数目减少了LoRA的10倍,同时保持了相同的性能。它通过使用在所有层共享的低阶矩阵的一部分来实现估计,而不是使用小规模的向量。GLUEA和E2E基准点的演示效果都不重要,以及它在说明中的应用——使用Llama27B模型,只有1.4M参数。

1 引言

2 相关工作

3 方法

4 实验

5 结论

在这项工作中,我们介绍了一种微调方法,与LoRA相比,该方法显著减少了可训练参数的数量,并且在精度上没有损失。具体而言,在RoBERTalarge的GLUE基准上,它实现了参数减少十倍,在GPT-2medium的E2E基准上减少了三倍。这种方法

已下架不支持订阅

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值