本文是LLM系列文章,针对《VeRA: Vector-based Random Matrix Adaptation》的翻译。
摘要
低秩(LoRA)是一种流行的方法,它可以在微调大规模语言模型时减少线性参数的数量,但在扩展更大的模型时仍然面临着巨大的存储挑战,需要大量的用户或任务自适应的模型。在这项工作中,我们提出了基于向量的随机矩阵自适应(VeRA),它将线性参数的数目减少了LoRA的10倍,同时保持了相同的性能。它通过使用在所有层共享的低阶矩阵的一部分来实现估计,而不是使用小规模的向量。GLUEA和E2E基准点的演示效果都不重要,以及它在说明中的应用——使用Llama27B模型,只有1.4M参数。
VeRA是一种针对大规模语言模型微调的优化方法,它减少了低秩适应(LoRA)的参数数量达10倍,同时保持相同性能。该方法通过共享的低阶矩阵部分估计参数,适用于需要频繁模型交换的场景,如个性化云AI服务,能有效提升服务效率并降低内存瓶颈。
已下架不支持订阅
638

被折叠的 条评论
为什么被折叠?



