SingLoRA: Low Rank Adaptation Using a Single Matrix

文章主要内容总结

本文提出了一种新的低秩适应方法SingLoRA,旨在解决传统低秩适应(LoRA)方法中存在的训练不稳定性和参数效率问题。传统LoRA通过两个矩阵(A和B)的乘积对预训练权重进行低秩更新,但矩阵A和B的尺度差异会导致梯度消失或爆炸,影响训练稳定性和性能。

SingLoRA通过单个低秩矩阵A的转置乘积(A Aᵀ) 重构低秩更新,实现了对称的权重更新(W₀ + A Aᵀ)。这种设计从根本上消除了矩阵间的尺度冲突,保证了训练稳定性,同时将可学习参数数量减少约一半。

实验验证了SingLoRA的优势:在自然语言推理任务(如MNLI)中,微调LLaMA 7B模型时准确率达91.3%,超过LoRA(89.1%)和LoRA+(90.2%),且仅使用其60%的参数;在图像生成任务(如DreamBooth微调Stable Diffusion)中,DINO相似度得分达0.151,优于DoRA(0.148)和LoRA(0.143)。

创新点

  1. 结构重构:用单个低秩矩阵A的转置乘积(A Aᵀ)替代LoRA中两个矩阵(B A)的乘积,消除矩阵间尺度差异,从设计上保证训练稳定性。
  2. 参数高效:可学习参数数量较LoRA减少约50%,在相同任务中用更少参数实现更优性能。
  3. 普适性强:适用于方形和非方形权重矩阵,兼容Transformer等多种架构,在自然语言处理和图像生成等领域均表现优异。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值