DELTA-LORA: FINE-TUNING HIGH-RANK PARAMETERS WITH THE DELTA OF LOW-RANK MATRICES
最新推荐文章于 2025-11-24 18:29:32 发布
本文提出Delta-LoRA,一种改进的微调大型语言模型(LLM)的方法。它通过更新低秩矩阵的差(A(t+1)B(t+1)−A(t)B(t))来传播学习,解决低秩矩阵增量更新的局限。Delta-LoRA在保持与LoRA相似的内存和计算成本的同时,表现出显著的性能提升。
已下架不支持订阅

1812

被折叠的 条评论
为什么被折叠?



