《LoRA-Gen:通过在线LoRA生成实现大型语言模型的专门化》
一、主要内容总结
(一)研究背景与问题
- 大语言模型(LLM)的规模化优势与局限:尽管增大LLM规模可提升跨任务泛化能力,但其庞大体积导致在处理领域特定任务时,难以在效率和效果间取得良好平衡,尤其在边缘设备部署的小型模型上表现更为突出。
- 现有参数高效微调方法的不足:传统LoRA微调可能引发灾难性遗忘,而LoRA-MoE等引入专家混合的方法会增加推理成本,且现有方案在未见任务上的泛化能力受限。
(二)核心方法:LoRA-Gen框架
- 整体架构:利用云端大模型基于任务描述生成LoRA参数,再通过重参数化技术将其合并到边缘侧模型,实现灵活专门化。
- 关键组件
- 在线LoRA生