LoRA 可训练词元:节省内存,提升领域准确率

 LoRA(低秩自适应)是一种针对大型预训练模型的参数高效微调技术。与需要更新全部模型参数的标准全参数微调不同,LoRA 会冻结整个模型,仅引入少量可训练参数。这些参数被添加到模型的特定层或模块中,从而以最小的内存开销实现高效适配。

由于 LoRA 仅需存储可训练参数的优化器状态和梯度,其内存消耗远低于全参数微调。但由于其他模型参数保持冻结状态,该方法无法适配新词元——任何新增词元都将对应未经训练的嵌入向量。

在先前文章中,我们探讨过如何在完全重训词元嵌入层和语言建模头的情况下使用 LoRA 微调。

这种方法使模型能有效处理特殊词元(例如聊天模板和特定领域中的专用词元)。虽然该方案效果显著,但由于需要将嵌入层和语言建模头参数设为可训练状态,会显著增加内存消耗。

本文将探讨 Hugging Face PEFT(参数高效微调)库提供的一种全新替代方案。与传统方法需要重新训练完整嵌入层和语言建模头部不同,该技术仅专注于更新模型需要学习的特殊标记对应的嵌入向量。我们将首先解析该技术的工作原理、局限性及其内存效率优势,最后与完整重训练方法进行性能对比。

LoRA 可训练标记技术原

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

runner000001

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值