大模型系列13-迁移学习(WIP)

迁移学习

在自然语言处理领域,迁移学习是一种关键技术,用于将从一个任务或领域中学到的知识迁移到另一个任务或领域中,从而减少训练时间、计算资源,并提升模型在特定任务上的表现。

预训练-微调是目前最主流的技术,配合 BERT、GPT 等大型模型,已经成为解决各种 NLP 问题的标配。而随着模型规模的增长,参数高效微调(PEFT,Parameter-Efficient Fine-Tuning)(如适配器和提示调优)逐渐成为热门选择,能够在保持性能的同时减少资源消耗。

预训练-微调(fine-tuning)

针对每个新任务调整全部原始参数 w w w,完全微调涉及对预训练模型的所有参数进行调整,以适应新的任务或数据集。这种方法通常需要更多的计算资源和数据,因为模型的每个参数都可能需要根据新任务进行优化。完全微调的优点是它可以更好地适应新任务,特别是当新任务与预训练任务差异较大时。

预训练阶段:在大规模无监督数据(如海量文本语料库)上训练语言模型,学习通用的语言表示。微调阶段:在下游任务(如文本分类、机器翻译、问答系统)中,通过有监督学习调整预训练模型的部分或全部参数,使其适应特定任务。

参数高效微调(PEFT)的各种类型

PEFT 是 Parameter-Efficient Fine-Tuning(参数高效微调)的缩写。

LoRA(Low - Rank Adaptation)

LoRA 是 PEFT 中一种非常重要的方法。它的核心是通过低秩分解来表示模型的权重更新。对于预训练模型的一个权重矩阵 W W W,可以将其分解为 W = W 0 + B A W=W_0 + BA W=W0+BA,其中 W 0 W_0 W0是原始的预训练权重, B B B A A A是低秩矩阵。在微调过程中,只训练 B B B A A

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值