NLP-预训练模型-2017:ULMFiT(Universal LM Fine-tuning for Text Classification)【使用AWD-LSTM;模型没有创新;使用多个训练小技巧】

这篇博客介绍了ULMFiT(通用语言模型微调)这一方法,它将迁移学习引入到自然语言处理(NLP)中,使得模型能够适应各种任务而无需从头训练。作者提出了包括一般领域LM预训练、目标任务LM微调和目标任务分类器微调在内的步骤,并分享了微调过程中的技巧,如歧视性微调、拼接池化、斜率三角学习率、逐层解冻和BPTT用于文本分类。这种方法在小数据集上表现优秀,对NLP任务的泛化能力有所提升。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

在这里插入图片描述

  1. 迁移学习在计算机视觉有很大的影响,但现在的NLP中的方法仍然需要特定任务的修改和 从头开始的训练。
  2. 我们提出通用语言模型微调,一种可以应用NLP任何任务中的迁移学习方法。
  3. 我们模型在分类任务中都表现得良好,并且在小数据集上的表现优异。

一、ULMFiT (Universal Language Model Fine- tuning)组成步骤:

a) General-domain LM pretraining ;
b) target task LM fine-tuning;
c) target task classifier fine-tuning

二、Fine-tuning小技巧

1、Discriminative fine-tuning

2、Concat pooling

3、Slanted triangular learning rates

4、Gradual unfreezing(逐层解冻)

5、BPTT for Text Classification (BPT3C)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值