Datawhale NLP课程 Task4

BERT(Bidirectional Encoder Representations from Transformers)是一种预训练语言模型,由MLM(Masked Language Model)和NSP(Next Sentence Prediction)任务进行训练。MLM通过上下文预测被遮罩的单词,提升模型理解力;NSP则训练模型理解句子间关系。BERT可用于句子分类、多项选择、序列标注和问答等任务。在预训练和微调阶段,采用AdamW优化器和warmup策略防止过早收敛。

BERT-based Models应用模型

BertForPreTraining

BERT 预训练任务包括两个:

  • Masked Language Model(MLM):在句子中随机用[MASK]替换一部分单词,然后将句子传入 BERT 中编码每一个单词的信息,最终用[MASK]的编码信息预测该位置的正确单词,这一任务旨在训练模型根据上下文理解单词的意思;
  • Next Sentence Prediction(NSP):将句子对 A 和 B 输入 BERT,使用[CLS]的编码信息进行预测 B 是否 A 的下一句,这一任务旨在训练模型理解预测句子间的关系。

BertForSequenceClassification

这一模型用于句子分类(也可以是回归)任务,比如 GLUE benchmark 的各个任务。句子分类的输入为句子(对),输出为单个分类标签。

BertForMultipleChoice

这一模型用于多项选择,如 RocStories/SWAG 任务.

BertForTokenClassification

这一模型用于序列标注(词分类),如 NER 任务。

BertForQuestionAnswering

这一模型用于解决问答任务,例如 SQuAD 任务。

BERT训练和优化

Pre-Training

预训练阶段,除了众所周

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值