从Word Embedding到Bert模型

本文介绍了从WordEmbedding到BERT的演变过程,包括NNLM、Word2Vec、ELMO、GPT和BERT。重点讨论了预训练和Fine-tuning阶段,如ELMO的上下文调整、GPT的Transformer应用以及BERT的双向预训练。预训练模型如BERT引入了MSKEDLM和NextSentencePrediction等创新,提升了模型在NLP任务上的表现。

一、Word Embedding

注意:
 1、word embedding相当于预训练,将onehot层到embedding层的参数用矩阵Q初始化了。
 2、使用word embedding有两种做法,一个是Frozen,另一种是Fine-Tuning。
在这里插入图片描述

1.1 神经网络语言模型(NNLM)

在这里插入图片描述

学习任务是输入某个句中单词   W t = “ B e r t ” \ W_t= “Bert”  Wt=Bert 前面句子的t-1个单词,要求网络正确预测单词Bert,即最大化:

  P ( W t = “ B e r t ” ∣ W 1 , W 2 , . . . W ( t − 1 ) ; θ ) \ P(W_t =“Bert”|W_1,W_2,...W_{(t-1)}; \theta )

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值