ELMo主要利用了 Bidirectional language models,公式具体如下所示:


其中
表示N-token序列
具体操作如下:
1.首先使用token embeddings或者一个字符级别的CNN来计算和上下文无关的![]()
2. 把
本文深入介绍了ELMo(Embeddings from Language Models)的工作原理,从Bi-LSTM的构建到预训练和微调过程,揭示了如何利用无标注语料库生成预训练ELMo模型,并将其应用于NLP任务,提升模型性能。
ELMo主要利用了 Bidirectional language models,公式具体如下所示:


其中
表示N-token序列
具体操作如下:
1.首先使用token embeddings或者一个字符级别的CNN来计算和上下文无关的![]()
2. 把
2900