ELMo: Deep contextualized word representations

本文介绍了ELMo,一种基于预训练的双向语言模型的深度上下文词表示,它能显著提升六项NLP任务的SOTA。ELMo的词向量是根据biLM的所有内部层状态计算的,高层状态捕获语义信息,低层状态捕获句法信息。在下游任务中,通过学习特定任务的权重组合这些层,提高了模型性能。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Abstract

本文介绍一种新型的上下文词表示可以建模:

  • 词的复杂用法特征(例如句法或者语义特征)
  • 在不同的语言上下文中的用法变化(例如多义词)

我们的词向量是学到的深度双向语言模型(biLM)内部状态的函数,这个 biLM 是在大量文本语料上预训练的结果。我们展示了这些表示可以很容易地加入已有的模型并在六项 NLP 任务上显著提升了 SOTA.

Introduction

预训练的词向量(Word2Vec, GloVe 等)是很多神经语言理解模型中的关键。
我们在大量文本语料上使用语言模型 (LM)目标预训练一个双向 LSTM, 然后从中得到词向量。我们将这种词向量命名为 ELMo (Embeddings from Language Models). 与之前学习上下文词向量的方法不同,ELMo 是深度词向量,因为 ELMo 词向量是 biLM 所有内部层状态的函数。具体来说,我们对每个下游任务训练一个线性组合函数,这种方式明显地提升了模型的表现,即便是在只使用 LSTM 最后一层状态的情况下。

我们发现高层的 LST

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值