ELMo(Embeddings from Language Models) --学习笔记

ELMo是从深层双向语言模型中学习得到的词向量,它能捕捉词汇的语法、语义信息以及上下文中的多义性。与word2vec不同,ELMo的词向量会随上下文变化。通过预训练的biLM,ELMo的词表征能提升NLP任务的性能,如问答、情感分析等。使用ELMo需要安装allennlp(不支持Windows)。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

学习参考自:
(1)、ELMo 最好用的词向量《Deep Contextualized Word Representations》
(2)、吾爱NLP(5)—词向量技术-从word2vec到ELMo
(3)文本嵌入的经典模型与最新进展

1、ELMo简介

基于大量文本,ELMo模型从深层的双向语言模型(deep bidirectional language model)中的内部状态(internal state)学习而来。
ELMo的优势:
(1)ELMo能够学习到词汇用法的复杂性,比如语法、语义。
(2)ELMo能够学习不同上下文情况下的词汇多义性。
在这里插入图片描述

ELMo与word2vec最大的不同:
Contextual: The representation for each word depends on the entir

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值