自回归、自编码语言模型在预训练模型中的应用

本文综述了深度学习在自然语言处理中应用的词向量预训练模型,包括ELMO、GPT、BERT、XLNET等。探讨了自回归(AR)与自编码(AE)语言模型结合LSTM和Transformer特征提取器的方法,以及连续空间语言模型的发展。

关于语言模型(自回归AR和自编码AE)如何结合特征提取器(LSTM和Transformer)的词表征模型(词向量的预训练模型),如ELMO、GPT、BERT、XLNET等,论文An introduction of Deep Learning Based Word
Representation Applied to Natural Language
Processing
做了完整的介绍。
以下介绍自己查阅资料中的一些资料推荐以及总结:

一、语言模型

语言模型用博客NLP: Explaining Neural Language Modeling,可以解释为The goal of a language model is to compute a probability of a sentence or a sequence of words.

语言模型可以分为Count-based language models以及Continuous-space language models,在Medium上的一篇文章对其进行了介绍Language Model: A Survey of the State-of-the-Art Technology
1、Count-based language models
统计语言模型中SLM最经典的

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值