
论文标题:Pre-trained Models for Natural Language Processing: A Survey
原文链接:https://arxiv.org/pdf/2003.08271.pdf
说明:在读研究生为方便记忆梳理学习,手敲论文笔记,概括论文的主要思想和内容。
背景
- PTMs简介
- PTMs(pre-trained models):为了统一流程化NLP的预处理文本过程,下游任务需要预训练模型的这些学习编码器来表示上下文中的单词。
- 初代PTMs:主要学习词嵌入,可以捕捉一些语义,但是学习到语义或者特征是上下文无关的,无法捕捉更高层次的概念。(如:Skip-Gram, GloVe)
- 二代PTMs:可以学习上下文的词嵌入。(如:CoVe , ELMo,OpenAI GPT ,

本文是一篇关于自然语言处理预训练模型的综述,介绍了从初代的词嵌入模型如Skip-Gram和GloVe,到能够捕捉上下文的二代模型如ELMo和BERT。预训练模型的优势在于学习丰富的语义表示,提供更好的模型初始化,增强泛化能力和防止过拟合。
最低0.47元/天 解锁文章
5348

被折叠的 条评论
为什么被折叠?



