经典论文介绍:GPT的由来,Improving Language Understanding by Generative Pre-Training

GPT是谷歌AI团队2018年提出的自然语言处理方法,基于单向Transformer的自回归语言模型进行预训练,然后通过fine-tuning适应不同下游任务,如文本分类和机器翻译,在多项任务中表现出色。

《Improving Language Understanding by Generative Pre-Training》是谷歌AI研究团队在2018年提出的一篇论文,作者提出了一种新的基于生成式预训练的自然语言处理方法(Generative Pre-training Transformer,GPT),在多项下游任务中均取得了优秀的效果。

论文地址:https://s3-us-west-2.amazonaws.com/openai-assets/research-covers/language-unsupervised/language_understanding_paper.pdf

GPT模型结构

GPT使用了Transformer模型结构,但相较于BERT,它仅使用了单向的Transformer编码器,因此只能考虑当前单词之前的上下文。GPT的预训练任务是生成式的,即给定一段自然语言文本的前缀,预测该文本的下一个单词。具体而言,GPT使用了一个基于Transformer的自回归语言模型(autoregressive language model),在预训练过程中,它需要生成下一个单词,并根据生成的结果计算损失函数,不断优化模型的参数。

预训

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值