文献阅读:Improving Language Understanding by Generative Pre-Training
本文回顾了OpenAI早期提出的GPT模型,介绍了基于Transformer的单向Encoder结构,并通过多个NLP任务验证了其有效性。实验表明,随着模型层数增加,效果不断提升,且在多项任务上取得了SOTA成绩。
本文回顾了OpenAI早期提出的GPT模型,介绍了基于Transformer的单向Encoder结构,并通过多个NLP任务验证了其有效性。实验表明,随着模型层数增加,效果不断提升,且在多项任务上取得了SOTA成绩。

被折叠的 条评论
为什么被折叠?