第四章 Transformer模型 1 Transformer背景介绍 模型被提出时间 2017年提出,2018年google发表了BERT模型,使得Transformer架构流行起来,BERT在许多NLP任务上,取得了Soat的成就。 模型优势 1、能够实现并行计算,提高模型训练效率 2、更好的特征提取能力 2 Transformer模型架构 架构图展示 2.1 整体架构 主要组成部分 1、输入部分 2、编码器部分 3、解码器部分 4、输出部分 2.2 输入部分