探索Transformer及其衍生模型:BERT与GPT-2的奥秘
1. Transformer基础与原理
1.1 掩码机制
在预测句子中的单词时,Transformer采用掩码机制。例如对于句子“My dog loves taking long”,预测第五个单词“long”时,模型只能看到“My dog loves taking”。具体来说,Transformer会进行并行计算,每个计算负责预测一个不同的单词,且只能使用该单词之前的输入。这种机制通过在解码器块的第一个自注意力层添加额外步骤来实现,即掩码掉每个预测步骤不应看到的单词。因此,预测第一个单词时没有输入,预测第二个单词时只看到“My”,以此类推。由于这个额外步骤,解码器块的第一个注意力层有时被称为掩码多头自注意力层,通常简称为掩码注意力层。
1.2 Transformer在翻译中的应用
使用约50,000个训练示例的数据集训练一个Transformer模型,用于将葡萄牙语翻译成英语。当输入葡萄牙语问题“você se sente da mesma maneira que eu?”时,谷歌翻译的结果是“do you feel the same that way I do?”,而训练的系统输出为“do you see, do you get the same way i do?”。尽管结果不完美,但考虑到训练数据集较小,该模型仍能很好地捕捉问题的核心意思。增加训练数据和训练时间有望提高翻译结果。
1.3 Transformer与RNN对比
与RNN相比,在更大数据集上训练更长时间的Transformer能产生相同甚至更好的结果,并且可以并行训练。Tra
超级会员免费看
订阅专栏 解锁全文
5694

被折叠的 条评论
为什么被折叠?



