文章大纲
Attention 机制最早应用在计算机视觉领域,随后在 NLP 领域也开始应用了,真正发扬光大是在 NLP 领域,因为 2018 年 BERT 和 GPT 的效果出奇的好,进而走红。而 Transformer 和 Attention 这些核心开始被大家重点关注。
Attention 机制,有以下三个优点:
- 参数少
- 速度快
- 效果好
模型是由编码器(Encoder)和解码器(Decoder)组成的。其中,编码器会处理输入序列中的每个元素,把这些信息转换为一个向量(称为上下文(context))。当我们处理完整个输入序列后,编码器把上下文(context)发送给解码器,解码器开始逐项生成输出序列中的元素。
1. 注意力机制 Attention
人类可以自然而有效地在复杂场景中找到显著区域。 受这一观察的启发,注意力机制被引入计算机视觉,目的是模仿人类视觉系