文章大纲

Attention 机制最早应用在计算机视觉领域,随后在 NLP 领域也开始应用了,真正发扬光大是在 NLP 领域,因为 2018 年 BERT 和 GPT 的效果出奇的好,进而走红。而 Transformer 和 Attention 这些核心开始被大家重点关注。
Attention 机制,有以下三个优点:
- 参数少
- 速度快
- 效果好
模型是由编码器(Encoder)和解码器(Decoder)组成的。其中,编码器会处理输入序列中的每个元素,把这些信息转换为一个向量(称为上下文(context))。当我们处理完整个输入序列后,编码器把上下文(context)发送给解码器,解码器开始逐项生成输出序列中的元素。
1. 注意力机制 Attention
人类可以自然而有效地在复杂场景中找到显著区域。 受这一观察的启发,注意力机制被引入计算机视觉,目的是模仿人类视觉系统的这一方面。这种注意力机制可以看作是基于输入图像特征的动态权重调整过程。注意力机制在许多视觉任务中取得了巨大成功,包括图像分类、目标检测、语义分割、视频理解、图像生成、3D 视觉、多模态任务和自监督学习。
计算机视觉中,现有的注意力方法分为六类,其中包括四个基本类别:
- 通道注意力
订阅专栏 解锁全文
6227

被折叠的 条评论
为什么被折叠?



