目录
一、基本概念
注意力机制(Attention Mechanism)源于对人类视觉的研究,在认知科学中,由于信息处理的瓶颈,人类会选择性地关注所有信息的一部分,同时忽略其他可见的信息,这种机制被称为注意力机制。注意力机制主要有两个方面:一是决定需要关注输入的哪部分,二是分配有限的信息处理资源给重要的部分。
二、工作原理
注意力机制可以应用于任何类型的输入,而不管其形状如何。在计算能力有限的情况下,注意力机制是解决信息超载问题的主要手段的一种资源分配方案,即将计算资源分配给更重要的任务。注意力一般分为两种:一种是自上而下的有意识的注意力,称为聚焦式(focus)注意力,指有预定目的、依赖任务的、主动有意识地聚焦于某一对象的注意力;另一种是自下而上的无意识的注意力,称为基于显著性(saliency-based)的注意力,由外界刺激驱动的注意,不需要主动干预,也和任务无关。
在神经网络中,注意力机制可以单独使用,但更多地用作神经网络中的一个组件。它能够将有限的计算资源用来处理更重要的信息。基于神经网络的注意力机制,核心在于让机器学会去感知数据中的重要和不重要的部分,在处理大量输入数据时,允许模型关注于最关键的部分。
三、实现方式
注意力机制有多种实现方式,包括但不限于:
-
软性注意力机制(Soft Attenti