1. ALmix介绍
ALmix注意力机制在图像特征提取方面相较于ACmix注意力机制具有以下几个优异之处:
(1). 融合了线性注意力机制:
ALmix在传统卷积和自注意力机制的基础上,加入了线性注意力(Linear Attention)模块。这一模块通过q(query)、k(key)、v(value)的矩阵乘法和softmax操作,在计算复杂度上大大降低,同时保持了对全局信息的捕获能力。相比之下,ACmix仅仅使用了局部卷积和自注意力机制,没有包含线性注意力,这使得ALmix在大规模特征提取时能够更高效地处理。
(2). 灵活的权重调节参数:
ALmix引入了两个可训练的参数rate1和rate2,用于在输出中调节不同模块的权重。这种设计使得模型能够动态调整不同特征提取模块的贡献,从而更好地适应不同的图像特征。而ACmix中虽然也有类似的权重调节,但在复杂度和灵活性上不如ALmix。
(3). 位置编码的有效利用:
在ALmix中,位置编码(positional encoding)通过一个独立的卷积层(conv_p)进行提取,并与自注意力机制中的q和k结合使用