咱们今天来看的论文叫RetNet,题目是Retentive Network:a successor to transformer for large language models。我们知道BLIP成了一个非常普适的一个工具,你可以拿这个模型去训练VLMo,训练CoCa,训练BEiT-3,去训练各种各样的多模态模型,因为它的目的就是生成更好的数据。 BEiT-3呢,他的核心思想是将图像建模为一种语言,这样我们就可以对图像、文本以及图像-文本对进行统一的mask modeling。BEiT-3模型可以有效地完成不同的视觉和视觉语言任务,使其成为通用建模的一个有效选择。BLIP,BEiT-3这两个比较经典的模型都是基于Vision transformer,ViT而来,都是在利用transformer的encoder,decoder或者encoder-decoder各种组合完成建模任务,然而RetNet网络模型则是在魔改transformer架构。咱们来看看RetNet究竟是怎样做到的?
多尺度保留机制Retention与标准自注意力机制相比,有几大特点:
引入位置相关的指数衰减项取代 softmax,简化了计算,同时使前步的信息以衰减的形式保留下来。引入复数