概述 LLM大模型训练/推理深度依赖FlashAttention算法,本文从Standard Slef-Attention到 FlashAttention,介绍算法的原理和优化演进。 Attention 算法演进 Overview 算法说明