- 输入上下文长度:继承了其基础模型 DeepSeek-V3-Base 的 128K 上下文长度。最初,DeepSeek-V3 使用 4K 上下文长度进行预训练,然后利用 YaRN 技术,通过两阶段的上下文长度扩展,先将其增加到 32K,再增加到 128K。YaRN 技术能有效扩展使用旋转位置嵌入(RoPE)的大语言模型(LLM)的上下文窗口,它修改了旋转频率的缩放方式,能更好地推广到更长的上下文,且在计算上高效,无需大量重新训练即可扩展模型上下文长度。
- 总层数:由一个嵌入层、61 个 Transformer 层和输出阶段的多个预测头组成。在所有 Transformer 层中采用多头潜在注意力(MLA)层,而不是标准多头注意力。前三个 Transformer 层与其余层不同,使用标准的前馈网络(FFN)层,从第 4 层到第 61 层,混合专家(MoE)层取代了 FFN 层。
- 多头潜在注意力(MLA):是在 DeepSeek-V2 中引入并延续到 DeepSeek-V3 和 DeepSeek-R1 的创新注意力机制。传统的 Transformer 模型通常采用多头注意力机制(MHA),但在生成过程中其键值(KV)缓存会成为限制推理效率的瓶颈。为减少 KV 缓存,提出了多查询注意力(MQA)和分组查询注意力(GQA),它们所需的 KV 缓存量级较小,但性能不如 MHA。而 MLA 配备了低秩键值联合压缩,性能优于 MHA,但所需的 KV 缓存量显著减
DeepSeek R1 模型在架构上的优势
于 2025-02-18 13:48:07 首次发布