# 大模型分布式训练框架 Microsoft DeepSpeed——微软DeepSpeed揭秘:8倍显存优化的千亿级大模型训练黑科技
## DeepSpeed 框架和核心技术
### 一、DeepSpeed 框架全景图
```mermaid
graph TD
A[DeepSpeed] --> B(核心组件)
B --> C[ZeRO优化器]
B --> D[混合精度训练]
B --> E[梯度检查点]
B --> F[Offload技术]
B --> G[3D并行策略]
A --> H(创新功能)
H --> I[大规模推理优化]
H --> J[模型压缩技术]
H --> K[科学计算扩展]
DeepSpeed 是微软开源的分布式训练框架,其核心设计目标是通过显存优化和计算加速两个维度突破大模型训练的硬件限制。框架包含四大核心技术支柱:
- ZeRO(Zero Redundancy Optimizer)
- 通过参数分区消除数据并行中的显存冗余
- 支持梯度累积与参数更新的显存复用
- 混合精度训练
- FP16/FP32混合精度计算
- 动态损失缩放(Dynamic Loss Scaling)