目录
文章目录
InfiniBand RDMA
InfiniBand 是一种专为 RDMA 设计的网络,基于 InfiniBand 的设备通常都实现了 RDMA,从硬件级别保证可靠传输。全球 HPC 高算系统 TOP500 大效能的超级计算机中有相当多套系统在使用 InfiniBand Architecture(IBA)。最早做 InfiniBand 的厂商是 IBM 和 HP,现在主要是 NVIDIA 的 Mellanox。InfiniBand 从 L2 到 L4 都需要自己的专有硬件,成本相对较高。
RDMA 的最主要的特点就是零拷贝和旁路操作系统,数据直接在外部设备和应用程序内存之间传递,这种传递不需要 CPU 的干预和上下文切换。结合 RDMA,InfiniBand 能够实现以应用为中心的通信方式,而非 TCP/IP 似的以网络设备节点为中心的通信方式。
数据的传输工作直接交给 InfiniBand 设备完成,无需经过网络节点操作系统的转发(Kernel Bypass)。这一方面提升了数据的传输效率,另一方面提高了 CPU 的利用率。
IB 架构
InfiniBand Architecture(IBA)包括以下组件:
- Processor Node:C