异数OS-织梦师-异数OS虚拟容器交换机(七) 走进4Tbps网络应用时代,加速5G应用真正落地

本文介绍了异数OS虚拟容器交换机,旨在解决服务器单节点性能瓶颈,适应4Tbps网络应用和5G时代需求。通过AMD服务器测试,展示了在不同场景下的高性能表现,包括Xnign吞吐性能和PBFT压测,揭示了虚拟交换机在低延迟和大带宽方面的优势。未来,将继续优化服务器技术,以适应更高的网络带宽需求。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

.

异数OS-织梦师-异数OS虚拟容器交换机(七) 走进4Tbps网络应用时代,加速5G应用真正落地


本文来自异数OS社区


github: https://github.com/yds086/HereticOS

异数OS社区QQ群: 652455784

异数OS-织梦师(消息中间件 ,区块链,游戏开发方向)群: 476260389

异数OS-织梦师-Xnign(Nginx方向)群: 859548384


序言

本文测试数据由AMD服务器供应商 正昱科技提供的EPYC 7551完成,再次感谢他们提供的热心支持,他们是一群充满理想,充满朝气的中小创业者,愿每一位中小创业者在布满荆棘的道路上都能够如此,将希望的种子播撒到世界最寒冷的地方,带给那里一线光明,也照亮自己的未来。

多少年来,我们的互联网网络带宽从56k走到了现在的百兆千兆,但是当10年前我们普及2M互联网带宽后,我们发现我们的网络任然是那样的缓慢,无论是20M,100M,1000M,还是4G 5G(25G带宽),我们的有戏还是那样卡顿,我们下载文件还是1M 2M甚至几百K几十K,12306还是年年需要抢,你家的宽带只能电信跑分软件中看看虚假成绩来自娱自乐,聪明的你可能已经找到问题出在哪里了,服务器好慢,为什么20年来服务器技术就没跟上呢?是服务器技术没有发展么?那么我告诉你,技术是发展了,只是方向搞错了,20年来我们的服务器单节点网络吞吐性能上限一直没有变化过,靠的是分布式扩充性能容量,分布式有一个坏习惯,就是需要拿钱砸,而且不是线性关系的砸钱,性能与你砸的钱多数时候成指数关系,因此10年来你并没有发现网速提高多少,但是你发现能上的网站真的越来越少了,因为在分布式扩充性能的过程中,网站建设门槛成本都升高了。5G时代后,服务器技术瓶颈将更加明显,能提供5G真服务的服务商将趋向于0,所以我们需要新的技术来改变这种瓶颈,提高服务器单节点性能,降低分布式系统复杂度成本,这是写作本文的目标。


关于异数OS虚拟容器交换机需求背景

随着CPU技术发展,未来可能会出现几百上千核的CPU ,而异数OS会将每个CPU核抽象为一个容器集群节点,这样本地容器集群规模就变得比较庞大,本地容器集群内流量交换压力与日俱增,因此需要一个虚拟交换机做本地容器流量转发,异数OS虚拟交换机是很早以前完成的,用于异数OS原型验证实验,但并没有真想让他落地成为一个OS组件,原因是异数OS虚拟交换机在容器操作系统本地运行,会占用不少内存带宽,他大概会占用50%的CPU 内存带宽资源。所以理论上应该由硬件交换技术去完成,但随着需求的不断妥协,我们发现这个虚拟交换机将变得不可替代,原因有以下几点

1. PCIE 网卡以及交换机网络延迟约束

主流的网卡以及交换机设备的延迟最多只能做到10us,这可能是照顾linux windows等落后操作系统的原因,但这对异数OS来讲是降低性能的罪犯,异数OS的应用延迟一般在300ns-1us(Xnign 1链接大概200ns),延迟对于一些应用系统来讲是致命的,比如一些分布式事务,分布式锁,PBFT等,这些都是7层应用的重量级基础技术,而CPU的LLC以及AMD Infinity Fabric 以及Intel ring qpi等CPU总线已经可以将数据交换延迟降低到0.5-2us,这个级别的延迟,对于异数OS来讲,具有数量级级别的加速意义,它可以将分布式事务的TPS性能相对Linux等操作系统提速1000倍。

2.主流网卡带宽不足

目前主流网卡硬件只能提供100G带宽,且单点无法形成交换网络,而CPU 比如 EPYC等已经已经可以达到4T的数据交换容量,而且EPYC 二代的架构推测可能已经支持一个CPU交换机,吞吐预计还能提升数倍,因此任何硬件网卡交换方案都几乎都无法承载异数OS容器集群的本地流量,网卡交换方案只能作为一种外部互联的折中替补方案,异数OS需要一个本地虚拟交换机来卸载本地集群转发流量,只将外部流量转移给网卡交换设备。

3.网卡做交换机不专业,不灵活,且生态兼容圈太小

主流的网卡比如intel 网卡需要考虑复杂的sr-iov vmdq等技术来帮助异数OS设计容器化网络交换机,但目前看来还是比较难适配的,在综合考虑 macvlan rss fdir sr-iov vmdq等方案折中来实现一个容器交换机的过程中,发现这些技术目前并不能完全满足异数OS的需求,在做本地容器网络交换时出现一些功能障碍,且会增加方案复杂度,降低兼容性,因此需要一个虚拟交换机来满足一些硬件网卡无法提供的能力,并降低硬件设备方案复杂度(只使用L2 L3普通硬件交换设备,不依赖SDN白盒交换技术设备)。

4.网卡SDN生态政治站队文化严重,发展缓慢

几年下来找不到一个国内能定制网卡的厂商,都是些见风使舵依附势力天天想着骗钱忽悠的表演家。

异数OS容器虚拟交换机方案

由于异数OS 容器交换机需要对本地容器做流量转发,因此他需要考虑异数OS容器技术以及CPU NUMA互联总线架构做优化流量转发,因此设计时根据不同场景做了不同的优化策略,形成了一套在异数OS容器环境下有效的低延迟大带宽网络资源规划转发方案,目前EPYC平台实现最大4.8Tbps 500mpps的 Xnign http cache流量生成并转发。

考虑到本地集群需要,我们按照NUMA容器布局架构,规划127 IP网段来分配给本地容器,用于本地集群流量转发。
异数OS 127网段IP格式定义如下
127.SystemID.ContainerID.0/8
下表为IP NUMA 容器划分,对应交换技术以及性能指标的对应关系,注意下表中PPS是指在Xnign 1000字节页面(1400包尺寸)环境下压测得到,因此并不算是最大PPS,一些场景可能会因为带宽约束导致PPS不是最大值,延迟带宽相关测试数据见后文。

交换技术容器作用范围IP范围定义EPYC Xnign 1链接延迟PPS(EPYC Xnign压力)带宽(EPYC Xnign压力)IOPS(EPYC Xnign压力)PBFT消息转发量
CPU 本地L1 L2本地系统内容器间交换127.0.0.0/8
127.本地系统ID.容器ID.0/8
350ns450Mpps4 Tbps450M*2
HT核本地L1 L2HT系统内容器间交换127.HT内系统ID.容器ID.0/8720ns260Mpps2Tbps260M*2
CCX内 L3 共享CCX内系统容器间交换127.CCX内系统ID.容器ID.0/8720ns225Mpps1.6Tbps225M*2
Infinity Fabric 内部互联总线CCX之间系统容器间交换127.CCX内系统ID.容器ID.0/81.3us140Mpps1Tbps140M*24将军 300W TPS
Infinity Fabric同Socket外部总线同Socket Node之间系统容器间交换127.同Socket Node间系统ID.容器ID.0/81.9us83Mbps*3?550Gbps*3?83M*2*3?241将军 20M*2 TPS
Infinity Fabric Socket间互联总线CPU Socket 间系统容器间交换127.CPU Socket 间系统ID.容器ID.0/82.5us70Mpps450Gbps70M*2241将军 33M*2 TPS
PCIE网卡交换设备外部网络容器间交换192.0.0.0/24
具体由容器编排工具确定
10usfdir最大实现2M*128100G*4

容器交换机性能测试

单独测试虚拟交换机转发性能无意义,因为虚拟交换机运行在容器环境下,对容器应用负载会有较大影响,因此我们的容器交换机压测时都时都是正常应用负载来做压测,比如Xnign http cache流量,PBFT rpc消息广播确认等。 下面的测试数据在正昱科技提供的双路 EPYC 7551下完成, 16内存通道。

Xnign吞吐性能测试

Xnign 由于IO压力相对简单,因此我们使用Xnign来做系统带宽 QPS IOPS等性能测试。
下图是Xnign cache压测 1000字节 每系统节点8线程。

128核本地系统L1 L2 HT系统本地压测

CPU开启HT本地 L1 L2压测,可以看到正昱科技提供的EPYC 112核(写博客是才发现少开了一个节点15核,好吧)压测整体流量达到双向总计620GB流量(4.8Tbps),此时Xnign QPS达到2亿,虚拟容器交换机包交换性能达到400Mpps,相信全开后能达到450Mpps。
在这里插入图片描述

64核不开HT 本地系统L1 L2(历史数据)

在这里插入图片描述

128核本地系统L1 L2 HT系统交叉压测

在这里插入图片描述

128核本地系统CCX内系统交叉压测

在这里插入图片描述

128核本地系统CCX间系统交叉压测

在这里插入图片描述

128核本地系统同Socket Node间系统交叉压测

写完博客,后来才发现AMD 同Socket 4路Node是全连接,每个Node有3条Infinity Fabric,而本测试只压了1条Infinity Fabric,所以如果三个方向都压测,可能成绩会提升3倍。
在这里插入图片描述

128核本地系统不同Socket Node间系统交叉压测

在这里插入图片描述

PBFT压测

PBFT应用潜伏期较大,因此对IO延迟以及线程实时响应能力,错误处理能力要求极高,与Xnign压测不同的是PBFT需要所有节点全连接,最慢的节点以及最慢的通讯路径将拖累系统总体IO性能,并可能造成超时停机,因此我们用PBFT可以来模拟对分布式事务以及分布式锁等性能能依赖较高的应用性能测试,主要测试有4将军,61将军,241将军,4096将军,最后我们压测了极限8191将军,他将创建1.2亿TCP RPC链接(2*8191*8191),对应4.8亿异数OS工作线程.

4将军

忘记放进CCX内的系统环境,延迟有些高,成绩不是很理想。
在这里插入图片描述

61将军 2节点32核

在这里插入图片描述

241将军 8节点128核

在这里插入图片描述
在这里插入图片描述

4096将军 8节点128核

在这里插入图片描述
在这里插入图片描述

8191将军 8节点128核

在这里插入图片描述
在这里插入图片描述

未来的考虑

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

AthlonxpX86

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值