网络-网卡多队列


前言

没有开启网卡多队列,导致在某些单线程多TCP链接的应用场景下,出现某个CPU软中断高的情况。
网卡在同一时刻只能产生一个中断,CPU在同一时刻只能响应一个中断,由于配置的原因,只有一颗cpu去响应中断(这个是可调的),所以所有的流量都压在了一个CPU上 ,把CPU跑满了。


一、网卡多队列

通常情况下,一张网卡会有一个队列用来接发收网络数据包,我们所说的一个队列你也可以理解成一个处理数据包的进程。

二、查看网卡多队列

1.查看网卡是否支持多队列

[root@mydesk logs]# ethtool -l ens3
Channel parameters for ens3:
Pre-set maximums:
RX:		0
TX:		0
Other:		0
Combined:	1
Current hardware settings:
RX:		0
TX:		0
Other:		0
Combined:	1

# Pre-set maximums  Combined 标识最多支持队列数
# Current hardware settings  Combined 标识当前设置的数,大于1表示已开启。

2.通过lspci方式查看

通过lspci方式查看网卡信息,如果有MSI-X, Enable+ 并且Count > 1,则该网卡是多队列网卡,多队列网卡内部会有多个 Ring Buffer。

[root@localhost ~]# lspci -vvv | grep -A50 "Ethernet controller" | grep -E "Capabilities|Ethernet controller"
01:00.0 Ethernet controller: Intel Corporation I350 Gigabit Network Connection (rev 01)
	Capabilities: [40] Power Management version 3
	Capabilities: [50] MSI: Enable- Count=1/1 Maskable+ 64bit+
	Capabilities: [70] MSI-X: Enable+ Count=10 Masked-
	Capabilities: [a0] Express (v2) Endpoint, MSI 00
	Capabilities: [e0] Vital Product Data

二、设置网卡多队列

ethtool -L eth0 combined 8

设置后可以在/sys/class/net/eth0/queues/目录下看到对应的队列

[root@localhost ~]# cd /sys/class/net/eth0/queues/
[root@localhost queues]# ls
rx-0  rx-2  rx-4  rx-6  tx-0  tx-2  tx-4  tx-6
rx-1  rx-3  rx-5  rx-7  tx-1  tx-3  tx-5  tx-7

三、网卡中断均衡设置

查看网卡中断号

例如查询eth0的网卡中断号

[root@localhost ~]# cat /proc/interrupts | grep eth0 |awk -F ":" '{print $1}' | awk '{print $1}'
46
47
48
49
50
51
52
53
.....

查询其中断亲缘性配置

shell> cat /proc/irq/45/smp_affinity
02

这里的 02 实际上是十六进制,表示 1 号CPU,计算方法如下(参考资料):
Binary Hex
CPU 0 0001 1
CPU 1 0010 2
CPU 2 0100 4

设置中断均衡

基本思路就是把各个中断号绑定到单独的CPU上,但是有可能出现中断号多于CPU个数的情况,毕竟现在的网卡都很高级,那么这个时候就要会出现同个CPU绑定多个中断号了。

设置中断号绑核需要将绑定CPU的信息设置到对应中断号上,如下

echo 00000001 > /proc/irq/46/smp_affinity

这表示将网卡中断号46绑定到CPU0上。
其中,smp_affinity变量用位方式表示CPU序号,即

00000001 -----> 对应CPU0
00000002 -----> 对应CPU1
00000004 -----> 对应CPU2
00000008 -----> 对应CPU3
00000010 -----> 对应CPU4
....

说明:如果希望多个CPU参与中断处理的话,可以使用类似下面的语法:
echo 3,5 > /proc/irq/45/smp_affinity_list
echo 0-7 > /proc/irq/45/smp_affinity_list
坏消息是对单队列网卡而言,「smp_affinity」和「smp_affinity_list」配置多CPU无效。


在 `virt-manager` 中配置网卡多队列(NIC Multi-Queue)需要结合虚拟化底层支持(如 KVM 和 QEMU)以及主机内核的配置。多队列功能可以提升虚拟机的网络吞吐性能,尤其是在多核 CPU 环境中。 ### 配置步骤如下: 1. **确保主机支持多队列virtio-net设备** 确保内核支持 `virtio-net` 多队列特性。通常需要 Linux 内核版本 3.8 或更高版本,并启用 `CONFIG_VIRTIO_NET` 选项。可以通过以下命令查看当前内核是否支持: ```bash modinfo virtio_net | grep -i multiqueue ``` 如果输出中包含 `supports: multiqueue`,则表示支持多队列。 2. **安装virt-manager及依赖** 如果尚未安装 `virt-manager`,可以通过以下命令安装: ```bash # yum install virt-manager ``` 3. **配置虚拟机XML启用多队列** 使用 `virt-manager` 打开虚拟机设置后,切换到“XML”编辑模式(或使用 `virsh edit <vm-name>` 命令),找到 `<interface>` 部分,并添加 `<driver>` 子元素以启用多队列: ```xml <interface type='network'> <source network='default'/> <model type='virtio'/> <driver name='vhost' queues='4'/> <!-- queues指定队列数量 --> </interface> ``` 上述配置中 `queues='4'` 表示为该虚拟机网卡分配 4 个接收/发送队列。 4. **调整虚拟机CPU绑定** 为充分发挥多队列性能,建议将虚拟机 vCPU 与物理 CPU 核心进行绑定。在 `virt-manager` 中,可以在“CPU”选项卡中手动设置 CPU 亲和性。 5. **启动虚拟机并验证** 启动虚拟机后,在虚拟机内部查看网卡是否启用了多队列。例如在 Linux 客户机中执行: ```bash ethtool -l eth0 ``` 输出应显示多个队列(如 `Combined` 行数大于1)。 6. **优化性能参数(可选)** 可进一步启用 RPS(Receive Packet Steering)或 RSS(Receive Side Scaling)来优化多队列性能,具体配置需根据物理网卡和应用场景调整。 --- ### 示例代码:使用 virsh 命令查看网卡队列配置 ```bash virsh dumpxml <vm-name> | grep -A 5 "<interface" ``` --- ###
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值