一、前言
本文通过改变如下一些变量来对qemu-kvm不同的网络前端和后端的组合进行性能测试:
- default qemu 1.5.3 vs qemu 2.11.0
- virtual NIC inside guest VM use virtio or e1000
- vNIC tx/rx queue size
- default bridge virbr0 vs ovs bridge
- OVS normal mode bridge VS OVS DPDK mode bridge
- DPDK vhost-net with vhost-user support for VM virtio
- tap device with OVS DPDK device for best VM
- normal nginx in VM VS f-stack(DPDK) nginx
- how many cores f-stack nginx use, 1 or 2
- disk use virtio or not
- guest and host memory share method: ivshmem or vhost
转载自https://blog.youkuaiyun.com/cloudvtech
二、测试环境
宿主虚拟机的配置
6 CPU, 8GB memory 3NICs, 40GB disk
uname -a
Linux ovs-dpdk 3.10.0-693.11.1.el7.x86_64 #1 SMP Mon Dec 4 23:52:40 UTC 2017 x86_64 x86_64 x86_64 GNU/Linux
CentOS default qemu-kvm
[root@kvm-hos

本文详述了在qemu-kvm环境中,使用DPDK、virtio和OVS作为网络前端和后端的不同组合进行的性能对比测试。通过一系列测试(测试1至测试6),分析了各种配置下的网络吞吐量和延迟,旨在为选择最佳网络方案提供数据支持。
最低0.47元/天 解锁文章
1760

被折叠的 条评论
为什么被折叠?



