大多数同学一直以来对 Redis 管道有一个误解,他们以为这是 Redis 服务器提 供的一种特别的技术,有了这种技术就可以加速 Redis 的存取效率。但是实际上 Redis 管道 (Pipeline) 本身并不是 Redis 服务器直接提供的技术,这个技术本质 上是由客户端提供的,跟服务器没有什么直接的关系。下面我们对这块做一个深 入探究。
Redis 的消息交互
当我们使用客户端对 Redis 进行一次操作时,如下图所示,客户端将请求传送给 服务器,服务器处理完毕后,再将响应回复给客户端。这要花费一个网络数据包 来回的时间
如果连续执行多条指令,那就会花费多个网络数据包来回的时间。如下图所示。
回到客户端代码层面,客户端是经历了读-写-读-写四个操作才完整地执行了两 条指令。
现在如果我们调整读写顺序,改成写—写-读-读,这两个指令同样可以正常完 成。
两个连续的写操作和两个连续的读操作总共只会花费一次网络来回,
就好比连续 的 write 操作合并了,连续的 read 操作也合并了一样。
这便是管道操作的本质,服务器根本没有任何区别对待,还是收到一条消息,
执 行一条消息,回复一条消息的正常的流程。
客户端通过对管道中的指令列表改变 读写顺序就可以大幅节省 IO 时间。
管道中指令越多,效果越好。
管道压力测试
接下来我们实践一下管道的力量。
Redis 自带了一个压力测试工具 redis-benchmark ,使用这个工具就可以进行管 道测试。
首先我们对一个普通的 set 指令进行压测,QPS 大约 5w/s。
> redis-benchmark -t set -q
SET: 51975.05 requests per second
我们加入管道选项 -P 参数,它表示单个管道内并行的请求数量,
看下面 P=2 , QPS 达到了 9w/s。
> redis-benchmark -t set -P 2 -q
SET: 91240.88 requests per second
再看看 P=3 ,QPS 达到了 10w/s。
SET: 102354.15 requests per second
但如果再继续提升 P 参数,发现 QPS 已经上不去了。这是为什么呢?
因为这里 CPU 处理能力已经达到了瓶颈,
Redis 的单线程 CPU 已经飙到了 100%,所以无法再继续提升了。
深入理解管道本质
接下来我们深入分析一个请求交互的流程,真实的情况是它很复杂,因为要经过网络协议栈,这个就得深入内核了。
客户端进程调用 write 将消息写到操作系统内核为套接字分配的发送缓冲 send buffer 。
客户端操作系统内核将发送缓冲的内容发送到网卡,网卡硬件将数据通过 「网际路由」送到服务器的网卡。
服务器操作系统内核将网卡的数据放到内核为套接字分配的接收缓冲 recv buffer 。
服务器进程调用 read 从接收缓冲中取出消息进行处理。
服务器进程调用 write 将响应消息写到内核为套接字分配的发送缓冲 send
buffer 。
服务器操作系统内核将发送缓冲的内容发送到网卡,网卡硬件将数据通过
「网际路由」送到客户端的网卡。
客户端操作系统内核将网卡的数据放到内核为套接字分配的接收缓冲 recv
buffer 。
客户端进程调用 read 从接收缓冲中取出消息返回给上层业务逻辑进行处
理。
结束。
我们开始以为 write 操作是要等到对方收到消息才会返回,但实际上不是这样 的。
write 操作只负责将数据写到本地操作系统内核的发送缓冲然后就返回 了。
剩下的事交给操作系统内核异步将数据送到目标机器。但是如果发送缓冲满 了,
那么就需要等待缓冲空出空闲空间来,这个就是写操作 IO 操作的真正耗 时。
我们开始以为 read 操作是从目标机器拉取数据,但实际上不是这样的。
read 操作只负责将数据从本地操作系统内核的接收缓冲中取出来就了事了。
但是如果 缓冲是空的,那么就需要等待数据到来,这个就是读操作 IO 操作的真正耗时。
所以对于 value = redis.get(key) 这样一个简单的请求来说, write 操作几乎 没有耗时,
直接写到发送缓冲就返回,而 read 就会比较耗时了,
因为它要等待 消息经过网络路由到目标机器处理后的响应消息,再回送到当前的内核读缓冲才可 以返回。
这才是一个网络来回的真正开销.
而对于管道来说,连续的 write 操作根本就没有耗时,之后第一个 read 操作会 等待一个网络的来回开销,
然后所有的响应消息就都已经回送到内核的读缓冲 了,
后续的 read 操作直接就可以从缓冲拿到结果,瞬间就返回了。
这就是管道的本质了,它并不是服务器的什么特性,而是客户端通过改变了读写 的顺序带来的性能的巨大提升。