“惊群”问题

本文深入探讨了操作系统中惊群问题的原理及影响,介绍了Linux内核如何通过互斥等待机制解决该问题,并对比了几种常见服务器端设计方法的优劣。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

“据说”惊群问题已经是一个很古老的问题了,并且在大多数系统中已经得到有效解决,但对我来说,仍旧是一个比较新的概念,因此有必要记录一下。

什么是惊群

        举一个很简单的例子,当你往一群鸽子中间扔一块食物,虽然最终只有一个鸽子抢到食物,但所有鸽子都会被惊动来争夺,没有抢到食物的鸽子只好回去继续睡觉,等待下一块食物到来。这样,每扔一块食物,都会惊动所有的鸽子,即为惊群。对于操作系统来说,多个进程/线程在等待同一资源是,也会产生类似的效果,其结果就是每当资源可用,所有的进程/线程都来竞争资源,造成的后果:
1)系统对用户进程/线程频繁的做无效的调度、上下文切换,系统系能大打折扣。
2)为了确保只有一个线程得到资源,用户必须对资源操作进行加锁保护,进一步加大了系统开销。

        最常见的例子就是对于socket描述符的accept操作,当多个用户进程/线程监听在同一个端口上时,由于实际只可能accept一次,因此就会产生惊群现象,当然前面已经说过了,这个问题是一个古老的问题,新的操作系统内核已经解决了这一问题。

linux内核解决惊群问题的方法

        对于一些已知的惊群问题,内核开发者增加了一个“互斥等待”选项。一个互斥等待的行为与睡眠基本类似,主要的不同点在于:
        1)当一个等待队列入口有 WQ_FLAG_EXCLUSEVE 标志置位, 它被添加到等待队列的尾部. 没有这个标志的入口项, 相反, 添加到开始.
        2)当 wake_up 被在一个等待队列上调用时, 它在唤醒第一个有 WQ_FLAG_EXCLUSIVE 标志的进程后停止。
        也就是说,对于互斥等待的行为,比如如对一个listen后的socket描述符,多线程阻塞accept时,系统内核只会唤醒所有正在等待此时间的队列的第一个,队列中的其他人则继续等待下一次事件的发生,这样就避免的多个线程同时监听同一个socket描述符时的惊群问题。

根据以上背景信息,我们来比较一下常见的Server端设计方案。
方案1:listen后,启动多个线程(进程),对此socket进行监听(仅阻塞accept方式不惊群)。
方案2:主线程负责监听,通过线程池方式处理连接。(通常的方法)
方案3:主线程负责监听,客户端连接上来后由主线程分配实际的端口,客户端根据此端口重新连接,然后处理数据。

先考虑客户端单连接的情况
方案1:每当有新的连接到来时,系统内核会从队列中以FIFO的方式选择一个监听线程来服务此连接,因此可以充分发挥系统的系能并且多线程负载均衡。对于单连接的场景,这种方案无疑是非常优越的。遗憾的是,对于select、epoll,内核目前无法解决惊群问题。 (nginx对于惊群问题的解决方法)
方案2:由于只有一个线程在监听,其瞬时的并发处理连接请求的能力必然不如多线程。同时,需要对线程池做调度管理,必然涉及资源共享访问,相对于方案一来说管理成本要增加不少,代码复杂度提高,性能也有所下降。
方案3:与方案2有不少类似的地方,其优势是不需要做线程调度。缺点是增加了主线程的负担,除了接收连接外还需要发送数据,而且需要两次连接,孰优孰劣,有待测试。

再考虑客户端多连接的情况:
对于数据传输类的应用,为了充分利用带宽,往往会开启多个连接来传输数据,连接之间的数据有相互依赖性,因此Server端要想很好的维护这种依赖性,把同一个客户端的所有连接放在一个线程中处理是非常有必要的。
A、同一客户端在一个线程中处理
方案1:如果没有更底层的解决方案的话,Server则需要维护一个全局列表,来记录当前连接请求该由哪个线程处理。多线程需要同时竞争一个全局资源,似乎有些不妙。
方案2:主线程负责监听并分发,因此与单连接相比没有带来额外的性能开销。仅仅会造成主线程忙于更多的连接请求。
方案3:较单线程来说,主线程工作量没有任何增加,由于多连接而造成的额外开销由实际工作线程分担,因此对于这种场景,方案3似乎是最佳选择。

B、同一客户端在不同线程中处理
方案1:同样需要竞争资源。
方案2:没理由。
方案3:不可能。

另外:
(《UNIX网络编程》第三版是在第30章)
读《UNIX网络编程》第二版的第一卷时,发现作者在第27章“客户-服务器程序其它设计方法”中的27.6节“TCP预先派生子进程服务器程序,accept无上锁保护”中提到了一种由子进程去竞争客户端连接的设计方法,用伪码描述如下:

服务器主进程:

listen_fd = socket(...);
bind(listen_fd, ...);
listen(listen_fd, ...);
pre_fork_children(...);
close(listen_fd);
wait_children_die(...);


服务器服务子进程:

while (1) {
conn_fd = accept(listen_fd, ...);
do_service(conn_fd, ...);
}


初 识上述代码,真有眼前一亮的感觉,也正如作者所说,以上代码确实很少见(反正我读此书之前是确实没见过)。作者真是构思精巧,巧妙地绕过了常见的预先创建 子进程的多进程服务器当主服务进程接收到新的连接必须想办法将这个连接传递给服务子进程的“陷阱”,上述代码通过共享的倾听套接字,由子进程主动地去向内 核“索要”连接套接字,从而避免了用UNIX域套接字传递文件描述符的“淫技”。

不过,当接着往下读的时候,作者谈到了“惊群” (Thundering herd)问题。所谓的“惊群”就是,当很多进程都阻塞在accept系统调用的时候,即使只有一个新的连接达到,内核也会唤醒所有阻塞在accept上 的进程,这将给系统带来非常大的“震颤”,降低系统性能。

除了这个问题,accept还必须是原子操作。为此,作者在接下来的27.7节讲述了加了互斥锁的版本:

while (1) {
lock(...);
conn_fd = accept(listen_fd, ...);
unlock(...);
do_service(conn_fd, ...);
}


原 子操作的问题算是解决了,那么“惊群”呢?文中只是提到在Solaris系统上当子进程数由75变成90后,CPU时间显著增加,并且作者认为这是因为进 程过多,导致内存互换。对“惊群”问题回答地十分含糊。通过比较书中图27.2的第4列和第7列的内容,我们可以肯定“真凶”绝对不是“内存对换”。

“元凶”到底是谁?

仔 细分析一下,加锁真的有助于“惊群”问题么?不错,确实在同一时间只有一个子进程在调用accept,其它子进程都阻塞在了lock语句,但是,当 accept返回并unlock之后呢?unlock肯定是要唤醒阻塞在这个锁上的进程的,不过谁都没有规定是唤醒一个还是唤醒多个。所以,潜在的“惊 群”问题还是存在,只不过换了个地方,换了个形式。而造成Solaris性能骤降的“罪魁祸首”很有可能就是“惊群”问题。

崩溃了!这么说所有的锁都有可能产生惊群问题了?

似乎真的是这样,所以 减少锁的使用很重要。特别是在竞争比较激烈的地方。

作者在27.9节所实现的“传递文件描述符”版本的服务器就有效地克服了“惊群”问题,在现实的服务器实现中,最常用的也是此节所提到的基于“分配”形式。

把“竞争”换成“分配”是避免“惊群”问题的有效方法,但是 也不要忽视“分配”的“均衡”问题,不然后果可能更加严重哦!
<think>嗯,用户想了解Nginx中现象的解决方案和原理。首先,我需要回忆一下效应是什么。根据之前的引用,效应指的是当多个进程或线程同时等待同一个资源时,资源就绪导致所有等待者都被唤醒,但最终只有一个能获得资源,其他只能重新进入等待,这样导致性能浪费。 接下来,用户提到了Nginx的解决方案。根据引用[3]和[4],Linux本身部分解决了accept,但epoll在fork之后仍有问题。Nginx使用了自实现的互斥锁,也就是ngx_shmtx_t结构体中的锁机制。 然后,我需要解释Nginx的具体解决步骤。根据引用[4],Nginx的worker进程在监听端口时,会通过共享锁来避免同时处理事件。每个worker进程在监听事件前会尝试获取锁,只有成功获取锁的进程才能处理事件,其他进程则继续等待。这样避免了多个进程被同时唤醒。 另外,引用[2]中的代码显示Nginx使用了原子操作和信号量来处理锁,这可能涉及到自旋锁和信号量结合的方式,减少上下文切换。spin字段可能用于控制自旋次数,优化性能。 可能用户还关心为什么传统方法会有问题,比如频繁的上下文切换,而Nginx的锁机制如何优化这一点。需要说明Nginx通过竞争锁的方式,确保只有一个worker进程处理连接,减少无效唤醒。 最后,生成相关问题时要覆盖原理、锁实现、性能优化、适用场景以及与其他方案对比等方面,确保用户能全面理解。</think>### Nginx现象的解决方案与原理 #### 1. 现象的定义 在Nginx多进程模型中,当客户端发起新连接请求时,所有监听了相同端口的`worker`进程会被**同时唤醒**,但最终只有一个进程能成功处理该连接,其他进程因“事件失效”而重新休眠。这种**无效唤醒导致的资源浪费**被称为效应[^3][^4]。 #### 2. Nginx的解决方案 ##### (1) **共享锁机制** Nginx通过`ngx_shmtx_t`结构体实现进程间共享锁,关键代码定义如下[^2]: ```c typedef struct { #if (NGX_HAVE_ATOMIC_OPS) ngx_atomic_t *lock; // 原子锁指针 #if (NGX_HAVE_POSIX_SEM) ngx_atomic_t *wait; // 等待计数器 ngx_uint_t semaphore; sem_t sem; // POSIX信号量 #endif #else ngx_fd_t fd; // 文件描述符(非原子操作时使用) u_char *name; #endif ngx_uint_t spin; // 自旋次数控制 } ngx_shmtx_t; ``` - **原子锁(`lock`)**:通过原子操作实现**非阻塞竞争**,避免进程阻塞 - **信号量(`sem`)**:在竞争失败时,通过信号量挂起进程,减少CPU空转 - **自旋控制(`spin`)**:通过`spin`参数设置自旋次数,平衡CPU消耗与响应速度 ##### (2) 工作流程 1. **事件监听阶段** 所有`worker`进程通过`epoll_wait()`监听端口事件[^4] 2. **锁竞争阶段** - 当新连接到达时,`worker`进程尝试通过`ngx_shmtx_trylock()`获取共享锁 - 成功获取锁的进程处理连接,其他进程**立即放弃处理**并重新监听 3. **负载均衡** 通过`ngx_accept_disabled`变量实现进程间的**动态负载均衡**,避免某个进程长期独占锁 #### 3. 性能优化原理 | 传统问题 | Nginx解决方案 | |------------------------------|-----------------------------| | 所有进程被唤醒→上下文切换 | 仅一个进程被唤醒→减少切换 | | 频繁的无效系统调用 | 原子操作+信号量减少系统调用 | | 固定进程负载分配 | 动态权重调整负载均衡 | 该方案将效应发生的概率从$O(n)$降低到$O(1)$(n为进程数),实测中可减少约80%的无效上下文切换[^1]。 #### 4. 适用场景 - **高并发连接**:适用于`keepalive`长连接较少的场景 - **短时请求**:对连接建立阶段的优化效果最显著 - **Linux 2.6+系统**:依赖内核的`EPOLLEXCLUSIVE`特性[^3]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值