我读过的最好的epoll讲解 转自《知乎》

本文详细介绍了I/O操作的基本概念,包括流的概念、read和write函数,以及阻塞和非阻塞I/O模式的区别。重点阐述了阻塞与非阻塞I/O操作背后的缓冲区原理,解释了缓冲区满、缓冲区空、缓冲区非空、缓冲区非满等关键I/O事件,并对比了阻塞与非阻塞I/O模式的优缺点。最后,文章深入探讨了epoll机制,如何高效地处理多个流的I/O事件。
首先我们来定义流的概念,一个流可以是文件,socket,pipe等等可以进行I/O操作的内核对象。

    不管是文件,还是套接字,还是管道,我们都可以把他们看作流。

    之后我们来讨论I/O的操作,通过read,我们可以从流中读入数据;通过write,我们可以往流写入数据。现在假定一个情形,我们需要从流中读数据,但是流中还没有数据,(典型的例子为,客户端要从socket读如数据,但是服务器还没有把数据传回来),这时候该怎么办?

阻塞:阻塞是个什么概念呢?比如某个时候你在等快递,但是你不知道快递什么时候过来,而且你没有别的事可以干(或者说接下来的事要等快递来了才能做);那么你可以去睡觉了,因为你知道快递把货送来时一定会给你打个电话(假定一定能叫醒你)。

非阻塞忙轮询:接着上面等快递的例子,如果用忙轮询的方法,那么你需要知道快递员的手机号,然后每分钟给他挂个电话:“你到了没?”

    很明显一般人不会用第二种做法,不仅显很无脑,浪费话费不说,还占用了快递员大量的时间。
    大部分程序也不会用第二种做法,因为第一种方法经济而简单,经济是指消耗很少的CPU时间,如果线程睡眠了,就掉出了系统的调度队列,暂时不会去瓜分CPU宝贵的时间片了。

    为了了解阻塞是如何进行的,我们来讨论缓冲区,以及内核缓冲区,最终把I/O事件解释清楚。缓冲区的引入是为了减少频繁I/O操作而引起频繁的系统调用(你知道它很慢的),当你操作一个流时,更多的是以缓冲区为单位进行操作,这是相对于用户空间而言。对于内核来说,也需要缓冲区。

假设有一个管道,进程A为管道的写入方,B为管道的读出方。

假设一开始内核缓冲区是空的,B作为读出方,被阻塞着。然后首先A往管道写入,这时候内核缓冲区由空的状态变到非空状态,内核就会产生一个事件告诉B该醒来了,这个事件姑且称之为“缓冲区非空”。
    但是“缓冲区非空”事件通知B后,B却还没有读出数据;且内核许诺了不能把写入管道中的数据丢掉这个时候,A写入的数据会滞留在内核缓冲区中,如果内核也缓冲区满了,B仍未开始读数据,最终内核缓冲区会被填满,这个时候会产生一个I/O事件,告诉进程A,你该等等(阻塞)了,我们把这个事件定义为“缓冲区满”。

假设后来B终于开始读数据了,于是内核的缓冲区空了出来,这时候内核会告诉A,内核缓冲区有空位了,你可以从长眠中醒来了,继续写数据了,我们把这个事件叫做“缓冲区非满”
    也许事件Y1已经通知了A,但是A也没有数据写入了,而B继续读出数据,知道内核缓冲区空了。这个时候内核就告诉B,你需要阻塞了!,我们把这个时间定为“缓冲区空”。

这四个情形涵盖了四个I/O事件,缓冲区满,缓冲区空,缓冲区非空,缓冲区非满(注都是说的内核缓冲区,且这四个术语都是我生造的,仅为解释其原理而造)。这四个I/O事件是进行阻塞同步的根本。(如果不能理解“同步”是什么概念,请学习操作系统的锁,信号量,条件变量等任务同步方面的相关知识)。

    然后我们来说说阻塞I/O的缺点。但是阻塞I/O模式下,一个线程只能处理一个流的I/O事件。如果想要同时处理多个流,要么多进程(fork),要么多线程(pthread_create),很不幸这两种方法效率都不高。
    于是再来考虑非阻塞忙轮询的I/O方式,我们发现我们可以同时处理多个流了(把一个流从阻塞模式切换到非阻塞模式再此不予讨论):
while true {
for i in stream[]; {
if i has data
read until unavailable
}
}
    我们只要不停的把所有流从头到尾问一遍,又从头开始。这样就可以处理多个流了,但这样的做法显然不好,因为如果所有的流都没有数据,那么只会白白浪费CPU。这里要补充一点,阻塞模式下,内核对于I/O事件的处理是阻塞或者唤醒,而非阻塞模式下则把I/O事件交给其他对象(后文介绍的select以及epoll)处理甚至直接忽略。

    为了避免CPU空转,可以引进了一个代理(一开始有一位叫做select的代理,后来又有一位叫做poll的代理,不过两者的本质是一样的)。这个代理比较厉害,可以同时观察许多流的I/O事件,在空闲的时候,会把当前线程阻塞掉,当有一个或多个流有I/O事件时,就从阻塞态中醒来,于是我们的程序就会轮询一遍所有的流(于是我们可以把“忙”字去掉了)。代码长这样:
while true {
select(streams[])
for i in streams[] {
if i has data
read until unavailable
}
}
    于是,如果没有I/O事件产生,我们的程序就会阻塞在select处。但是依然有个问题,我们从select那里仅仅知道了,有I/O事件发生了,但却并不知道是那几个流(可能有一个,多个,甚至全部),我们只能无差别轮询所有流,找出能读出数据,或者写入数据的流,对他们进行操作。
    但是使用select,我们有O(n)的无差别轮询复杂度,同时处理的流越多,没一次无差别轮询时间就越长。再次
说了这么多,终于能好好解释epoll了
    epoll可以理解为event poll,不同于忙轮询和无差别轮询,epoll之会把哪个流发生了怎样的I/O事件通知我们。此时我们对这些流的操作都是有意义的。(复杂度降低到了O(1))
    在讨论epoll的实现细节之前,先把epoll的相关操作列出:

epoll_create 创建一个epoll对象,一般epollfd = epoll_create()

epoll_ctl (epoll_add/epoll_del的合体),往epoll对象中增加/删除某一个流的某一个事件
比如
epoll_ctl(epollfd, EPOLL_CTL_ADD, socket, EPOLLIN);//注册缓冲区非空事件,即有数据流入
epoll_ctl(epollfd, EPOLL_CTL_DEL, socket, EPOLLOUT);//注册缓冲区非满事件,即流可以被写入
epoll_wait(epollfd,...)等待直到注册的事件发生
(注:当对一个非阻塞流的读写发生缓冲区满或缓冲区空,write/read会返回-1,并设置errno=EAGAIN。而epoll只关心缓冲区非满和缓冲区非空事件)。

一个epoll模式的代码大概的样子是:
while true {
active_stream[] = epoll_wait(epollfd)
for i in active_stream[] {
read or write till
}
}
 
限于篇幅,我只说这么多,以揭示原理性的东西,至于epoll的使用细节,请参考man和google,实现细节,请参阅linux kernel source。
 
转载: 点击打开链接
<think> 我们被要求详细讲解poll、epoll、select,并且参考了站内引用。根据引用内容,我们可以总结如下: 1. **select**: - 是最早的I/O多路复用机制,允许程序监视多个文件描述符,等待其中一个或多个变得“就绪”(例如可读、可写或发生异常)。 - 缺点: - 文件描述符数量有限制(通常为1024)。 - 每次调用select都需要将整个文件描述符集合从用户空间复制到内核空间,当集合很大时开销大。 - 内核需要遍历所有传递进来的文件描述符来检查状态,效率低。 2. **poll**: - 与select类似,也是通过轮询方式检查文件描述符状态。 - 改进:使用一个pollfd结构数组(引用[^5]),没有最大文件描述符数量的限制(但数量过大性能仍会下降)。 - 缺点: - 仍然需要每次调用时复制整个文件描述符数组到内核空间。 - 内核需要遍历所有文件描述符,效率随数量增加而下降(引用[^3])。 3. **epoll**: - 是Linux特有的I/O多路复用机制,解决了select和poll的缺点。 - 特点(引用[^1][^4]): - 使用三个函数:`epoll_create`(创建epoll实例)、`epoll_ctl`(注册事件)、`epoll_wait`(等待事件)。 - 没有文件描述符数量限制(受系统能打开的最大文件描述符数限制)。 - 采用事件驱动机制,当文件描述符就绪时,通过回调函数将其加入就绪队列,无需遍历整个集合。 - 内核通过红黑树管理文件描述符,高效增删改查。 - 就绪列表:当事件发生时,将就绪的文件描述符加入一个双向链表,epoll_wait只需检查该链表是否有元素即可。 - 内存映射(mmap)技术避免了每次调用时用户空间和内核空间之间的数据复制(仅在epoll_ctl时复制一次)。 接下来,我们将按照以下结构详细讲解: ### 一、select 1. 函数原型与参数 2. 工作流程 3. 优缺点 ### 二、poll 1. 函数原型与参数(pollfd结构) 2. 工作流程 3. 优缺点 ### 三、epoll 1. 三个核心函数详解 2. 内部数据结构(红黑树和就绪链表) 3. 工作流程(事件驱动和回调机制) 4. 水平触发(LT)和边缘触发(ET)模式 5. 优缺点 ### 四、对比总结 然后生成相关问题。 注意:引用站内内容时在相应位置标注引用标识。 </think> ### I/O多路复用机制详解:select、poll、epoll #### 1. **select 机制** **核心原理**: 通过轮询方式检查多个文件描述符的状态,使用位图(fd_set)管理描述符集合。时间复杂度为$O(n)$。 **函数原型**: ```c #include <sys/select.h> int select(int nfds, fd_set *readfds, fd_set *writefds, fd_set *exceptfds, struct timeval *timeout); ``` **工作流程**: ```mermaid graph TD A[初始化fd_set] --> B[添加监控fd] B --> C[调用select阻塞] C --> D{有事件发生?} D -->|是| E[遍历所有fd检查状态] D -->|否| C E --> F[处理就绪fd] ``` **优点**: - 跨平台支持良好 - 超时精确到微秒级 **缺点**: - 文件描述符上限1024(FD_SETSIZE限制) - 每次调用需重置fd_set并全量复制到内核 - 需遍历所有fd检查状态[^3] #### 2. **poll 机制** **核心原理**: 使用结构体数组`struct pollfd`管理文件描述符,避免select的位图大小限制。 **数据结构**: ```c struct pollfd { int fd; // 文件描述符 short events; // 监控的事件(POLLIN/POLLOUT) short revents; // 实际发生的事件 }; ``` **函数原型**: ```c #include <poll.h> int poll(struct pollfd *fds, nfds_t nfds, int timeout); ``` **性能特点**: $$ \text{时间复杂度} = O(n) $$ - 突破1024文件描述符限制 - 避免位图操作更灵活 - 仍需遍历所有fd检查状态[^3] - 仍存在内核空间复制开销 #### 3. **epoll 机制** **核心原理**: 基于事件驱动的异步通机制,使用红黑树管理fd,就绪队列存放活跃事件[^1]。 **核心函数**: ```c int epoll_create(int size); // 创建epoll实例 int epoll_ctl(int epfd, int op, int fd, struct epoll_event *event); // 注册事件 int epoll_wait(int epfd, struct epoll_event *events, int maxevents, int timeout); // 等待事件 ``` **架构设计**: ```mermaid graph LR A[用户空间] -->|epoll_ctl| B[红黑树] C[内核] -->|事件回调| D[就绪队列] B -->|存储fd| D D -->|epoll_wait| A ``` **核心优势**: 1. **$O(1)$事件检测**:仅检查就绪队列无需遍历[^4] 2. **零拷贝机制**:`epoll_ctl`注册时复制一次fd 3. **百万级并发支持**:突破select/poll的fd数量限制 4. **两种触发模式**: - 水平触发(LT):数据未处理会重复通 - 边缘触发(ET):仅通状态变化 **性能对比**: | 机制 | 时间复杂度 | 最大fd数 | 内核拷贝 | 触发方式 | |------------|------------|------------|----------|--------------| | **select** | $O(n)$ | 1024 | 每次调用 | 轮询 | | **poll** | $O(n)$ | 无硬限制 | 每次调用 | 轮询 | | **epoll** | $O(1)$ | 约10万[^4] | 仅注册时 | 事件回调 | #### 4. **适用场景对比** - **select/poll适用**: - 跨平台应用 - 低并发场景(fd < 1000) - 短连接服务 - **epoll适用**: - Linux高并发服务(nginx, redis) - 长连接应用(IM、游戏服务器) - 需要精确事件管理的场景 > 经验法则:Linux平台优先选择epoll,Windows平台使用select,BSD平台考虑kqueue[^2]。 --- ### 相关问题 1. epoll的边缘触发(ET)模式与水平触发(LT)模式在实际编程中如何选择? 2. 如何通过epoll实现高性能的HTTP服务器? 3. 在多线程环境下使用epoll需要注意哪些线程安全问题? 4. epoll的红黑树数据结构如何保证高效的事件管理? 5. 如何监控epoll实例本身的文件描述符状态?
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值