linux多路IO复用

文章介绍了在计算机系统中提高IO操作性能的重要性,通过对比select和poll两种IO复用方法,详细讲解了它们的数据结构、工作原理以及各自的优缺点。在select中,使用三个数组维护文件描述符集合,存在性能瓶颈;而在poll中,文件描述符用结构体数组表示,可支持更多数量的fd,但两者都会因fd数量增加而影响性能。代码示例展示了如何在C程序中使用select和poll实现服务器监听和客户端连接的处理。

前言

IO操作在计算机系统中是比较耗时和占用资源的,所以提高IO操作性能显得尤为重要。这里介绍select和poll两种IO复用的方法。

一、select和poll 对比

selectpoll
数据结构3个数组:读集合、写集合、出错集合1个数组
维护fd数量1024自定义数量
拷贝数组在用户态和内核态来回拷贝数组在用户态和内核态来回拷贝
判断读写事件的方式底层循环判断每个fd是否就绪底层循环判断每个fd事件
缺点数量越多,性能却差数量越多,性能却差

二、两种IO实现

1.select

int main()
{
    int server_fd = socket(AF_INET, SOCK_STREAM, 0);
    struct sockaddr_in servaddr;
    servaddr.sin_addr.s_addr = inet_addr("127.0.0.1");
    servaddr.sin_family = AF_INET;
    servaddr.sin_port = htons(9999);
        
    if(0 > bind(server_fd, (struct sockaddr *)&servaddr, sizeof(struct sockaddr))){
        printf("bind failed:%s\n", strerror(errno));
        return -1;
    }

    listen(server_fd, 128);
    socklen_t len = sizeof(struct sockaddr);
    struct sockaddr_in clientaddr;
    
    fd_set rfds, rset; //用户读集合、传入内核的读集合
    FD_ZERO(&rfds);
    FD_SET(server_fd, &rfds); //服务端fd放进集合
    int max_fd = server_fd;
    int client_fd = -1;

    while(1)
    {
        rset = rfds;
        int nready = select(max_fd + 1, &rset, NULL, NULL, NULL);
        
        //1.先判断服务端fd就绪状态
        if (FD_ISSET(server_fd, &rset)){
            client_fd = accept(server_fd, (struct sockaddr *)&clientaddr, &len);
            printf("accept:%d\n", client_fd);
            FD_SET(client_fd, &rfds);
            if(max_fd < client_fd)
                max_fd = client_fd;
            
            if(--nready==0) continue;  //只有一个服务端fd,终止此次循环
        }
        //2.再循环读取客户fd就绪状态
        for (int i = server_fd + 1; i <= max_fd; i++)
        {
            if(FD_ISSET(i,&rset)){
                char buf[BUF_SIZE]={0};
                int n = read(client_fd, buf, BUF_SIZE);
                if(n <= 0){
                    printf("read failed:%s\n", strerror(errno));
                    close(client_fd);
                    break;
                }
                printf("fd:%d,read buf:%s\n", i,buf);
            }
        }
    }
    return 0;
}

2.poll

#include <stdio.h>
#include <unistd.h>
#include <string.h>
#include <arpa/inet.h>
#include <netinet/in.h>
#include <sys/errno.h>
#include <sys/poll.h>
#include <sys/socket.h>
#include <sys/types.h>

#define BUF_SIZE 1024

int main()
{
    int server_fd = socket(AF_INET, SOCK_STREAM, 0);
    struct sockaddr_in servaddr;
    servaddr.sin_addr.s_addr = inet_addr("127.0.0.1");
    servaddr.sin_family = AF_INET;
    servaddr.sin_port = htons(9999);
        
    if(0 > bind(server_fd, (struct sockaddr *)&servaddr, sizeof(struct sockaddr))){
        printf("bind failed:%s\n", strerror(errno));
        return -1;
    }

    listen(server_fd, 128);
    socklen_t len = sizeof(struct sockaddr);
    struct sockaddr_in clientaddr;
    
    int max_fd = server_fd;
    int client_fd = -1;
    struct pollfd fds[BUF_SIZE];

    fds[server_fd].fd = server_fd;
    fds[server_fd].events = POLLIN;


    while(1)
    {
        int nready = poll(fds, max_fd + 1, -1);
        if(nready<=0) continue;

        if(fds[server_fd].revents & POLLIN)
        {
            client_fd = accept(server_fd, (struct sockaddr*)&clientaddr, &len);
            if(client_fd>0)
            {
                printf("accept:%d\n", client_fd);
                fds[client_fd].fd = client_fd;
                fds[client_fd].events = POLLIN;

                if(max_fd<client_fd)
                    max_fd = client_fd;
            }

            if(--nready==0)
                continue;
        }

        for (int i = server_fd + 1; i <= max_fd; i++){
            if(fds[i].revents & POLLIN){
                char buf[BUF_SIZE] = {0};
                if(0 >= read(client_fd, buf, BUF_SIZE)){
                    printf("%d disconnect\n", client_fd);
                    fds[client_fd].fd = -1;
                    fds[client_fd].events = 0;
                    close(client_fd);
                    continue;
                }
                printf("read buf:%s\n", buf);
            }
        }
    }
    return 0;
}


总结

这次先总结下select和poll两种方式的区别和相同点,下次说下epoll优点和实现。

<think>好的,我现在要帮用户理解Linux中的多路IO复用技术,特别是epoll、select和poll的实现方式。首先,我需要回忆这些技术的基本概念和区别。记得用户提到了三个引用,里面提到了可移植性、epoll的原理,还有系统调用函数。可能需要结合这些引用内容来组织回答。 首先,select是最早的多路IO复用方法,几乎支持所有平台,但效率可能不高,因为每次调用都需要将文件描述符集合从用户空间拷贝到内核空间,而且需要遍历所有描述符来检查状态。引用1提到select的可移植性很好,但引用2指出select和poll每次监听都需要用户和内核空间拷贝,这也是它们的缺点。 然后是poll,和select类似,但使用链表存储文件描述符,没有最大数量限制,不过大多数Unix系统支持,但可能还是存在性能问题,尤其是在大量连接的情况下。引用1提到poll在大多数Unix系统支持,而epoll是Linux特有的。 接下来是epoll,作为Linux特有的高效机制。引用2说明epoll解决了select和poll的缺点,不需要每次监听都拷贝数据,而是通过事件通知机制。epoll使用红黑树来管理描述符,效率更高。引用3提到epoll属于多路复用系统调用,进程可以通过一个调用获取多个事件。函数原型在引用4中给出,epoll_ctl用于控制事件。 用户可能想知道这些技术的实现方式、区别以及应用场景。需要分点说明每个技术的特点,比如实现原理、优缺点、适用场景。然后比较它们的区别,比如效率、可移植性、最大连接数等。最后应用场景部分可以建议在什么情况下选择哪种技术。 需要注意的是,用户的问题可能还隐含着性能优化的考虑,比如高并发场景下为何epoll更优。要结合引用中的信息,比如内核与用户空间的拷贝次数,遍历的开销等。此外,函数的使用方法可能也是用户关心的,比如epoll_create、epoll_ctl和epoll_wait的使用步骤。 最后生成相关问题的时候,要涵盖实现原理、区别、应用场景以及性能优化等方面的问题,帮助用户进一步深入学习。</think>### Linux 多路IO复用技术实现方式 #### 1. **select** - **实现原理** 通过**位图**管理文件描述符集合,使用`FD_SET`和`FD_ISSET`等宏操作。每次调用需将完整的文件描述符集合从用户空间拷贝到内核空间,内核遍历所有描述符以检查就绪状态,时间复杂度为$O(n)$[^3]。 - **特点** - 最大支持文件描述符数量受`FD_SETSIZE`限制(通常1024)。 - 可移植性强,几乎所有平台支持[^1]。 - 频繁的用户/内核空间拷贝和遍历导致性能低下,尤其在高并发场景。 #### 2. **poll** - **实现原理** 改用**链表**管理文件描述符集合,通过`pollfd`结构体(包含`fd`、`events`、`revents`字段)传递监听事件。每次调用仍需全量拷贝描述符到内核,时间复杂度同样为$O(n)$。 - **特点** - 无最大描述符数量限制。 - 支持更细粒度的事件类型(如`POLLRDNORM`、`POLLERR`)。 - 多数Unix系统支持,但性能问题与select类似。 #### 3. **epoll** - **实现原理** 基于**事件驱动**,核心组件包括: - **红黑树**:高效管理所有监听的文件描述符。 - **就绪链表**:记录已就绪的事件,避免全量遍历。 - 通过`epoll_ctl`注册事件,`epoll_wait`获取就绪事件,时间复杂度为$O(1)$[^2]。 - **特点** - 仅需一次注册,无需重复拷贝描述符。 - 支持水平触发(LT)和边缘触发(ET)模式。 - Linux特有,适合高并发场景(如Web服务器)[^3]。 #### 对比总结 | 特性 | select | poll | epoll | |---------------------|--------------------------|--------------------------|----------------------------| | 最大描述符数 | 有限(FD_SETSIZE) | 无限制 | 无限制 | | 效率 | $O(n)$ | $O(n)$ | $O(1)$ | | 用户/内核拷贝 | 每次调用全量拷贝 | 每次调用全量拷贝 | 仅初始化时注册一次 | | 触发模式 | 水平触发 | 水平触发 | 支持LT和ET | | 适用场景 | 低并发、跨平台需求 | 中低并发、需要更多事件类型 | 高并发、Linux专用场景 | --- ### 应用场景 1. **select/poll** - 适合连接数较少(如嵌入式系统)或需跨平台兼容的场景。 - 例如:小型物联网设备的数据采集。 2. **epoll** - 适用于高并发、长连接的服务器(如Nginx、Redis)。 - 例如:实时聊天服务器需处理数万并发连接。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值