IO复用之epoll

本文深入探讨了epoll作为Linux高效I/O多路复用技术的工作原理。通过对比select,突显epoll的优势,并详细解析EdgeTriggered(ET)与LevelTriggered(LT)两种模式的特点与应用场景。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

epoll学习笔记

在linux的网络编程中,很长的时间都在使用select来做事件触发。在linux新的内核中,有了一种替换它的机制,就是epoll。
相比于select,epoll最大的好处在于它不会随着监听fd数目的增长而降低效率。因为在内核中的select实现中,它是采用轮询来处理的,轮询的fd数目越多,自然耗时越多。并且,在linux/posix_types.h头文件有这样的声明:
#define __FD_SETSIZE    1024
表示select最多同时监听1024个fd,当然,可以通过修改头文件再重编译内核来扩大这个数目,但这似乎并不治本。

epoll有两种模式,Edge Triggered(简称ET) 和 Level Triggered(简称LT).在采用这两种模式时要注意的是,如果采用ET模式,那么仅当状态发生变化时才会通知,而采用LT模式类似于原来的select/poll操作,只要还有没有处理的事件就会一直通知.

以代码来说明问题:
首先给出server的代码,需要说明的是每次accept的连接,加入可读集的时候采用的都是ET模式,而且接收缓冲区是5字节的,也就是每次只接收5字节的数据:
#include  < iostream >
#include  < sys / socket.h >
#include  < sys / epoll.h >
#include  < netinet / in.h >
#include  < arpa / inet.h >
#include  < fcntl.h >
#include  < unistd.h >
#include  < stdio.h >
#include  < errno.h >

using namespace std;

#define MAXLINE  5
#define OPEN_MAX  100
#define LISTENQ  20
#define SERV_PORT  5000
#define INFTIM  1000

void setnonblocking( int  sock)
{
     int  opts;
    opts = fcntl(sock,F_GETFL);
     if (opts < 0 )
    {
        perror( " fcntl(sock,GETFL) " );
         exit ( 1 );
    }
    opts  =  opts|O_NONBLOCK;
     if (fcntl(sock,F_SETFL,opts) < 0 )
    {
        perror( " fcntl(sock,SETFL,opts) " );
         exit ( 1 );
    }   
}

int  main()
{
     int  i, maxi, listenfd, connfd, sockfd,epfd,nfds;
    ssize_t n;
    char line[MAXLINE];
    socklen_t clilen;
     // 声明epoll_event结构体的变量,ev用于注册事件,数组用于回传要处理的事件
    struct epoll_event ev,events[ 20 ];
     // 生成用于处理accept的epoll专用的文件描述符
    epfd = epoll_create( 256 );
    struct sockaddr_in clientaddr;
    struct sockaddr_in serveraddr;
    listenfd  =  socket(AF_INET, SOCK_STREAM,  0 );
     // 把socket设置为非阻塞方式
     // setnonblocking(listenfd);
     // 设置与要处理的事件相关的文件描述符
    ev.data.fd = listenfd;
     // 设置要处理的事件类型
    ev.events = EPOLLIN|EPOLLET;
     // ev.events = EPOLLIN;
     // 注册epoll事件
    epoll_ctl(epfd,EPOLL_CTL_ADD,listenfd, & ev);
    bzero( & serveraddr, sizeof(serveraddr));
    serveraddr.sin_family  =  AF_INET;
    char  * local_addr = " 127.0.0.1 " ;
    inet_aton(local_addr, & (serveraddr.sin_addr)); // htons(SERV_PORT);
    serveraddr.sin_port = htons(SERV_PORT);
    bind(listenfd,(sockaddr  * ) & serveraddr, sizeof(serveraddr));
    listen(listenfd, LISTENQ);
    maxi  =   0 ;
     for  ( ; ; ) {
         // 等待epoll事件的发生
        nfds = epoll_wait(epfd,events, 20 , 500 );
         // 处理所发生的所有事件     
         for (i = 0 ;i < nfds; ++ i)
        {
             if (events[i].data.fd == listenfd)
            {
                connfd  =  accept(listenfd,(sockaddr  * ) & clientaddr,  & clilen);
                 if (connfd < 0 ){
                    perror( " connfd<0 " );
                     exit ( 1 );
                }
                 // setnonblocking(connfd);
                char  * str  =  inet_ntoa(clientaddr.sin_addr);
                cout  <<   " accapt a connection from  "   <<  str  <<  endl;
                 // 设置用于读操作的文件描述符
                ev.data.fd = connfd;
                 // 设置用于注测的读操作事件
                ev.events = EPOLLIN|EPOLLET;
                 // ev.events = EPOLLIN;
                 // 注册ev
                epoll_ctl(epfd,EPOLL_CTL_ADD,connfd, & ev);
            }
             else   if (events[i].events & EPOLLIN)
            {
                cout  <<   " EPOLLIN "   <<  endl;
                 if  ( (sockfd  =  events[i].data.fd)  <   0 ) 
                    continue;
                 if  ( (n  =  read(sockfd, line, MAXLINE))  <   0 ) {
                     if  (errno  ==  ECONNRESET) {
                        close(sockfd);
                        events[i].data.fd  =   - 1 ;
                    }  else
                        std::cout << " readline error " << std::endl;
                }  else   if  (n  ==   0 ) {
                    close(sockfd);
                    events[i].data.fd  =   - 1 ;
                }
                line[n]  =   ' /0';
                cout  <<   " read  "   <<  line  <<  endl;
                 // 设置用于写操作的文件描述符
                ev.data.fd = sockfd;
                 // 设置用于注测的写操作事件
                ev.events = EPOLLOUT|EPOLLET;
                 // 修改sockfd上要处理的事件为EPOLLOUT
                 // epoll_ctl(epfd,EPOLL_CTL_MOD,sockfd, & ev);
            }
             else   if (events[i].events & EPOLLOUT)
            {   
                sockfd  =  events[i].data.fd;
                write(sockfd, line, n);
                 // 设置用于读操作的文件描述符
                ev.data.fd = sockfd;
                 // 设置用于注测的读操作事件
                ev.events = EPOLLIN|EPOLLET;
                 // 修改sockfd上要处理的事件为EPOLIN
                epoll_ctl(epfd,EPOLL_CTL_MOD,sockfd, & ev);
            }
        }
    }
    return  0 ;
}


下面给出测试所用的Perl写的client端,在client中发送10字节的数据,同时让client在发送完数据之后进入死循环, 也就是在发送完之后连接的状态不发生改变--既不再发送数据, 也不关闭连接,这样才能观察出server的状态:
#! / usr / bin / perl

use IO::Socket;

my $host  =   " 127.0.0.1 " ;
my $port  =   5000 ;

my $socket  =  IO::Socket::INET -> new ( " $host:$port " )  or  die  " create socket error $@ " ;
my $msg_out  =   " 1234567890 " ;
print $socket $msg_out;
print  " now send over, go to sleep/n " ;

while  ( 1 )
{
    sleep( 1 );
}
运行server和client发现,server仅仅读取了5字节的数据,而client其实发送了10字节的数据,也就是说,server仅当第一次监听到了EPOLLIN事件,由于没有读取完数据,而且采用的是ET模式,状态在此之后不发生变化,因此server再也接收不到EPOLLIN事件了.
(友情提示:上面的这个测试客户端,当你关闭它的时候会再次出发IO可读事件给server,此时server就会去读取剩下的5字节数据了,但是这一事件与前面描述的ET性质并不矛盾.)

如果我们把client改为这样:
#! / usr / bin / perl

use IO::Socket;

my $host  =   " 127.0.0.1 " ;
my $port  =   5000 ;

my $socket  =  IO::Socket::INET -> new ( " $host:$port " )  or  die  " create socket error $@ " ;
my $msg_out  =   " 1234567890 " ;
print $socket $msg_out;
print  " now send over, go to sleep/n " ;
sleep( 5 );
print  " 5 second gonesend another line/n " ;
print $socket $msg_out;

while  ( 1 )
{
    sleep( 1 );
}

可以发现,在server接收完5字节的数据之后一直监听不到client的事件,而当client休眠5秒之后重新发送数据,server再次监听到了变化,只不过因为只是读取了5个字节,仍然有10个字节的数据(client第二次发送的数据)没有接收完.

如果上面的实验中,对accept的socket都采用的是LT模式,那么只要还有数据留在buffer中,server就会继续得到通知,读者可以自行改动代码进行实验.

基于这两个实验,可以得出这样的结论:ET模式仅当状态发生变化的时候才获得通知,这里所谓的状态的变化并不包括缓冲区中还有未处理的数据,也就是说,如果要采用ET模式,需要一直read/write直到出错为止,很多人反映为什么采用ET模式只接收了一部分数据就再也得不到通知了,大多因为这样;而LT模式是只要有数据没有处理就会一直通知下去的.

补充说明一下这里一直强调的"状态变化"是什么:

1)对于监听可读事件时,如果是socket是监听socket,那么当有新的主动连接到来为状态发生变化;对一般的socket而言,协议栈中相应的缓 冲区有新的数据为状态发生变化.但是,如果在一个时间同时接收了N个连接(N>1),但是监听socket只accept了一个连接,那么其它未 accept的连接将不会在ET模式下给监听socket发出通知,此时状态不发生变化;对于一般的socket,就如例子中而言,如果对应的缓冲区本身 已经有了N字节的数据,而只取出了小于N字节的数据,那么残存的数据不会造成状态发生变化.

2)对于监听可写事件时,同理可推,不再详述.

而不论是监听可读还是可写,对方关闭socket连接都将造成状态发生变化,比如在例子中,如果强行中断client脚本,也就是主动中断了socket连接,那么都将造成server端发生状态的变化,从而server得到通知,将已经在本方缓冲区中的数据读出.

把前面的描述可以总结如下:仅当对方的动作(发出数据,关闭连接等)造成的事件才能导致状态发生变化,而本方协议栈中已经处理的事件(包括接收了对方的数 据,接收了对方的主动连接请求)并不是造成状态发生变化的必要条件,状态变化一定是对方造成的.所以在ET模式下的,必须一直处理到出错或者完全处理完 毕,才能进行下一个动作,否则可能会发生错误.

另外,从这个例子中,也可以阐述一些基本的网络编程概念.首先,连接的两端中,一端发送成功并不代表着对方上层应用程序接收成功, 就拿上面的client测试程序来说,10字节的数据已经发送成功,但是上层的server并没有调用read读取数据,因此发送成功仅仅说明了数据被对方的协议栈接收存放在了相应的buffer中,而上层的应用程序是否接收了这部分数据不得而知;同样的,读取数据时也只代表着本方协议栈的对应buffer中有数据可读,而此时时候在对端是否在发送数据也不得而知

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值