epoll&reactor by C

本文介绍了进程信号集合的存储方式,signal函数在进程中的应用,以及信号的发送与捕获。重点讲解了epoll在I/O管理中的作用,通过epoll_create、epoll_ctl和epoll_wait来实现高效事件监听。还对比了select、poll和epoll的异同,以及如何使用reactor模式优化IO操作。

信号在进程中如何工作的:

1、进程的信号集合如何保存:
每个进程中有sigaction action[64],用于存储所有的信号集合
2、调用signal函数式如何把信号保存到进程里面
每一个信号都有对应的序号,一共有31个信号,如sigio对应的需要是29,则action[28]中存放这sigio信号的相关数据。当有多个相同的信号触发,最近的一次信号会覆盖进去。
3、信号如何发送,进程如何捕获信号
首先注册x(某一个)信号,进程内的action数组下标为x的序号的元素会等待,等到调用kill发送相应的信号之后,action中相应的元素会调用回调函数。与为线程中的条件等待类似。

select

#include <sys/select.h>
#include <sys/time.h>
#include <sys/types.h>
#include <unistd.h>
int select(int maxfdp, fd_set *readset, fd_set *writeset, fd_set *exceptset,struct timeval *timeout);

不管fd是否在使用,每一次select的数量都是fd的最大值(maxfdp),并且记录fd的三种状态:读(readset),写(writeset),错误(exceptset),设置轮询的时间(timeout)。当timeout没到的时候,进程阻塞在select函数内部。即阻塞最长时间为timeout,若fd状态变化了,select就返回。

poll

#include <poll.h>
int poll(struct pollfd *fdarray, unsigned long nfds, int timeout)

poll将fd的状态放在了一个结构体中(struct pollfd),其他与select相同。

epoll

epoll不会去主动查询fd的状态,而是fd的状态改变时通知epoll。
类比:一个小区寄取快递,小区用户就是io,epoll_ctl可以设置添加用户(fd),用户在蜂巢放快递,epoll是快递员,从蜂巢中去快递
epoll_create(int size) 创建一个epoll句柄,size本来是epoll监听的fd数量,但现在为链表形式,可以扩充fd的数量,不再是固定的fd数量,所以size大于0则可以成功创建epoll(一般取1)。
epoll_ctl()   添加、删除、修改fd
epoll_wait()  设置超时时长

epoll

epoll的et与lt

et是边沿触发

recv buff 从没数据到有数据时才会触发
传输数据较小适合用et+循环读数据

lt是水平触发

recv buff 中只要有数据就会一直触发
传输数据较大适合用lt+一次性读数据



#include <stdio.h>
#include <stdlib.h>
#include <string.h>

#include <unistd.h>
#include <netinet/tcp.h>
#include <arpa/inet.h>
#include <pthread.h>

#include <errno.h>
#include <sys/epoll.h>


//  ./epoll 8080

int main(int argc, char *argv[]) {

	if (argc < 2) {
		return -1;
	}

	int port = atoi(argv[1]);

	int sockfd = socket(AF_INET, SOCK_STREAM, 0);
	if (sockfd < 0) {
		return -1;
	}

	struct sockaddr_in addr;
	memset(&addr, 0, sizeof(struct sockaddr_in));

	addr.sin_family = AF_INET;
	addr.sin_port = htons(port);
	addr.sin_addr.s_addr = INADDR_ANY;

	if (bind(sockfd, (struct sockaddr*)&addr, sizeof(struct sockaddr_in)) < 0) {
		return -2;
	}

	if (listen(sockfd, 5) < 0) {
		return -3;
	}

	// epoll opera

	int epfd = epoll_create(1);
	
	struct epoll_event ev, events[512] = {0};
	ev.events = EPOLLIN;
	ev.data.fd = sockfd; //int idx = 2000;
	
	epoll_ctl(epfd, EPOLL_CTL_ADD, sockfd, &ev);

	//pthread_cond_waittime();
	
	while (1) {

		int nready = epoll_wait(epfd, events, 512, -1);
		if (nready < -1) {
			break;
		}

		int i = 0;
		for (i = 0;i < nready;i ++) {

			if (events[i].data.fd == sockfd) {

				struct sockaddr_in client_addr;
				memset(&client_addr, 0, sizeof(struct sockaddr_in));
				socklen_t client_len = sizeof(client_addr);
				
				int clientfd = accept(sockfd, (struct sockaddr*)&client_addr, &client_len);
				if (clientfd <= 0) continue;

				char str[INET_ADDRSTRLEN] = {0};
				printf("recv from %s at port %d\n", inet_ntop(AF_INET, &client_addr.sin_addr, str, sizeof(str)),
					ntohs(client_addr.sin_port));

				ev.events = EPOLLIN | EPOLLET;
				ev.data.fd = clientfd;
				epoll_ctl(epfd, EPOLL_CTL_ADD, clientfd, &ev);
				
			} else {

				int clientfd = events[i].data.fd;

				char buffer[1024] = {0};
				int ret = recv(clientfd, buffer, 1024, 0);
				if (ret < 0) {

					if (errno == EAGAIN || errno == EWOULDBLOCK) { //

					} else {
						
					}

					close(clientfd);

					ev.events = EPOLLIN;
					ev.data.fd = clientfd;
					epoll_ctl(epfd, EPOLL_CTL_DEL, clientfd, &ev);

				} else if (ret == 0) { //

					// 
					printf("disconnect %d\n", clientfd);

					close(clientfd);

					ev.events = EPOLLIN;
					ev.data.fd = clientfd;
					epoll_ctl(epfd, EPOLL_CTL_DEL, clientfd, &ev);
					
				} else {

					printf("Recv: %s, %d Bytes\n", buffer, ret);

				}

			}

		}

	}

}

为epoll引入良好的io管理reactor

epoll 是对io(一个个fd单独管理)进行管理
reactor 是对事件(recv与send事件)用相应的回调函数(recv_cb/send_cb/accept_cb)进行管理

reactor代码

#include <stdio.h>
#include <stdlib.h>
#include <string.h>

#include <unistd.h>
#include <netinet/tcp.h>
#include <arpa/inet.h>
#include <pthread.h>

#include <errno.h>
#include <sys/epoll.h>

#define BUFFER_LENGTH		1024

struct sockitem { //
	int sockfd;
	int (*callback)(int fd, int events, void *arg);

	char recvbuffer[BUFFER_LENGTH]; //
	char sendbuffer[BUFFER_LENGTH];

	int rlength;
	int slength;
};

// mainloop / eventloop --> epoll -->  
struct reactor {

	int epfd;
	struct epoll_event events[512];
	
	

};


struct reactor *eventloop = NULL;


int recv_cb(int fd, int events, void *arg);


int send_cb(int fd, int events, void *arg) {

	struct sockitem *si = (struct sockitem*)arg;

	send(fd, si->sendbuffer, si->slength, 0); //

	struct epoll_event ev;
	ev.events = EPOLLIN | EPOLLET;
	//ev.data.fd = clientfd;
	si->sockfd = fd;
	si->callback = recv_cb;
	ev.data.ptr = si;

	epoll_ctl(eventloop->epfd, EPOLL_CTL_MOD, fd, &ev);

}

//  ./epoll 8080

int recv_cb(int fd, int events, void *arg) {

	//int clientfd = events[i].data.fd;
	struct sockitem *si = (struct sockitem*)arg;
	struct epoll_event ev;

	//char buffer[1024] = {0};
	int ret = recv(fd, si->recvbuffer, BUFFER_LENGTH, 0);
	if (ret < 0) {

		if (errno == EAGAIN || errno == EWOULDBLOCK) { //
			return -1;
		} else {
			
		}

		

		ev.events = EPOLLIN;
		//ev.data.fd = fd;
		epoll_ctl(eventloop->epfd, EPOLL_CTL_DEL, fd, &ev);

		close(fd);

		free(si);
		

	} else if (ret == 0) { //

		// 
		printf("disconnect %d\n", fd);

		ev.events = EPOLLIN;
		//ev.data.fd = fd;
		epoll_ctl(eventloop->epfd, EPOLL_CTL_DEL, fd, &ev);

		close(fd);

		free(si);
		
	} else {

		printf("Recv: %s, %d Bytes\n", si->recvbuffer, ret);

		si->rlength = ret;
		memcpy(si->sendbuffer, si->recvbuffer, si->rlength);
		si->slength = si->rlength;

		struct epoll_event ev;
		ev.events = EPOLLOUT | EPOLLET;
		//ev.data.fd = clientfd;
		si->sockfd = fd;
		si->callback = send_cb;
		ev.data.ptr = si;

		epoll_ctl(eventloop->epfd, EPOLL_CTL_MOD, fd, &ev);

	}

}


int accept_cb(int fd, int events, void *arg) {

	struct sockaddr_in client_addr;
	memset(&client_addr, 0, sizeof(struct sockaddr_in));
	socklen_t client_len = sizeof(client_addr);
	
	int clientfd = accept(fd, (struct sockaddr*)&client_addr, &client_len);
	if (clientfd <= 0) return -1;

	char str[INET_ADDRSTRLEN] = {0};
	printf("recv from %s at port %d\n", inet_ntop(AF_INET, &client_addr.sin_addr, str, sizeof(str)),
		ntohs(client_addr.sin_port));

	struct epoll_event ev;
	ev.events = EPOLLIN | EPOLLET;
	//ev.data.fd = clientfd;

	struct sockitem *si = (struct sockitem*)malloc(sizeof(struct sockitem));
	si->sockfd = clientfd;
	si->callback = recv_cb;
	ev.data.ptr = si;
	
	epoll_ctl(eventloop->epfd, EPOLL_CTL_ADD, clientfd, &ev);
	
	return clientfd;
}

int main(int argc, char *argv[]) {

	if (argc < 2) {
		return -1;
	}

	int port = atoi(argv[1]);

	

	int sockfd = socket(AF_INET, SOCK_STREAM, 0);
	if (sockfd < 0) {
		return -1;
	}

	struct sockaddr_in addr;
	memset(&addr, 0, sizeof(struct sockaddr_in));

	addr.sin_family = AF_INET;
	addr.sin_port = htons(port);
	addr.sin_addr.s_addr = INADDR_ANY;

	if (bind(sockfd, (struct sockaddr*)&addr, sizeof(struct sockaddr_in)) < 0) {
		return -2;
	}

	if (listen(sockfd, 5) < 0) {
		return -3;
	}

	eventloop = (struct reactor*)malloc(sizeof(struct reactor));
	// epoll opera

	eventloop->epfd = epoll_create(1);
	
	struct epoll_event ev;
	ev.events = EPOLLIN;
	
	struct sockitem *si = (struct sockitem*)malloc(sizeof(struct sockitem));
	si->sockfd = sockfd;
	si->callback = accept_cb;
	ev.data.ptr = si;
	
	epoll_ctl(eventloop->epfd, EPOLL_CTL_ADD, sockfd, &ev);

	while (1) {

		int nready = epoll_wait(eventloop->epfd, eventloop->events, 512, -1);
		if (nready < -1) {
			break;
		}

		int i = 0;
		for (i = 0;i < nready;i ++) {


			if (eventloop->events[i].events & EPOLLIN) {
				//printf("sockitem\n");
				struct sockitem *si = (struct sockitem*)eventloop->events[i].data.ptr;
				si->callback(si->sockfd, eventloop->events[i].events, si);

			}

			if (eventloop->events[i].events & EPOLLOUT) {

				struct sockitem *si = (struct sockitem*)eventloop->events[i].data.ptr;
				si->callback(si->sockfd, eventloop->events[i].events, si);

			}
		}

	}

}
### 日志分析 日志中显示的 `reactor-http-epoll-2` 是 Reactor Netty 中的一个线程名称,通常用于处理 HTTP 请求的 I/O 操作。该线程抛出了 `ERROR` 级别的异常,具体信息为 `readAddress(..) failed: Connection reset by peer`。这一异常表明,在尝试读取客户端地址时,连接被对端(即客户端)意外关闭。 `Connection reset by peer` 通常是由于客户端在服务器处理请求的过程中关闭了连接所致。这种情况可能发生在以下场景中: - 客户端在等待响应时主动关闭了连接。 - 客户端的超时设置短于服务端的处理时间。 - 网络中断或不稳定导致连接中断。 - 客户端或服务端的 SSL/TLS 握手失败。 此外,日志中还提到 `GatewayExceptionHandler` 处理了异常,说明网关在处理请求时捕获到了该异常,并尝试通过全局异常处理器进行响应。`GatewayExceptionHandler` 的作用是捕获并处理网关中发生的异常,以避免服务崩溃,并返回友好的错误信息给客户端。 ### 解决方法 #### 1. **检查客户端行为** - 确保客户端在发送请求后不会过早关闭连接。检查客户端的代码逻辑,特别是涉及超时设置的部分,确保其与服务端的处理时间相匹配。 - 如果使用了 HTTP/2 或 HTTPS,检查 SSL/TLS 证书配置是否正确,确保握手过程顺利完成。 #### 2. **调整超时设置** - 在服务端增加超时时间,确保能够处理较慢的客户端请求。可以通过调整 Spring Cloud Gateway 的超时配置来实现。例如,在 `application.yml` 中配置如下内容: ```yaml spring: cloud: gateway: httpclient: ssl: use-insecure-trust-manager: true timeout: connect: 5000 response: 10000 ``` 上述配置中,`connect` 表示连接超时时间,`response` 表示响应超时时间。根据实际业务需求调整这些值。 #### 3. **优化网络环境** - 检查网络连接的稳定性,确保客户端与服务端之间的通信畅通无阻。可以使用 `ping`、`traceroute` 等工具排查网络问题。 - 如果服务部署在云环境中,检查负载均衡器、反向代理等中间件的配置,确保它们不会过早关闭连接。 #### 4. **日志与监控** - 增强日志记录,捕获更多上下文信息以便于分析问题。可以在 `GatewayExceptionHandler` 中添加详细的日志输出,记录请求路径、客户端 IP、请求头等信息。 - 使用监控工具(如 Prometheus、Grafana 等)对网关的性能进行实时监控,及时发现并解决潜在问题。 #### 5. **异步编程注意事项** - 在异步编程模型中,`request` `response` 的处理方式与同步编程有所不同。确保在处理请求时,正确使用 `Mono` 或 `Flux` 来管理数据流,避免因异步操作不当导致连接关闭。 - 检查 `ErrorWebExceptionHandler` 的实现逻辑,确保其能够正确区分 JSON 响应 HTML 错误页面的响应方式。可以通过 `accept` 请求头来判断客户端期望的响应格式,并据此返回相应的错误信息。 #### 6. **依赖管理** - 如果使用的是 Spring Cloud Gateway 2.x 版本,确保没有引入 `spring-boot-starter-web` 包,因为该包与 WebFlux 存在冲突。可以通过在 `pom.xml` 或 `build.gradle` 中排除该依赖来解决问题。 ### 示例代码 以下是一个简单的 `GatewayExceptionHandler` 实现示例,展示了如何根据请求头中的 `accept` 字段返回不同格式的错误响应: ```java @Component @Order(-2) public class CustomGatewayExceptionHandler implements WebExceptionHandler { @Override public Mono<Void> handle(ServerWebExchange exchange, Throwable ex) { ServerHttpResponse response = exchange.getResponse(); ServerHttpRequest request = exchange.getRequest(); // 判断请求头中的 accept 字段 if (request.getHeaders().getAccept().contains(MediaType.APPLICATION_JSON)) { // 返回 JSON 格式的错误响应 response.getHeaders().setContentType(MediaType.APPLICATION_JSON); return response.writeWith(Mono.just(response.bufferFactory().wrap("{\"error\":\"Connection reset by peer\"}".getBytes()))); } else { // 返回 HTML 错误页面 response.setStatusCode(HttpStatus.INTERNAL_SERVER_ERROR); return response.sendRedirect(URI.create("/error/500")); } } } ``` ###
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值