一、与epoll媲美的io_uring
1. io_uring原理
io_uring是linux5.1版本中引入的一种异步IO机制,它是一套全新的系统调用,它的设计目的是为了克服传统 Posix api 接口存在的限制,提供更高的性能和更好的可扩展性。
- io_uring通过使用共享内存和环形缓冲区机制,io_uring 减少了应用程序与内核之间交互所需的系统调用次数,从而降低了开销,它会申请一块用户态与内核态共享的内存,并再这块内存中建立一个环形队列,以此来实现用户与内核的通信,避免不必要的拷贝以此提高性能。
- 它的实现过程为每个io_uring实例映射一个fd,然后调用io_uring_setup系统调用分配一块共享内存,通过mmap映射到用户态。
同步与异步:
同步:通常是顺序执行,需要等待函数返回结果
异步:无需马上进入等待,可以自行选择发送报文或等待
环形缓冲区:
也叫循环队列,比如一个队列有5个位置,之前存入5个数据会依次占满队列,那么当第六个数据存入时,会计算6除以5余1,于是第六个数据存入第一个位置并覆盖原有数据。
2. io_uring主要API
io_uring的3个系统调用api
初始化 io_uring环, 创建了一个io_uring实例并返回一个fd,用于后续io_uring操作
1. int io_uring_setup(unsigned entries, struct io_uring_params *p);
+ 参数entries指定了io_uring 环的大小,
+ 而io_uring_params 结构体包含了其他的一些初始化参数,如 io_uring 的特性和行为等
用于提交 I/O 操作到 io_uring 环,一旦 I/O 操作被提交它会被内核异步处理
2. int io_uring_enter(int fd, unsigned to_submit, unsigned min_complete, unsigned flags, sigset_t *sig);
+ 参数fd是之前通过io_uring_setup()返回的文件描述符fd
+ to_submit 指定要提交的I/O操作数量
+ min_complete 指定最小要完成的I/O操作数量,
+ flags 是控制 I/O 操作行为的一些标志
+ sig 是一个可选的信号集合,在完成I/O操作时通知应用程序
用于注册文件描述符到 io_uring 环中,以便进行I/O操作
3. int io_uring_register(int fd, unsigned opcode, const void *arg, unsigned nr_args);
+ 参数 fd 是文件描述符,
+ opcode 是操作码,指定了要执行的操作类型,
+ arg 是指向操作参数的指针,
+ nr_args 是参数的数量
io_uring常用编程api
//1. io_uring_queue_init();
用于初始化 io_uring 队列。它会分配并初始化一个 io_uring 对象,并返回一个指向该对象的指针
struct io_uring *io_uring_queue_init(unsigned entries, struct io_uring_params *p);
//2. io_uring_prep_read(); / io_uring_prep_write();
用于准备读取和写入操作的函数。这些函数将指定的文件描述符和缓冲区等参数填充到 io_uring 操作数据结构中。其原型为:
void io_uring_prep_read(struct io_uring_sqe *sqe, int fd, void *buf, unsigned nbytes, off_t offset);
void io_uring_prep_write(struct io_uring_sqe *sqe, int fd, const void *buf, unsigned nbytes, off_t offset);
//3. io_uring_submit();
用于将提交的 I/O 操作发送到 io_uring 环。其原型为:
int io_uring_submit(struct io_uring *ring);
//4. io_uring_wait_cqe();
用于等待完成的 I/O 操作。当完成的操作可用时,它会返回一个指向完成的操作的指针。其原型为:
int io_uring_wait_cqe(struct io_uring *ring, struct io_uring_cqe **cqe_ptr);
//5. io_uring_cqe_seen();
用于告知内核该完成的操作已经被处理,以便内核可以继续使用该完成队列项。其原型为:
void io_uring_cqe_seen(struct io_uring *ring, struct io_uring_cqe *cqe);
3. io_uring实现tcp_server
int main(int argc, char *argv[]) {
unsigned short port = 9999;
int sockfd = init_server(port);
struct io_uring_params params;
memset(¶ms, 0, sizeof(params));
struct io_uring ring;
io_uring_queue_init_params(ENTRIES_LENGTH, &ring, ¶ms);
// 初始化submission queue 、 completed queue
// 该函数调用了系统调用API : io_uring_setup
#if 0
struct sockaddr_in clientaddr;
socklen_t len = sizeof(clientaddr);
accept(sockfd, (struct sockaddr*)&clientaddr, &len);
#else
struct sockaddr_in clientaddr;
socklen_t len = sizeof(clientaddr);
set_event_accept(&ring, sockfd, (struct sockaddr*)&clientaddr, &len, 0);
#endif
char buffer[BUFFER_LENGTH] = {0};
while (1) {
io_uring_submit(&ring);
// 调用系统调用API: io_uring_enter
struct io_uring_cqe *cqe;
io_uring_wait_cqe(&ring, &cqe);
// 取competed queue 的开始位置
struct io_uring_cqe *cqes[128];
int nready = io_uring_peek_batch_cqe(&ring, cqes, 128); // epoll_wait
// 从开始位置带出 至多【128】的元素
int i = 0;
for (i = 0;i < nready;i ++) {
struct io_uring_cqe *entries = cqes[i];
struct conn_info result;
memcpy(&result, &entries->user_data, sizeof(struct conn_info));
if (result.event == EVENT_ACCEPT) {
set_event_accept(&ring, sockfd, (struct sockaddr*)&clientaddr, &len, 0);
// 在该函数中调用了io_uring_prep_accept,其中与accept不同的点在多了第一个参数&ring
// 提交请求到sqe里面
//printf("set_event_accept\n"); //
int connfd = entries->res;
set_event_recv(&ring, connfd, buffer, BUFFER_LENGTH, 0);
// 在该函数中调用了 io_uring_prep_recv,其中与recv不同的点在多了第一个参数&ring
//
} else if (result.event == EVENT_READ) { //
int ret = entries->res;
//printf("set_event_recv ret: %d, %s\n", ret, buffer); //
if (ret == 0) {
close(result.fd);
} else if (ret > 0) {
set_event_send(&ring, result.fd, buffer, ret, 0);
}
} else if (result.event == EVENT_WRITE) {
//
int ret = entries->res;
//printf("set_event_send ret: %d, %s\n", ret, buffer);
set_event_recv(&ring, result.fd, buffer, BUFFER_LENGTH, 0);
}
}
io_uring_cq_advance(&ring, nready);
// 清空已经处理过的cq
}
}
4. io_uring与epoll测试对比
epoll:每一次设置完,等待事件的触发
io_uring:每一次设置完,需要再次设置
写测试工具
1. 代码实现
2. io_uring与epoll的对比
测试结果对比
5. 思考问题
submission queue的entry与competed queue的entry区别?
是一个节点,共用的是一块内存
io_uring_peek_batch_cqe与io_uring_wait_cqe区别
- 阻塞 vs 非阻塞
io_uring_wait_cqe() 是一个阻塞式函数。当你调用它时,如果没有完成的 I/O 操作它会一直等待,直到有操作完成并且可用。
io_uring_peek_batch_cqe() 是一个非阻塞式函数。无论是否有完成的 I/O 操作它都会立即返回。如果没有完成的操作,它返回 0。 - 处理方式
使用 io_uring_wait_cqe() 时,你等待操作完成,然后手动调用 io_uring_cqe_seen() 来告知内核这个完成队列项已经被处理过了。
使用 io_uring_peek_batch_cqe() 时,你可以立即得到完成的操作指针数组,你可以处理这些操作而不需要手动通知内核。 - 适用场景
io_uring_wait_cqe() 适用于需要等待操作完成后再继续执行的情况,比如在单线程中进行 I/O 操作的情况。
io_uring_peek_batch_cqe() 适用于不需要等待操作完成就可以继续执行的情况,比如在多线程中,可以同时处理多个完成的操作。
面试题:tcp和udp区别(思路方向)
二、window异步机制iocp
Reactor 模式
Proactor 模式
1. reactor (epoll) | proactor (iocp)模式区别
- Reactor 模式要求 主线程(I/O 处理单元) 只负责监听文件描述符上是否有事件发生,有的话就立即将该事件通知工作线程(逻辑单元)。读写数据,接受新的连接,以及处理客户请求均在工作线程中完成。
- Proactor 模式 将所有 I/O 操作都交给主线程和内核来处理, 工作线程仅仅负责业务逻辑。
处理IO的方式不一样: reactor 同步IO 异步事件,iocp 异步IO异步事件 。
自己理解
- reactor与iocp区别
reactor同步IO, 当异步事件:accept、read、write、connect函数返回时,此时IO已经操作;
iocp异步IO, 当异步事件:AcceptEx、WSARecv、WSASend、ConnectEx函数返回时, 此时在这个接口中的IO未操作。 - 阻塞和非阻塞区别
在IO检测过程中,如果IO未就绪,阻塞IO是阻塞线程等待就绪,非阻塞IO不阻塞线程等待,立刻返回
reactor
iocp (windows)
2. iocp 原理和具体实现
IOCP工作流程(自己复述了解)
与Linux下的io_uring类似,创建IOCP后只投递请求,异步地获取结果
- socket绑定到IOCP中
- 投递具体I/O操作请求
- io检测和io操作在iocp中执行完成后,通知用户态操作结果
重叠 IO
无需等待上一个io操作完成就能够投递下一个操作请求,多个io操作的请求投递能够堆叠在一起,实现性能的提升
优秀笔记:
1. 与epoll媲美的io_uring
2.【高性能网络4】异步io机制io_uring
3. windows异步机制iocp
参考学习:https://github.com/0voice