本文内容:
- 五种IO模型(阻塞,非阻塞,复用IO,同步,异步)
- sendfile原理
- nginx优化
一、五种IO模型
IO原理:当进程需要从硬盘读取或写入某些内容到硬盘得时候,需要先对内核提出write或者是read的IO请求
内核收到IO请求后会准备相关资源,此时进程会依据不同的IO模型来进行相关操作。当内核将相关资源准备好了
之后,会将数据拷贝至用户空间,并且通知进程,进程此时会再次依据IO模型来进行相关操作。
- 阻塞IO:在内核准备先关资源和内核将内容拷贝至用户空间的时候都会阻塞
- 非阻塞:内核在准备相关资源的时候进程并不会阻塞,而是会不断的询问内核资源是否准备完成。因为内核没有准备好,所以会返回一个错误,进程看到返回的错误就会知道内核并没用准备好,因此会继续发起IO请求,直到内核准备好资源。第二阶段,内核将资源拷贝到了用户空间的时候,进程仍然需要阻塞。(整个非阻塞IO过程都会占用CPU)
- 复用IO:这是从系统层面来进行的,某一个进程(select/poll)专门帮其他的进程来询问内核资源是否准备完毕。当内核将某个进程IO的资源准备妥当之后,select进程就会通知相关的进程来进行下一步操作。然后内核将数据拷贝至用户空间时,先关的进程仍然需要进入阻塞模式。不过在整个调用的第一阶段,只会阻塞的是select进程,它会有一个线程不断地询问内核资源是否准备完成。
- 信号驱动IO:进程发起IO之后继续自己的事情,并且留下一个信号接收函数,一旦内核将资源准备完成,就会发送一个信号给进程,收到信号后便使用信号接收函数进行先关的IO操作。不过在内核将数据拷贝至用户空间时,进程仍然会阻塞。
- 异步IO:进程发起调用后继续其他事情,内核开始准备资源,将资源准备好,并且拷贝至用户空间之后内核才会发送信号通知进程,因此进程在全部的两个阶段都不会进入阻塞状态。
小结:前面四中IO模型中,阻塞IO在第一阶段和第二阶段调用进程都会进入阻塞;非阻塞IO和信号驱动IO在第一阶段没有阻塞,但在第二阶段也会进入阻塞;复用IO模型比较特殊,调用进行的第一阶段不用进入阻塞(有其他的代理进程代替他阻塞),第二阶段仍然会进入阻塞;异步IO在全部的两个阶段都不会进入阻塞。
二、sendfile原理
nginx传输文件原理:
- 内核调用read函数,并且将相关的文件从磁盘拷贝至内存
- 内核将内存中的文件拷贝至用户空间
- 文件从用户空间拷贝至tcp连接的socket缓冲区
- 文件从socket缓冲区拷贝至相关的tcp协议引擎处准备发送
开启sendfile选项后:
- 内核将文件从硬盘拷贝至内存
- 文件被拷贝至socket缓冲区
- 文件被拷贝至tcp相关协议引擎处准备发送
三、nginx优化
nginx配置文件优化
work_process auto; #nginx进程数,一般按照cpu核数来设置,最好小于等于CPU核数
work_cpu_affinity 0001 0010 0100 1000; #将每个进程绑定到cpu,这样减少cpu的切换
work_rlimit_nofile 102400; #每个进程打开的文件数,应与 ulimit -n中的值一样
use epoll; #nginx使用epoll的IO模型,是select/poll模型的增强版
work_connections 102400; #每个进程最大的并发连接数
keepalived_timeout 65; #保持长连接的最大时间
client_header_buffer_size 4k; #客户端请求头的缓冲区,应设置为系统分页的1~n倍
open_file_cache max=102400 inactive=20s; #缓存最大数量建议和打开文件最大数一样,inactive表示多长时间没使用缓存就删除缓存
open_file_cache_valid 30s; #多长时间检查一次缓存的有效信息
open_file_cache_min_uses 1; #在inactive时间内缓存的最少使用数,小于此值就会在inactive时间后删除此缓存
内核参数优化
net.ipv4.tcp_max_tw_buckets = 6000 #timewait的数量,默认为180k
net.ipv4.ip_local_port_range = 1024 65000 #允许系统打开的端口的范围
net.ipv4.tcp_tw_recycle = 1 #启用timewait快速回收
net.ipv4.tcp_tw_reuse = 1 #重用模式,允许将timewait socket重新用于新的tcp连接
net.ipv4.tcp_syncookies = 1 #开启SYN cookies,一旦SYN队列溢出,则启用cookies处理
net.core.somaxconn = 262144 #web 应用中 listen 函数的 backlog 默认会给我们内核参数的 net.core.somaxconn 限制到128,而 nginx 定义的 NGX_LISTEN_BACKLOG 默认为 511,所以有必要调整这个值。
net.core.netdev_max_backlog = 262144 #网络接口接受数据包的速率大于内核处理速率时,允许限制送到网络接口的数据包的最大数目
net.ipv4.tcp_max_orphans = 262144 #防止dos攻击,设置允许没有关联任何文件的tcp socket数量
net.ipv4.tcp_max_syn_backlog = 262144 #尚未收到客户端确认信息的SYN最大数量,即限制半连接数量
net.ipv4.tcp_timestamps = 0 #关闭时间戳
net.ipv4.tcp_synack_retries = 1 #进行tcp第二次握手时,最大的尝试数量
net.ipv4.tcp_syn_retries = 1 #内核放弃连接之前发送的syn报文次数
net.ipv4.tcp_fin_timeout = 1 #此参数决定了fin_wait-2状态的时间值,即第三次挥手的超时时间
net.ipv4.tcp_keepalive_time = 30 #keepalive起作用时,tcp发送keepalive消息的频度,缺省为2h