1.nginx基本概念
1. nginx是什么?能做什么事情?
1. ngnix是一个高性能的http和反向代理web服务器,同时也提供IMAP/POP3/SMTP服务,
2. 特点:占有内存少,并发能力强
3. ngnix专门为性能优化而开发,性能是其最重要的考量,实现上非常注重效率,能经受起高负载的考验,有报告表明ngnix支持高达5w个并发连接数。
4. ngnix支持热部署,它的启动特别容易,并且几乎可以做到7*24小时不间断运行,即使运行数个月也不需要重新启动,也可以在不间断情况下,对软件版本进行升级。
2. 反向代理
ngnix中不仅可以做反向代理,实现负载均衡。还可以用作正向代理来进行上网等功能。
1. 正向代理:如果把因特网意外的internet想象成一个巨大的资源库,则局域网中的客户端要访问internet,则需要通过代理服务器来访问,这种代理服务就称为正向代理。
1. 也可以理解成搭梯子。
2. 反向代理:反向代理,其实就是客户端对代理是无感知的,因为客户端不需要任何胚子就可以访问,我们只需要将请求发送到反向代理服务器,由反向代理服务器去选择目标服务器获取数据后,再返回给客户端,此时反向代理服务器和目标服务器对外就是一台服务器,暴露的是代理服务器地址,隐藏了真实服务器ip地址。
3. 负载均衡
1. 客户端发送多个请求到服务器,服务器处理请求,有一些可能要与数据库进行交互,服务器处理完毕后,再将结果返回给客户端。这种架构模式对早期的系统相对单一,并发请求相对较少的情况下是比较适合的,成本也低。但是随着信息数量的不断增长,访问量和数据量的飞速增长,以及业务系统的复杂度成本增加,这种架构会躁症服务器响应客户端的请求日益缓慢,并发量大的时候,还容易造成服务器直接崩溃。这是由于服务器性能的瓶颈造成的问题。单纯增加配置并不能解决这个问题。我们增加服务器的数量,然后将请求分发到各个服务器上,将原来请求集中到单个服务器上的情况改为请求分发到各个服务器上,将负载分发到不同的服务器上,也就是我们所说的负载均衡。
4. 动静分离
1. 为了加快网站的解析速度,可以将动态页面和静态页面由不用的服务器来解析,加快解析速度。降低原来单个服务器的压力。
2.nginx安装、常用命令和配置文件
1. 在linux系统中安装nginx
1. 在nginx官网下载 http://nginx.org/en/download.html:这里使用的是1.12.2版本
2. 安装之前需要先进行安装依赖
1. pcre
1. 安装失败
1. 下载pcre安装包 https://ftp.pcre.org/pub/pcre/:这是使用的是8.37版本
2. 切换到usr/src目录下:cd /usr/src:拷贝下载的文件到该目录下
3. 在虚拟机中切换到root用户 sudo -i
4. 解压tar -xvf pcre-8.37.tar.gz
5. 切换到软件目录 cd pcre-8.37
6. 执行./configure命令
1. 安装成功
1. yum -y install pcre
2. pcre-config --version
1. 安装其他依赖
1. yum -y install make zlib zlib-devel gcc-c++ libtool openssl openssl-devel
2. 安装nginx
1. yum -y install ngnix
2. 查找安装包路径 rpm -ql nginx 没找到
3. 切换到 sbin文件夹
2. 在windows下安装nginx
1. http://nginx.org/download/nginx-1.12.2.zip,下载直接解压即可
2. 切换到软件目录 start nginx 启动 C:\server\nginx-1.0.2>nginx.exe -s stop或C:\server\nginx-1.0.2>nginx.exe -s quit 注:stop是快速停止nginx,可能并不保存相关信息;quit是完整有序的停止nginx,并保存相关信息。
3. nginx常用命令
1. windows下
1. 使用前提:切换到nginx目录下
2. 启动
1. start nginx
2. nginx.exe
3. 停止
1. nginx.exe -s stop
2. nginx.exe -s quit
3. 注:stop是快速停止nginx,可能不保存相关信息;quit是完整有序的停止nginx,保存信息
4. 重新载入nginx
1. nginx.exe -s reload
2. 当配置信息修改时,需要重新载入这些配置时使用此命令
5. 重新打开日志文件
1. nginx.exe -s reopen
6. 查看nginx版本
1. nginx -v
4. nginx配置文件
1. 配置文件位置,软件目录下,conf文件夹nginx.conf就是配置文件
2. nginx配置文件由三个部分组成
1. 全局块
1. 从配置文件开始到events块之间的内容,主要会设置一些影响nginx服务器整体运行的配置指令
2. worker_processes 1;——这是nginx服务器处理并发服务的关键配置,worker_processes值越大,可以支持的并发处理数越多,但是会受到硬件、软件等设备的约束。
2. events块
1. events块涉及的指令主要影响Nginx服务器与用户的网路连接
2. worker_connections 1024;——表示支持的最大连接数
3. http块
1. 这里算是nginx服务器配置中最频繁的部分,代理,缓存和日志定义等绝大多数功能和第三方模块的配置都在这里
2. http块也可以包括http全局块、server块。
3. http全局块
1. 包含文件引入、MIME-TYPE定义、日志自定义、连接超时时间、单链连接请求数上限等。
4. server块
1. 这块和虚拟主机有密切关系
2. 全局server块
1. listen 80;——监听端口号
2. server_name localhost;——主机名称
3. location块
3.nginx配置实例1-反向代理1
1. 实现效果
1. 打开浏览器,在浏览器中输入地址-跳转到tomcat主页面中
2. 准备工作
1. 安装tomcat
2. 启动tomcat
3. 访问测试
3. 分析访问过程
1. 客户端——nginx——tomcat
4. 实际配置:
1. 在windows中配置host文件
1. C:\Windows\System32\drivers\etc\hosts
2. 添加 127.0.0.1 www.123.com
2. 在nginx中进行请求转发的配置(反向代理配置)
1. 把全局server块中server_name属性改成ip地址
2. 修改全局server块中location / {} 添加 proxy_pass http://127.0.0.1:8080;
3.1nginx配置实例1-反向代理2
1. 实现效果
1. 使用nginx反向代理,根据不同的路径跳转到不同端口的服务中
2. nginx监听端口为9001
3. 访问http://127.0.0.1:9001/edu/,直接跳转到127.0.0.1:8080
4. 访问http://127.0.0.1:9001/vod/,直接跳转到127.0.0.1:8081
2. 准备工作
1. 解压两个tomcat实例,分别解压到tomcat8080和tomcat80801文件夹
2. 启动8080端口的tomcat
3. 找到8081端口的tomcat找到conf目录下的server.xml文件,修改<Server port="8005" shutdown="SHUTDOWN">改为8015
4. <Connector port="8080"修改成8081
5. 启动另外一个tomcat服务器
6. 访问两个端口的网页,查看是否成功。
7. 创建文件夹和测试页面
3. 具体配置
1. 找到nginx的配置文件——conf——nginx.conf
2. 添加server块:9001端口被占用,这里设置的9002端口
3. server{
4. listen 9002;
5. server_name 127.0.0.1;
6. location ~ /edu/ {
7. proxy_pass http://127.0.0.1:8080;
8. }
9. location ~ /vod/ {
10. proxy_pass http://127.0.0.1:8081;
11. }
12. }
13. server块的正则表达式
1. =:用于不含正则表达式的uri前,请求要求字符串与uri严格匹配,如果匹配成功,就停止继续向下搜索并立即处理该请求
2. ~:用于表示uri包含正则表达式,并且区分大小写
3. ~*:用于表示uri包含正则表达式,并且不区分大小写
4. ^~:用于不含正则表达式的uri前,要求nginx服务器找到表示uri和请求字符串匹配度最高的location后,立即使用此location处理请求,而不再使用location块中的正则uri和请求字符串做匹配。
1. 注意:如果uri包含正则表达式,则不许要有~或者~*标识。
4.ngnix配置实例2-负载均衡
1. 概念:通过增加服务器的数量,然后将请求分发到各个服务器上,将原先请求集中到单个服务器上的情况改为将请求分发到多个服务器,将负载分发到不同的服务器,也就是我们所说的负载均衡
2. 实现效果
1. 在浏览器地址栏输入地址,实现负载均衡效果,平均到8080和8081端口中
3. 准备工作
1. 准备两台端口不同的tomcat服务器,有相同的页面
4. 具体配置
1. 在http块中添加upstream块
1. upstream myserver{
2. server 127.0.0.1:8080;
3. server 127.0.0.1:8081;
4. }
2. 在server块中更爱server_name 为ip地址
3. 在location块中添加
1. proxy_pass http://服务名称(这里是myserver)
5. 测试
1. 输入 http://www.123.com/edu/index.html
2. 每次请求看到不同的网页,说明成功!
6. nginx负载均衡分配策略
1. 轮询(默认)
1. 每个请求按事件顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除。
2. weight
1. weight表示权重,默认为1,权重越高的客户端被分配的次数越多
2. 指定轮询几率,weight和访问比率成正比,用于后端服务器性能不均的情况
3. 使用方法 在服务器地址及端口号后面加上weight属性
4. 例如
1. upstreatm myserver{
2. server 127.0.0.1:8080 weight=5;
3. server 127.0.0.1:8081 weight=10;
4. }
3. ip_hash
1. 每个请求按访问ip的hash结果分配,这样每一个访客固定访问一个后端服务器,可以解决session的问题
2. 使用方法:在upstream块中添加ip_hash;属性
3. 例如
1. upstream myserver{
2. ip_hash;
3. server 127.0.0.1:8080;
4. server 127.0.0.1:8081;
5. }
4. fair(第三方)
1. 按照后台服务器的响应时间来分配请求,响应时间短的优先分配。
2. 使用方法:在upstream块中添加fair;属性
3. 例如
1. upstream myserver{
2. server 127.0.0.1:8080;
3. server 127.0.0.1:8081;
4. fair;
1. }
5.nginx配置实例3-动静分离
1. 什么是动静分离?
1. Nginx动静分离简单来说就是把动态和静态请求分开,不能理解为只是单纯的把动态页面和静态页面物理分离。严格意义上说应该是动态请求和静态请求分开,可以理解为nginx处理静态页面,tomcat处理动态页面。
2. 动静分离从目前实现角度来说大致分为两种
1. 一种是存粹把静态文件独立成单独的域名,放在独立的服务器上,也是目前主流推崇的方案。
2. 另外一种方法就是动态和静态文件混合在一起发布,通过nginx来分开。
3. 通过location指定不同的后缀名实现不同的请求转发。
4. 通过expires参数设置,可以使浏览器缓存过期时间,也就是说无需去服务端验证,直接通过浏览器本身确定是否过期即可,所以不会产生额外的流量。此种方法适合不经常变动的资源。(如果经常更新的文件,不建议使用Expires来缓存),设置3d,表示这三天之内访问这个URI,发送一个请求,比对服务器该文件最后更新时间没有变化,则不会从服务器抓取,返回状态码304,如果有修改,则直接从服务器重新下载,返回状态码200。
2. 准备工作:
1. 准备静态资源,用于访问(准备一个html页面,一个image图片)放在文件夹中
3. 具体配置
1. 在nginx配置文件中进行配置
2. server块中配置
3. location /www/ {
4. root D:\webStorm_project\demo;
5. index index.html index.htm;
6. }
7. location /image/{
8. root D:\webStorm_project\demo;
9. autoindex on;
10. }
6.nginx配置高可用集群
1. 什么是nginx高可用?
1. nginx宕机,导致服务不可用、使用两台nginx服务器加上keepalived对外提供一个虚拟ip地址,就可以实现高可用。
2. 准备工作
1. 两台服务器
2. 在两台服务器上安装nginx、keppalived
3. 完成高可用配置(主从模式)
1. 修改keepalived.conf配置文件
2. 添加检测脚本
7.nginx执行原理
1. 使用master和worker的机制的好处
1. 可以实现热部署
2. 首先,对于每个worker进程来说,独立的进程,不需要加锁,所以省掉了锁带来的开销,同时在编程以及查找问题时,也会方便很多。其实,采用独立的进程,可以让相互之间不会影响,一个进程推出后,其他进程还在工作,服务不会中断,master进程则很快启动新的worker进程。当然,worker进程的异常退出,肯定是程序有bug了,异常退出,会导致当前worker上的所有请求失败,不过不会影响到所有请求,所以降低了风险
2. 设置多少worker合适
1. 一般来说worker数和服务器的cpu数量相等最合适
3. worker_connection
1. 发送了一个请求,占用了worker的几个连接数?
1. 两个或四个
2. 静态资源两个,动态资源四个
2. worker支持的最大并发数?
1. worker支持的最大的连接数 worker数量*worker最大连接数/2或者4
emmm… linux上使用失败 老子去找windows上的教程
1.nginx基本概念
1. nginx是什么?能做什么事情?
1. ngnix是一个高性能的http和反向代理web服务器,同时也提供IMAP/POP3/SMTP服务,
2. 特点:占有内存少,并发能力强
3. ngnix专门为性能优化而开发,性能是其最重要的考量,实现上非常注重效率,能经受起高负载的考验,有报告表明ngnix支持高达5w个并发连接数。
4. ngnix支持热部署,它的启动特别容易,并且几乎可以做到7*24小时不间断运行,即使运行数个月也不需要重新启动,也可以在不间断情况下,对软件版本进行升级。
2. 反向代理
ngnix中不仅可以做反向代理,实现负载均衡。还可以用作正向代理来进行上网等功能。
1. 正向代理:如果把因特网意外的internet想象成一个巨大的资源库,则局域网中的客户端要访问internet,则需要通过代理服务器来访问,这种代理服务就称为正向代理。
1. 也可以理解成搭梯子。
2. 反向代理:反向代理,其实就是客户端对代理是无感知的,因为客户端不需要任何胚子就可以访问,我们只需要将请求发送到反向代理服务器,由反向代理服务器去选择目标服务器获取数据后,再返回给客户端,此时反向代理服务器和目标服务器对外就是一台服务器,暴露的是代理服务器地址,隐藏了真实服务器ip地址。
3. 负载均衡
1. 客户端发送多个请求到服务器,服务器处理请求,有一些可能要与数据库进行交互,服务器处理完毕后,再将结果返回给客户端。这种架构模式对早期的系统相对单一,并发请求相对较少的情况下是比较适合的,成本也低。但是随着信息数量的不断增长,访问量和数据量的飞速增长,以及业务系统的复杂度成本增加,这种架构会躁症服务器响应客户端的请求日益缓慢,并发量大的时候,还容易造成服务器直接崩溃。这是由于服务器性能的瓶颈造成的问题。单纯增加配置并不能解决这个问题。我们增加服务器的数量,然后将请求分发到各个服务器上,将原来请求集中到单个服务器上的情况改为请求分发到各个服务器上,将负载分发到不同的服务器上,也就是我们所说的负载均衡。
4. 动静分离
1. 为了加快网站的解析速度,可以将动态页面和静态页面由不用的服务器来解析,加快解析速度。降低原来单个服务器的压力。
2.nginx安装、常用命令和配置文件
1. 在linux系统中安装nginx
1. 在nginx官网下载 http://nginx.org/en/download.html:这里使用的是1.12.2版本
2. 安装之前需要先进行安装依赖
1. pcre
1. 安装失败
1. 下载pcre安装包 https://ftp.pcre.org/pub/pcre/:这是使用的是8.37版本
2. 切换到usr/src目录下:cd /usr/src:拷贝下载的文件到该目录下
3. 在虚拟机中切换到root用户 sudo -i
4. 解压tar -xvf pcre-8.37.tar.gz
5. 切换到软件目录 cd pcre-8.37
6. 执行./configure命令
1. 安装成功
1. yum -y install pcre
2. pcre-config --version
1. 安装其他依赖
1. yum -y install make zlib zlib-devel gcc-c++ libtool openssl openssl-devel
2. 安装nginx
1. yum -y install ngnix
2. 查找安装包路径 rpm -ql nginx 没找到
3. 切换到 sbin文件夹
2. 在windows下安装nginx
1. http://nginx.org/download/nginx-1.12.2.zip,下载直接解压即可
2. 切换到软件目录 start nginx 启动 C:\server\nginx-1.0.2>nginx.exe -s stop或C:\server\nginx-1.0.2>nginx.exe -s quit 注:stop是快速停止nginx,可能并不保存相关信息;quit是完整有序的停止nginx,并保存相关信息。
3. nginx常用命令
1. windows下
1. 使用前提:切换到nginx目录下
2. 启动
1. start nginx
2. nginx.exe
3. 停止
1. nginx.exe -s stop
2. nginx.exe -s quit
3. 注:stop是快速停止nginx,可能不保存相关信息;quit是完整有序的停止nginx,保存信息
4. 重新载入nginx
1. nginx.exe -s reload
2. 当配置信息修改时,需要重新载入这些配置时使用此命令
5. 重新打开日志文件
1. nginx.exe -s reopen
6. 查看nginx版本
1. nginx -v
4. nginx配置文件
1. 配置文件位置,软件目录下,conf文件夹nginx.conf就是配置文件
2. nginx配置文件由三个部分组成
1. 全局块
1. 从配置文件开始到events块之间的内容,主要会设置一些影响nginx服务器整体运行的配置指令
2. worker_processes 1;——这是nginx服务器处理并发服务的关键配置,worker_processes值越大,可以支持的并发处理数越多,但是会受到硬件、软件等设备的约束。
2. events块
1. events块涉及的指令主要影响Nginx服务器与用户的网路连接
2. worker_connections 1024;——表示支持的最大连接数
3. http块
1. 这里算是nginx服务器配置中最频繁的部分,代理,缓存和日志定义等绝大多数功能和第三方模块的配置都在这里
2. http块也可以包括http全局块、server块。
3. http全局块
1. 包含文件引入、MIME-TYPE定义、日志自定义、连接超时时间、单链连接请求数上限等。
4. server块
1. 这块和虚拟主机有密切关系
2. 全局server块
1. listen 80;——监听端口号
2. server_name localhost;——主机名称
3. location块
3.nginx配置实例1-反向代理1
1. 实现效果
1. 打开浏览器,在浏览器中输入地址-跳转到tomcat主页面中
2. 准备工作
1. 安装tomcat
2. 启动tomcat
3. 访问测试
3. 分析访问过程
1. 客户端——nginx——tomcat
4. 实际配置:
1. 在windows中配置host文件
1. C:\Windows\System32\drivers\etc\hosts
2. 添加 127.0.0.1 www.123.com
2. 在nginx中进行请求转发的配置(反向代理配置)
1. 把全局server块中server_name属性改成ip地址
2. 修改全局server块中location / {} 添加 proxy_pass http://127.0.0.1:8080;
3.1nginx配置实例1-反向代理2
1. 实现效果
1. 使用nginx反向代理,根据不同的路径跳转到不同端口的服务中
2. nginx监听端口为9001
3. 访问http://127.0.0.1:9001/edu/,直接跳转到127.0.0.1:8080
4. 访问http://127.0.0.1:9001/vod/,直接跳转到127.0.0.1:8081
2. 准备工作
1. 解压两个tomcat实例,分别解压到tomcat8080和tomcat80801文件夹
2. 启动8080端口的tomcat
3. 找到8081端口的tomcat找到conf目录下的server.xml文件,修改<Server port="8005" shutdown="SHUTDOWN">改为8015
4. <Connector port="8080"修改成8081
5. 启动另外一个tomcat服务器
6. 访问两个端口的网页,查看是否成功。
7. 创建文件夹和测试页面
3. 具体配置
1. 找到nginx的配置文件——conf——nginx.conf
2. 添加server块:9001端口被占用,这里设置的9002端口
3. server{
4. listen 9002;
5. server_name 127.0.0.1;
6. location ~ /edu/ {
7. proxy_pass http://127.0.0.1:8080;
8. }
9. location ~ /vod/ {
10. proxy_pass http://127.0.0.1:8081;
11. }
12. }
13. server块的正则表达式
1. =:用于不含正则表达式的uri前,请求要求字符串与uri严格匹配,如果匹配成功,就停止继续向下搜索并立即处理该请求
2. ~:用于表示uri包含正则表达式,并且区分大小写
3. ~*:用于表示uri包含正则表达式,并且不区分大小写
4. ^~:用于不含正则表达式的uri前,要求nginx服务器找到表示uri和请求字符串匹配度最高的location后,立即使用此location处理请求,而不再使用location块中的正则uri和请求字符串做匹配。
1. 注意:如果uri包含正则表达式,则不许要有~或者~*标识。
4.ngnix配置实例2-负载均衡
1. 概念:通过增加服务器的数量,然后将请求分发到各个服务器上,将原先请求集中到单个服务器上的情况改为将请求分发到多个服务器,将负载分发到不同的服务器,也就是我们所说的负载均衡
2. 实现效果
1. 在浏览器地址栏输入地址,实现负载均衡效果,平均到8080和8081端口中
3. 准备工作
1. 准备两台端口不同的tomcat服务器,有相同的页面
4. 具体配置
1. 在http块中添加upstream块
1. upstream myserver{
2. server 127.0.0.1:8080;
3. server 127.0.0.1:8081;
4. }
2. 在server块中更爱server_name 为ip地址
3. 在location块中添加
1. proxy_pass http://服务名称(这里是myserver)
5. 测试
1. 输入 http://www.123.com/edu/index.html
2. 每次请求看到不同的网页,说明成功!
6. nginx负载均衡分配策略
1. 轮询(默认)
1. 每个请求按事件顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除。
2. weight
1. weight表示权重,默认为1,权重越高的客户端被分配的次数越多
2. 指定轮询几率,weight和访问比率成正比,用于后端服务器性能不均的情况
3. 使用方法 在服务器地址及端口号后面加上weight属性
4. 例如
1. upstreatm myserver{
2. server 127.0.0.1:8080 weight=5;
3. server 127.0.0.1:8081 weight=10;
4. }
3. ip_hash
1. 每个请求按访问ip的hash结果分配,这样每一个访客固定访问一个后端服务器,可以解决session的问题
2. 使用方法:在upstream块中添加ip_hash;属性
3. 例如
1. upstream myserver{
2. ip_hash;
3. server 127.0.0.1:8080;
4. server 127.0.0.1:8081;
5. }
4. fair(第三方)
1. 按照后台服务器的响应时间来分配请求,响应时间短的优先分配。
2. 使用方法:在upstream块中添加fair;属性
3. 例如
1. upstream myserver{
2. server 127.0.0.1:8080;
3. server 127.0.0.1:8081;
4. fair;
1. }
5.nginx配置实例3-动静分离
1. 什么是动静分离?
1. Nginx动静分离简单来说就是把动态和静态请求分开,不能理解为只是单纯的把动态页面和静态页面物理分离。严格意义上说应该是动态请求和静态请求分开,可以理解为nginx处理静态页面,tomcat处理动态页面。
2. 动静分离从目前实现角度来说大致分为两种
1. 一种是存粹把静态文件独立成单独的域名,放在独立的服务器上,也是目前主流推崇的方案。
2. 另外一种方法就是动态和静态文件混合在一起发布,通过nginx来分开。
3. 通过location指定不同的后缀名实现不同的请求转发。
4. 通过expires参数设置,可以使浏览器缓存过期时间,也就是说无需去服务端验证,直接通过浏览器本身确定是否过期即可,所以不会产生额外的流量。此种方法适合不经常变动的资源。(如果经常更新的文件,不建议使用Expires来缓存),设置3d,表示这三天之内访问这个URI,发送一个请求,比对服务器该文件最后更新时间没有变化,则不会从服务器抓取,返回状态码304,如果有修改,则直接从服务器重新下载,返回状态码200。
2. 准备工作:
1. 准备静态资源,用于访问(准备一个html页面,一个image图片)放在文件夹中
3. 具体配置
1. 在nginx配置文件中进行配置
2. server块中配置
3. location /www/ {
4. root D:\webStorm_project\demo;
5. index index.html index.htm;
6. }
7. location /image/{
8. root D:\webStorm_project\demo;
9. autoindex on;
10. }
6.nginx配置高可用集群
1. 什么是nginx高可用?
1. nginx宕机,导致服务不可用、使用两台nginx服务器加上keepalived对外提供一个虚拟ip地址,就可以实现高可用。
2. 准备工作
1. 两台服务器
2. 在两台服务器上安装nginx、keppalived
3. 完成高可用配置(主从模式)
1. 修改keepalived.conf配置文件
2. 添加检测脚本
7.nginx执行原理
1. 使用master和worker的机制的好处
1. 可以实现热部署
2. 首先,对于每个worker进程来说,独立的进程,不需要加锁,所以省掉了锁带来的开销,同时在编程以及查找问题时,也会方便很多。其实,采用独立的进程,可以让相互之间不会影响,一个进程推出后,其他进程还在工作,服务不会中断,master进程则很快启动新的worker进程。当然,worker进程的异常退出,肯定是程序有bug了,异常退出,会导致当前worker上的所有请求失败,不过不会影响到所有请求,所以降低了风险
2. 设置多少worker合适
1. 一般来说worker数和服务器的cpu数量相等最合适
3. worker_connection
1. 发送了一个请求,占用了worker的几个连接数?
1. 两个或四个
2. 静态资源两个,动态资源四个
2. worker支持的最大并发数?
1. worker支持的最大的连接数 worker数量*worker最大连接数/2或者4
emmm… linux上使用失败 老子去找windows上的教程