Nginx快速入门

本文详细介绍了Nginx的用途,包括作为高性能HTTP服务器、反向代理和正向代理,以及如何实现负载均衡。讲解了Nginx的安装过程,强调了其在处理并发请求和优化性能方面的优势。同时,讨论了动静分离的概念,以及如何通过Nginx实现。此外,还展示了如何通过配置实现反向代理,将请求转发到不同端口的服务,并通过负载均衡策略确保高可用性。最后,探讨了Nginx的优化参数,如worker_processes和worker_connections,以提升服务器性能。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Nginx 简介

Nginx 概述

Nginx (“engine x”) 是一个高性能的 HTTP 和反向代理服务器,特点是占有内存少,并发能 力强,事实上 nginx 的并发能力确实在同类型的网页服务器中表现较好,中国大陆使用 nginx 网站用户有:百度、京东、新浪、网易、腾讯、淘宝等。

Nginx作为web服务器

Nginx 可以作为静态页面的 web 服务器,同时还支持 CGI 协议的动态语言,比如 perl、php 等。但是不支持 java。Java 程序只能通过与 tomcat 配合完成。Nginx 专为性能优化而开发, 性能是其最重要的考量,实现上非常注重效率 ,能经受高负载的考验,有报告表明能支持高 达 50,000 个并发连接数。 https://lnmp.org/nginx.html

正向代理

Nginx 不仅可以做反向代理,实现负载均衡。还能用作正向代理来进行上网等功能。

正向代理:如果把局域网外的 Internet 想象成一个巨大的资源库,则局域网中的客户端要访 问 Internet,则需要通过代理服务器来访问,这种代理服务就称为正向代理.

代理的是客户端,别人无法查看真实的客户端ip

反向代理

反向代理,其实客户端对代理是无感知的,因为客户端不需要任何配置就可以访问,我们只 需要将请求发送到反向代理服务器,由反向代理服务器去选择目标服务器获取数据后,在返 回给客户端,此时反向代理服务器和目标服务器对外就是一个服务器,暴露的是代理服务器 地址,隐藏了真实服务器 IP 地址。

反向代理: 反向代理服务器与真实要访问的服务器可以看作是一个服务器,因为客户端访问到反向代理服务器时,由代理服务器自动访问真实的服务器。

代理的是真实服务器,别人无法查看真实的服务器ip

负载均衡

客户端发送多个请求到服务器,服务器处理请求,有一些可能要与数据库进行交互,服 务器处理完毕后,再将结果返回给客户端。

这种架构模式对于早期的系统相对单一,并发请求相对较少的情况下是比较适合的,成 本也低。但是随着信息数量的不断增长,访问量和数据量的飞速增长,以及系统业务的复杂 度增加,这种架构会造成服务器相应客户端的请求日益缓慢,并发量特别大的时候,还容易 造成服务器直接崩溃。很明显这是由于服务器性能的瓶颈造成的问题,那么如何解决这种情 况呢?

我们首先想到的可能是升级服务器的配置,比如提高 CPU 执行频率,加大内存等提高机 器的物理性能来解决此问题,但是我们知道摩尔定律的日益失效,硬件的性能提升已经不能 满足日益提升的需求了。最明显的一个例子,天猫双十一当天,某个热销商品的瞬时访问量 是极其庞大的,那么类似上面的系统架构,将机器都增加到现有的顶级物理配置,都是不能 够满足需求的。那么怎么办呢?

上面的分析我们去掉了增加服务器物理配置来解决问题的办法,也就是说纵向解决问题 的办法行不通了,那么横向增加服务器的数量呢?这时候集群的概念产生了,单个服务器解 决不了,我们增加服务器的数量,然后将请求分发到各个服务器上,将原先请求集中到单个服务器上的情况改为将请求分发到多个服务器上,将负载分发到不同的服务器,也就是我们 所说的负载均

动静分离

为了加快网站的解析速度,可以把动态页面和静态页面由不同的服务器来解析,加快解析速 度。降低原来单个服务器的压力。

在这里插入图片描述

Nginx 安装

nginx下载

官网地址: http://nginx.org

在这里插入图片描述

安装 nginx

Nginx是C语言开发,建议在linux上运行,本教程使用Centos7.0作为安装环境.

  • gcc
    安装nginx需要先将官网下载的源码进行编译,编译依赖gcc环境,如果没有gcc环境,需要安装gcc
    需要执行的命令:yum install gcc-c++
  • PCRE
    PCRE(Perl Compatible Regular Expressions)是一个Perl库,包括 perl 兼容的正则表达式库。nginx的http模块使用pcre来解析正则表达式,所以需要在linux上安装pcre库。
    需要执行的命令:yum install -y pcre pcre-devel
  • zlib
    zlib库提供了很多种压缩和解压缩的方式,nginx使用zlib对http包的内容进行gzip,所以需要在linux上安装zlib库。
    需要运行的命令:yum install -y zlib zlib-devel
  • openssl
    OpenSSL 是一个强大的安全套接字层密码库,囊括主要的密码算法、常用的密钥和证书封装管理功能及SSL协议,并提供丰富的应用程序供测试或其它目的使用。
    nginx不仅支持http协议,还支持https(即在ssl协议上传输http),所以需要在linux安装openssl库。
    需要运行的命令:yum install -y openssl openssl-devel

编译安装

解压

进入到压缩包所在位置

使用命令:tar -zxvf nginx-1.8.0.tar.gz,将Nginx进行解压.

配置configure

在Nginx目录下运行如下命令:

./configure

编译安装

make && make install

配置环境变量

打开系统环境变量设置:

vim /etc/profile

在末尾添加 :

NGINX_HOME=/usr/local/nginx

export PATH=$ {NGINX_HOME}/sbin:$ {PATH} (去掉$后的空格)

使设置生效: source /etc/profile

运行Nginx

  • 进入到 sbin目录下执行 ./nginx 命令

  • 查看进程 ps -ef|grep nginx

  • 测试nginx是否运行成功

    • Nginx的端口是80,所以在浏览器上运行http:[linux的ip地址]即可

nginx 常用的命令和配置文件

nginx 常用的命令

使用nginx操作命令必须要进入到nginx的sbin目录下

/usr/local/nginx/sbin

  • 查看nginx的版本号

    nginx -v

  • 启动nginx

    nginx

  • 关闭nginx

    nginx -s stop

  • 重新加载nginx

    nginx -s reload

nginx.conf 配置文件

位置:usr/local/nginx/conf/

在这里插入图片描述

nginx配置文件组成

nginx.conf 配置文件分为三部分:

  • 全局块:

    从配置文件开始到 events 块之间的内容,主要会设置一些影响 nginx 服务器整体运行的配置指令,主要包括配 置运行 Nginx 服务器的用户(组)、允许生成的 worker process 数,进程 PID 存放路径、日志存放路径和类型以 及配置文件的引入等。

    work_processes  1;
    

    这是 Nginx 服务器并发处理服务的关键配置,worker_processes 值越大,可以支持的并发处理量也越多,但是 会受到硬件、软件等设备的制约

  • events块

    events{
    	worker_connections 1024;
    }
    

    events 块涉及的指令主要影响 Nginx 服务器与用户的网络连接,常用的设置包括是否开启对多 work process 下的网络连接进行序列化,是否允许同时接收多个网络连接,选取哪种事件驱动模型来处理连接请求,每个 word process 可以同时支持的最大连接数等。

    上述例子就表示每个 work process 支持的最大连接数为 1024.

    这部分的配置对 Nginx 的性能影响较大,在实际中应该灵活配置。

  • http块:

    这算是 Nginx 服务器配置中最频繁的部分,代理、缓存和日志定义等绝大多数功能和第三方模块的配置都在这里。 需要注意的是:http 块也可以包括 http 全局块、server 块。

    • http全局块:

      http 全局块配置的指令包括文件引入、MIME-TYPE 定义、日志自定义、连接超时时间、单链接请求数上限等。

    • server块

      这块和虚拟主机有密切关系,虚拟主机从用户角度看,和一台独立的硬件主机是完全一样的,该技术的产生是为了 节省互联网服务器硬件成本。

      每个 http 块可以包括多个 server 块,而每个 server 块就相当于一个虚拟主机。

      而每个 server 块也分为全局 server 块,以及可以同时包含多个 locaton 块。

      • 全局server块

        最常见的配置是本虚拟机主机的监听配置和本虚拟主机的名称或 IP 配置。

      • location块

        一个 server 块可以配置多个 location 块。

        这块的主要作用是基于 Nginx 服务器接收到的请求字符串(例如 server_name/uri-string),对虚拟主机名称 (也可以是 IP 别名)之外的字符串(例如 前面的 /uri-string)进行匹配,对特定的请求进行处理。地址定向、数据缓 存和应答控制等功能,还有许多第三方模块的配置也在这里进行。

反向代理

实现效果:使用 nginx 反向代理,访问 linux的ip地址直接跳转到 127.0.0.1:8080

实例一

  1. 在linux系统中启动tomcat

    访问linux的8080端口是tomcat的初始页面

    在这里插入图片描述

  2. 修改nginx的配置文件

    在这里插入图片描述

    server_name 监听的ip地址

    在location{}中添加 proxy_pass http://127.0.0.1:8080; 既是要跳转的地址

    保存退出

  3. 打开nginx服务

这样 访问ip的时候不加端口号时,默认为80端口,故访问该ip时会跳转到127.0.0.1:8080路径上

实例二

实现效果:使用 nginx 反向代理,根据访问的路径跳转到不同端口的服务中

nginx 监听端口为 9001

访问 ip:9001/edu/ 直接跳转到 127.0.0.1:8081

访问 ip:9001/vod/ 直接跳转到 127.0.0.1:8082

第一步,准备两个 tomcat,一个 8080 端口,一个 8081 端口,并准备好测试的页面

第二步,修改 nginx 的配置文件

在 http 块中添加 server{}

server{
	listen         9001;
	server_name    主机ip;
	
	location ~ /edu/{
		proxy_pass http://127.0.0.1:8080;
	}
	location ~ /vod/{
		proxy_pass http://ip:8081;
	}
}

达到预期效果:

  • 访问ip:9001/edu/a.html 转到 8080端口的tomcat
  • 访问ip:9001/vod/a.html 转到 8081端口的tomcat

注意: 在8080端口的tomcat和8081端口的tomcat项目路径中必须存在edu和vod项目

location语法详解

语法规则: location [=|~|~*|^~] /uri/ { … }

  • = 开头表示精确匹配
  • ^~ 开头表示uri以某个常规字符串开头,理解为匹配 url路径即可。nginx不对url做编码,因此请求为/static/20%/aa,可以被规则^~ /static/ /aa匹配到(注意是空格)。以xx开头
  • ~ 开头表示区分大小写的正则匹配 以xx结尾
  • ~* 开头表示不区分大小写的正则匹配 以xx结尾
  • !~!~*分别为区分大小写不匹配及不区分大小写不匹配 的正则
  • / 通用匹配,任何请求都会匹配到。

负载均衡

实现效果:

浏览器地址栏输入地址 http://ip/edu/a.html,负载均衡效果,平均 8080 和 8081 端口中

准备工作:

准备两台 tomcat 服务器,一台 8080,一台 8081

在两台 tomcat 里面 webapps 目录中,创建名称是 edu 文件夹,在 edu 文件夹中创建 页面 a.html,用于测试

在 nginx 的配置文件中进行负载均衡的配置:

在http块下 添加 upstream myserver{}块 并修改 server{}块下的location{}块

在这里插入图片描述

nginx分配服务器策略:

第一种 轮询(默认) 每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器 down 掉,能自动剔除。

第二种 weight weight 代表权重默认为 1,权重越高被分配的客户端越多

第三种 ip_hash 每个请求按访问 ip 的 hash 结果分配,这样每个访客固定访问一个后端服务器

第四种 fair(第三方) 按后端服务器的响应时间来分配请求,响应时间短的优先分配。

动静分离

概述

Nginx 动静分离简单来说就是把动态跟静态请求分开,不能理解成只是单纯的把动态页面和 静态页面物理分离。严格意义上说应该是动态请求跟静态请求分开,可以理解成使用 Nginx 处理静态页面,Tomcat 处理动态页面。动静分离从目前实现角度来讲大致分为两种.

一种是纯粹把静态文件独立成单独的域名,放在独立的服务器上,也是目前主流推崇的方案;

另外一种方法就是动态跟静态文件混合在一起发布,通过 nginx 来分开。

通过 location 指定不同的后缀名实现不同的请求转发。通过 expires 参数设置,可以使 浏览器缓存过期时间,减少与服务器之前的请求和流量。具体 Expires 定义:是给一个资 源设定一个过期时间,也就是说无需去服务端验证,直接通过浏览器自身确认是否过期即可, 所以不会产生额外的流量。此种方法非常适合不经常变动的资源。(如果经常更新的文件, 不建议使用 Expires 来缓存),我这里设置 3d,表示在这 3 天之内访问这个 URL,发送 一个请求,比对服务器该文件最后更新时间没有变化,则不会从服务器抓取,返回状态码 304,如果有修改,则直接从服务器重新下载,返回状态码 200。

实验

准备工作:

在linux系统中准备静态资源,用于进行访问

在这里插入图片描述

具体配置:

在这里插入图片描述

配置高可用的集群

当一个nginx服务器宕机时,有备用的nginx服务器代替

Keepalived+Nginx 高可用集群(主从模式):

在这里插入图片描述

使用 Keepalived 的虚拟ip绑定两台nginx的ip

正常访问 Keepalived 的虚拟ip , 可访问到主服务器.

当主服务宕机时, 访问 Keepalived 的虚拟ip,可访问到备用服务器

完成高可用配置(主从配置):

  • 修改/etc/keepalived/keepalivec.conf 配置文件

    global_defs {
     notification_email {
     acassen@firewall.loc
     failover@firewall.loc
     sysadmin@firewall.loc
     }
     notification_email_from Alexandre.Cassen@firewall.loc
     smtp_server 192.168.17.129
     smtp_connect_timeout 30
     router_id LVS_DEVEL
    }
    vrrp_script chk_http_port {
     script "/usr/local/src/nginx_check.sh"
     interval 2 #(检测脚本执行的间隔)
     weight 2
    }
    vrrp_instance VI_1 {
     state BACKUP # 备份服务器上将 MASTER 改为 BACKUP 
     interface ens33 //网卡
     virtual_router_id 51 # 主、备机的 virtual_router_id 必须相同
     priority 90 # 主、备机取不同的优先级,主机值较大,备份机值较小
     advert_int 1
     authentication {
     auth_type PASS
     auth_pass 1111
     }
     virtual_ipaddress {
     192.168.17.50 // VRRP H 虚拟地址
     }
    }
    
  • 在/usr/local/src 添加检测脚本

    #!/bin/bash
    A=`ps -C nginx –no-header |wc -l`
    if [ $A -eq 0 ];then
     /usr/local/nginx/sbin/nginx
     sleep 2
     if [ `ps -C nginx --no-header |wc -l` -eq 0 ];then
     killall keepalived
     fi
    fi
    
  • 把两台服务器上 nginx 和 keepalived 启动 启动 nginx:./nginx 启动 keepalived:systemctl start keepalived.service

nginx 原理与优化参数配置

在这里插入图片描述

在这里插入图片描述

master-workers 的机制的好处

首先,对于每个 worker 进程来说,独立的进程,不需要加锁,所以省掉了锁带来的开销, 同时在编程以及问题查找时,也会方便很多。其次,采用独立的进程,可以让互相之间不会 影响,一个进程退出后,其它进程还在工作,服务不会中断,master 进程则很快启动新的 worker 进程。当然,worker 进程的异常退出,肯定是程序有 bug 了,异常退出,会导致当 前 worker 上的所有请求失败,不过不会影响到所有请求,所以降低了风险。

需要设置多少个 worker

Nginx 同 redis 类似都采用了 io 多路复用机制,每个 worker 都是一个独立的进程,但每个进 程里只有一个主线程,通过异步非阻塞的方式来处理请求, 即使是千上万个请求也不在话 下。每个 worker 的线程可以把一个 cpu 的性能发挥到极致。所以 worker 数和服务器的 cpu 数相等是最为适宜的。设少了会浪费 cpu,设多了会造成 cpu 频繁切换上下文带来的损耗。

#设置 worker 数量

worker_processes 4

#work 绑定 cpu(4 work 绑定 4cpu)。

worker_cpu_affinity 0001 0010 0100 1000

#work 绑定 cpu (4 work 绑定 8cpu 中的 4 个) 。

worker_cpu_affinity 0000001 00000010 00000100 00001000

连接数 worker_connection

这个值是表示每个 worker 进程所能建立连接的最大值,所以,一个 nginx 能建立的最大连接 数,应该是 worker_connections * worker_processes。当然,这里说的是最大连接数,对于 HTTP 请 求 本 地 资 源 来 说 , 能 够 支 持 的 最 大 并 发 数 量 是 worker_connections * worker_processes,如果是支持 http1.1 的浏览器每次访问要占两个连接,所以普通的静态访 问最大并发数是: worker_connections * worker_processes /2,而如果是 HTTP 作 为反向代 理来说,最大并发数量应该是 worker_connections *

worker_processes/4。因为作为反向代理服务器,每个并发会建立与客户端的连接和与后端服 务的连接,会占用两个连接。

ection

这个值是表示每个 worker 进程所能建立连接的最大值,所以,一个 nginx 能建立的最大连接 数,应该是 worker_connections * worker_processes。当然,这里说的是最大连接数,对于 HTTP 请 求 本 地 资 源 来 说 , 能 够 支 持 的 最 大 并 发 数 量 是 worker_connections * worker_processes,如果是支持 http1.1 的浏览器每次访问要占两个连接,所以普通的静态访 问最大并发数是: worker_connections * worker_processes /2,而如果是 HTTP 作 为反向代 理来说,最大并发数量应该是 worker_connections *

worker_processes/4。因为作为反向代理服务器,每个并发会建立与客户端的连接和与后端服 务的连接,会占用两个连接。

在这里插入图片描述

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值