Nginx服务器
一 . Nginx和Zuul的区别
相同点:
1) 可以实现负载均衡 (Zuul使用的是Ribbon实现负载均衡)
2) 可以实现反向代理 (即隐藏真实ip地址)
3) 可以过滤请求,实现网关路由的效果
4) Nginx可以实现动静分离
不同点:
1) 网关Zull是Java语言编写 , Nginx是C语言编写
2) Nginx在服务器端实现负载均衡 , Zull利用Ribbon+Eureka,在客户端本地实现负载均衡。
3) Nginx相比Zuul功能会更加强大,因为Nginx整合一些脚本语言( Nginx + lua )
4) Nginc 是一个高性能的HTTP 和反向代理服务器, 也是一个 IMAP / POP3 /SMIP 服务器. Zuul是 Spring Cloud Netflix 中的开源的一个 API Gateway 服务器,本质上是一个web servlet 应用, 提供动态路由,监控,弹性,安全等边缘服务的框架. Zuul 相当于是设备和Netflix 流应用的Web 网站后端所有请求的前门
负载均衡的实现
Nginx:所有客户端请求交给Nginx进行负载均衡请求转发,是在服务器实现的;
Zuul:客户端从Eureka服务注册中心获得服务注册信息列表,缓存到本地,在客户端本地实现轮询负载均衡策略
二 . Nginx和keepalived搭建实现高可用环境
1. Nginx下动态文件配置—实现负载均衡(.conf文件夹下配置)
1)设定负载均衡的服务器列表(在upstream myapp节点下配置服务器节点IP及端口号信息)
2)在Nginx服务的配置文件中.conf文件下找到server服务节点配置(实现负载均衡反向配置proxy_pass http://myapp)
2.Nginx和keepalived组合搭建高可用环境(为防止Nginx服务器挂掉所有服务不可用)
1)图解
2)高可用配置
部署Nginx集群, 设置主从模式(Nginx服务器都设置一虚拟IP地址,供用户访问请求), 在每台Nginx服务器中都配置一台keepalived服务器,若当前主Nginx服务器挂掉,keepalived服务器自动杀死自己(每台都一样自杀),此时的虚拟IP自动飘到从Nginx服务器中, 用户再次访问走的是从Nginx服务器,实现高可用.
3)keepalived.conf配置文件修改
由于每台Nginx服务器中都配置了Keepalived服务器了,所以要修改keepalived配置文件中的节点信息(要和当前所在的Nginx服务器IP保持一致)
主Nginx服务器
主节点IP为当前Nginx服务器的IP
主要修改主节点IP配置信息 : unicast_src_ip 192.168.122.133
设置优先级,确保主节点的优先级高过其他备用的从节点(priority属性)
从Nginx服务器
主节点IP为当前从Nginx服务器的IP
主节点IP配置信息修改 : unicast_src_ip 192.168.122.134
总结
Nginx适合于在服务器实现负载均衡,比如Tomcat;
Ribbon适合于微服务中RPC远程服务调用在本地实现负载均衡,比如Dubbo、SpringCloud都是本地负载均衡;
Nginx服务器配置文件(.conf配置文件内容)
#user nobody;
#开启进程数 <=CPU数
worker_processes 1;
#错误日志保存位置
#error_log logs/error.log;
#error_log logs/error.log notice;
#error_log logs/error.log info;
#进程号保存文件
#pid logs/nginx.pid;
#每个进程最大连接数(最大连接=连接数x进程数)每个worker允许同时产生多少个链接,默认1024
events {
worker_connections 1024;
}
http {
#文件扩展名与文件类型映射表
include mime.types;
#默认文件类型
default_type application/octet-stream;
#日志文件输出格式 这个位置相于全局设置
log_format main '$remote_addr - $remote_user [$time_local] "$request" '
'$status $body_bytes_sent "$http_referer" '
'"$http_user_agent" "$http_x_forwarded_for"';
#请求日志保存位置
#access_log logs/access.log main;
#打开发送文件
sendfile on;
#tcp_nopush on;
#keepalive_timeout 0;
#连接超时时间
keepalive_timeout 65;
#打开gzip压缩
#gzip on;
#设定请求缓冲
#client_header_buffer_size 1k;
#large_client_header_buffers 4 4k;
#设定负载均衡的服务器列表
#upstream myproject {
#weigth参数表示权值,权值越高被分配到的几率越大
#max_fails 当有#max_fails个请求失败,就表示后端的服务器不可用,默认为1,将其设置为0可以关闭检查
#fail_timeout 在以后的#fail_timeout时间内nginx不会再把请求发往已检查出标记为不可用的服务器
#}
#webapp(两台服务器的ip地址及端口号设置)
upstream myapp {
#weight权重,权重越大,请求本台服务器的几率越高;max_fails重试次数,请求访问失败,30秒后自动重试访问
server 192.168.122.133:8081 weight=1 max_fails=2 fail_timeout=30s;
server 192.168.122.134:8082 weight=1 max_fails=2 fail_timeout=30s;
}
#配置虚拟主机,基于域名、ip和端口
server {
#监听端口
listen 80;
#监听域名
server_name localhost;
#charset koi8-r;
#nginx访问日志放在logs/host.access.log下,并且使用main格式(还可以自定义格式)
#access_log logs/host.access.log main;
#返回的相应文件地址
location / {
#设置客户端真实ip地址
proxy_set_header X-real-ip $remote_addr;
#负载均衡反向代理
proxy_pass http://myapp;
#返回根路径地址(相对路径:相对于/usr/local/nginx/)
root html;
#默认访问文件
index index.html index.htm;
}
#配置反向代理tomcat服务器:拦截.jsp结尾的请求转向到tomcat
#location ~ \.jsp$ {
# proxy_pass http://192.168.122.133:8080;
#}
#error_page 404 /404.html;
# redirect server error pages to the static page /50x.html
#
#错误页面及其返回地址
error_page 500 502 503 504 /50x.html;
location = /50x.html {
root html;
}
# proxy the PHP scripts to Apache listening on 127.0.0.1:80
#
#location ~ \.php$ {
# proxy_pass http://127.0.0.1;
#}
# pass the PHP scripts to FastCGI server listening on 127.0.0.1:9000
#
#location ~ \.php$ {
# root html;
# fastcgi_pass 127.0.0.1:9000;
# fastcgi_index index.php;
# fastcgi_param SCRIPT_FILENAME /scripts$fastcgi_script_name;
# include fastcgi_params;
#}
# deny access to .htaccess files, if Apache's document root
# concurs with nginx's one
#
#location ~ /\.ht {
# deny all;
#}
}
#虚拟主机配置:
server {
listen 1234;
server_name wolfcode.cn;
location / {
#正则表达式匹配uri方式:在/usr/local/nginx/wolfcode.cn下 建立一个test123.html 然后使用正则匹配
#location ~ test {
## 重写语法:if return (条件 = ~ ~*)
#if ($remote_addr = 192.168.122.1) {
# return 401;
#}
#if ($http_user_agent ~* firefox) {
# rewrite ^.*$ /firefox.html;
# break;
#}
root wolfcode.cn;
index index.html;
}
#location /goods {
# rewrite "goods-(\d{1,5})\.html" /goods-ctrl.html;
# root wolfcode.cn;
# index index.html;
#}
#配置访问日志
access_log logs/wolfcode.cn.access.log main;
}
# another virtual host using mix of IP-, name-, and port-based configuration
#
#server {
# listen 8000;
# listen somename:8080;
# server_name somename alias another.alias;
# location / {
# root html;
# index index.html index.htm;
# }
#}
# HTTPS server
#
#server {
# listen 443 ssl;
# server_name localhost;
# ssl_certificate cert.pem;
# ssl_certificate_key cert.key;
# ssl_session_cache shared:SSL:1m;
# ssl_session_timeout 5m;
# ssl_ciphers HIGH:!aNULL:!MD5;
# ssl_prefer_server_ciphers on;
# location / {
# root html;
# index index.html index.htm;
# }
#}
}
keepalived.conf配置文件
! Configuration File for keepalived
global_defs {
router_id wolfcode ##路由器标志
}
# 集群资源监控,组合track_script进行
vrrp_script check_haproxy {
script "/etc/keepalived/nginx_check.sh" #检测 nginx 状态的脚本路径
interval 2 #检测时间间隔
weight -20 #条件成立 权重减20
}
vrrp_instance PROXY {
# 设置当前主机为主节点,如果是备用节点,则设置为BACKUP
state MASTER
# 指定HA监测网络接口,可以用ifconfig查看来决定设置哪一个
interface ens32
# 虚拟路由标识,同一个VRRP实例要使用同一个标识,主备机
virtual_router_id 80
# 因为当前环境中VRRP组播有问题,改为使用单播发送VRRP报文 如果VRRP组播没问题,以下这块的内容可以注释掉。
# 这个地方需要关注,之前未做此设置,结果主备节点互相不能发现,因此主备节点都升级成了MASTER,并且绑定了VIP
# 主节点时,内容为:
unicast_src_ip 192.168.122.133
# 设置优先级,确保主节点的优先级高过备用节点
priority 100
# 用于设定主备节点间同步检查时间间隔
advert_int 2
# 设置主备节点间的通信验证类型及密码,同一个VRRP实例中需一致
authentication {
auth_type PASS
auth_pass wolfcode
}
# 集群资源监控,组合vrrp_script进行
track_script {
check_haproxy
}
# 设置虚拟IP地址,当keepalived状态切换为MASTER时,此IP会自动添加到系统中
# 当状态切换到BACKUP时,此IP会自动从系统中删除
# 可以通过命令ip add查看切换后的状态
virtual_ipaddress {
192.168.122.110 #虚拟ip配置完之后就用它访问
}
}