常用的Web集群调度器
目前常见的Web集群调度器分为软件和硬件。
软件集群调度器 |
说明 |
LVS |
基于内核的调度器,只支持四层负载均衡,性能最好,但是搭建相对复杂,支持对端口和URL进行检查 |
Nginx |
基于软件的调度器,支持四层和七层负载均衡,支持正则,upstream模块支持群集功能,但是对群集节点健康检查功能不强,只支持对端口的检查,高并发性能没有 Haproxy好 |
Haproxy |
基于软件的调度器,支持四层和七层负载均衡,支持正则,负载均衡性能次于LVS,优于nginx,支持端口、URI、脚本等多种检查方式 |
硬件一般使用比较多的是F5、Array,也有很多人使用国内的一些产品,如梭子鱼、绿盟等
Haproxy应用分析
LVS在企业应用中抗负载能力很强,但存在不足。
LVS不支持正则处理,不能实现动静分离
对于大型网站,LVS的实施配置复杂,维护成本相对较高
Haproxy是一款可提供高可用性、负载均衡、及基于TCP和HTTP应用的代理的软件
适合于负载大的Web站点
运行在硬件上可支持数以万计的并发连接的连接请求
HAProxy的主要特性
- 可靠性和稳定性非常好,可以与硬件级的F5负载均衡设备相媲美;
- 最高可以同时维护40000-50000个并发连接,单位时间内处理的最大请求数为20000个,最大处理能力可达10Git/s;
- 支持多达8种负载均衡算法
- 支持Session会话保持,Cookie的引导;
- 支持通过获取指定的url来检测后端服务器的状态;
- 支持虚机主机功能,从而实现web负载均衡更加灵活;
- 支持连接拒绝、全透明代理等独特的功能;
- 拥有强大的ACL支持,用于访问控制;
- 支持TCP和HTTP协议的负载均衡转发;
- 支持客户端的keepalive功能,减少客户端与haproxy的多次三次握手导致资源浪费,让多个请求在一个tcp连接中完成
Haproxy调度算法
常用的三种调度算法:
- RR(Round Robin) 轮询调度。当开启连接保持功能,可能长连接用户分配到同一台服务器上,会导致负载不均衡。
- LC(Least Connections)最小连接数算法。根据后端的节点连接数大小动态分配前端请求。相比较 rr 算法有很大改进,是目前用到比较多的一中算法。
- SH(Source Hashing)基于来源访问调度算法。用于一些有Session会话记录在服务器端的场景,可以基于来源的IP、Cookie等做集群调度。此调度算法好处是实现会话保持,但某些IP访问量非常大时会引起负载不均衡,部分节点访问量超大,影响业务使用。
其他算法:
- static-rr 加权轮询,根据权重进行分配。
- uri 根据请求的URI,做cdn缓存时需使用。
- url_param 根据请求的URI参数 'balance url_param' requires an URL parameter name
- hdr(name) name:头部名称。 根据HTTP请求头来锁定并哈希每一次TCP请求
- rdp-cookie(name) 根据cookie(name) 来锁定并哈希每一次TCP请求
LVS、Nginx、HAproxy的区别
- LVS基于Linux操作系统内核实现软负载均衡,而HAProxy和Nginx是基于第三方应用实现的软负载均衡;
- LVS是可实现4层的IP负载均衡技术,无法实现基于目录、URL的转发。而HAProxy和Nginx都可以实现4层和7层技术,HAProxy可提供TCP和HTTP应用的负载均衡综合解决方案;
- LVS因为工作在ISO模型的第四层,其状态监测功能单一,而HAProxy在状态监测方面功能更丰富、强大,可支持端口、URL、脚本等多种状态检测方式;
- HAProxy功能强大,单纯从效率上来讲HAProxy会比Nginx有更出色的负载均衡速度,在并发处理上也是优于Nginx的。但整体性能低于4层模式的LVS负载均衡;
- Nginx主要用于Web服务器或缓存服务器。Nginx的upstream模块虽然也支持群集功能,但是性能没有LVS和Haproxy好,对群集节点健康检查功能不强,只支持通过端口来检测,不支持通过URL来检测。
Haproxy配置文件
- global:用于配置全局参数
- default:用于配置所有frontend和backend的默认属性
- frontend:用于配置前端服务(即HAProxy自身提供的服务)实例
- backend:用于配置后端服务(即HAProxy后面接的服务)实例组
- listen:frontend + backend的组合配置,可以理解成更简洁的配置方法,frontend域和backend域中所有的配置都可以配置在listen域下
配置文件中参数含义
vim haproxy.cfg
global #全局配置,主要用于定义全局参数,属于进程级的配置,通常和操作系统配置有关
#将info(及以上)的日志发送到rsyslog的local0接口,将warning(及以上)的日志发送到rsyslog的local1接口
log 127.0.0.1 local0 info
log 127.0.0.1 local1 warning
maxconn 30000 #最大连接数,HAProxy 要求系统的 ulimit -n 参数大于 maxconn*2+18
#chroot /var/lib/haproxy #修改haproxy工作目录至指定目录,一般需将此行注释掉
pidfile /var/run/haproxy.pid #指定保存HAProxy进程号的文件
user haproxy #以指定的用户名身份运行haproxy进程
group haproxy #以指定的组名运行haproxy,以免因权限问题带来风险
daemon #让haproxy以守护进程的方式工作于后台
#nbproc 1 #指定启动的haproxy进程个数,只能用于守护进程模式的haproxy,默认只启动一个进程。haproxy是单进程、事件驱动模型的软件,单进程下工作效率已经非常好,不建议开启多进程
spread-checks 2 #在haproxy后端有着众多服务器的场景中,在精确的时间间隔后统一对众服务器进行健康状况检查可能会带来意外问题;此选项用于将其检查的时间间隔长度上增加或减小一定的随机时长;默认为0,官方建议设置为2到5之间。
defaults #配置默认参数,这些参数可以被用到listen,frontend,backend组件
log global #所有前端都默认使用global中的日志配置
mode http #模式为http(7层代理http,4层代理tcp)
option http-keep-alive #使用keepAlive连接,后端为静态建议使用http-keep-alive,后端为动态应用程序建议使用http-server-close
option forwardfor #记录客户端IP在X-Forwarded-For头域中,haproxy将在发往后端的请求中加上"X-Forwarded-For"首部字段
option httplog #开启httplog,在日志中记录http请求、session信息等。http模式时开启httplog,tcp模式时开启tcplog
option dontlognull #不在日志中记录空连接
option redispatch #当某后端down掉使得haproxy无法转发携带cookie的请求到该后端时,将其转发到别的后端上
option abortonclose #当服务器负载很高的时候,自动结束掉当前队列处理比较久的链接
maxconn 20000 #最大连接数,“defaults”中的值不能超过“global”段中的定义
retries 3 #定义连接后端服务器的失败重连次数,连接失败次数超过此值后会将对应后端服务器标记为不可用
#contimeout 5000 #设置连接超时时间,默认单位是毫秒
#clitimeout 50000 #设置客户端超时时间,默认单位是毫秒
#srvtimeout 50000 #设置服务器超时时间,默认单位是毫秒
timeout http-request 2s #默认http请求超时时间,此为等待客户端发送完整请求的最大时长,用于避免类DoS攻击。haproxy总是要求一次请求或响应全部发送完成后才会处理、转发
timeout queue 3s #默认客户端请求在队列中的最大时长
timeout connect 1s #默认haproxy和服务端建立连接的最大时长,新版本中替代contimeout,该参数向后兼容
timeout client 10s #默认和客户端保持空闲连接的超时时长,在高并发下可稍微短一点,可设置为10秒以尽快释放连接,新版本中替代clitimeout
timeout server 2s #默认和服务端保持空闲连接的超时时长,局域网内建立连接很快,所以尽量设置短一些,特别是高并发时,新版本中替代srvtimeout
timeout http-keep-alive 10s #默认和客户端保持长连接的最大时长。优先级高于timeout http-request 也高于timeout client
timeout check 2s #和后端服务器成功建立连接后到最终完成检查的最大时长(不包括建立连接的时间,只是读取到检查结果的时长)
部署Haproxy服务
Haproxy服务器:192.168.47.100
节点服务器1:192.168.47.30
节点服务器2:192.168.47.50
客户端:192.168.47.120
配置HAproxy服务器
#关闭防火墙,安装haproxy
systemctl stop firewalld
setenforce 0
yum -y install haproxy
vim /etc/haproxy/haproxy.cfg
修改
frontend http-in #定义前端域
#设置监听地址和端口,指定为*或0.0.0.0时,将监听当前系统的所有IPv4地址
bind *:80
#定义ACL,当uri以定义的路径开头时,ACL[url_static]为true
acl url_static path_beg -i /static /images /javascript /stylesheets
#定义ACL,当uri以定义的路径结尾时,ACL[url_static]为true
acl url_static path_end -i .jpg .gif .png .css .js
#当[url_static]为true时,定向到后端域 static_backend 中
use_backend static_backend if url_static
#其他情况时,定向到后端域 dynamic_backend 中
default_backend dynamic_backend
backend static_backend #定义后端域 static_backend
balance roundrobin #使用轮询算法
表示基于http协议来做健康状况检查,只有返回状态码为2xx或3xx的才认为是健康的,其余所有状态码都认为不健康。不设置该选项时,默认采用tcp做健康检查,只要能建立tcp就表示健康。
option httpchk GET /test.html
server instl 192.168.47.30:80 check inter 2000 rise 2 fall 3
server inst2 192.168.47.50:80 check inter 2000 rise 2 fall 3 inter 2000 rise 2 fall 3是默认值,可以省略
backend dynamic_backend #定义后端域 dynamic_backend
balance roundrobin
option http-server-close
#cookie HA_STICKY_dy insert indirect nocache #取消注释,开启会话保持
server app1 192.168.47.30:8080 check cookie appser1 check
server app2 192.168.47.50:8080 check cookie appser2 check
listen stats #定义监控页面
bind *:1080 #绑定端口1080
stats enable #启用统计报告监控
stats refresh 30s #每30秒更新监控数据
stats uri /stats #访问监控页面的uri
stats realm HAProxy\ Stats #监控页面的认证提示
stats auth admin:admin #监控页面的用户名和密码
systemctl restart haproxy
配置节点服务器静态页面
systemctl stop firewalld
setenforce 0
yum -y install httpd
cd /var/www/html
mkdir static
echo 'this is web30' > static/index.html #节点服务器1 静态页面
echo 'this is web50' > static/index.html #节点服务器2 静态页面
echo '123' > test.html
systemctl restart httpd
配置节点服务器的动态页面
将tomcat软件包上传到/opt 目录下
apache-tomcat-9.0.16.tar.gz
cd /opt
tar xf apache-tomcat-9.0.16.tar.gz
mv apache-tomcat-9.0.16 /usr/local/tomcat
cd /usr/local/tomcat/webapps/
mkdir test
echo '<h1>this is tomcat1 jsp web</h1>' > test/index.jsp #节点服务器2 动态页面
echo '<h1>this is tomcat2 jsp web</h1>' > test/index.jsp #节点服务器1 动态页面
cd /usr/local/tomcat/bin
./startup.sh
访问测试
静态页面测试
测试静态页面:
在客户端使用浏览器打开 http://192.168.47.100/static/index.html ,不断刷新浏览器测试负载均衡效果
动态页面测试
测试动态页面:
在客户端使用浏览器打开 http://192.168.47.100/test/index.jsp ,不断刷新浏览器测试负载均衡效果
访问一下监控页面 http://192.168.47.100:1080/stats 并提示输入用户名密码 admin/admin