LVS——DR模式(负载均衡)

本文详细介绍了LVS-DR(Direct Routing)模式的工作原理和配置过程。DR模式通过改写请求报文的MAC地址,实现负载均衡,要求调度器与真实服务器在同一物理网段。内容涵盖了DR模式的配置参数,如何配置LVS负载均衡服务器,以及解决服务器之间MAC地址绑定问题的方法,强调了DR模式在高并发场景下的高效性和网络环境的限制。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1. DR模式(直接路由模式:Virtual Server via Direct Routing) 

  DR模式是通过改写请求报文的目标MAC地址,将请求发给真实服务器的,而真实服务器响应后的处理结果直接返回给客户端用户。同TUN模式一样,DR模式可以极大的提高集群系统的伸缩性。而且DR模式没有IP隧道的开销,对集群中的真实服务器也没有必要必须支持IP隧道协议的要求。但是要求度器LB与真实服务器RS都有一块网卡连接到同一物理网段上,必须在同一个局域网环境DR模式是互联网使用比较多的一种模式。

DR模式原理图:

                                                

DR模式原理过程简述:

    如下图:当客户端请求VIP时,会将请求先发给Director(调度器),调度器发现请求的是一组集群服务,根据调度算法将这一请求转发给RealServer,注意在转发的过程中,仅仅是修改了数据报文中的MAC地址,所以这也是为什么我们要求DR和RS必须在同一个物理网络内,就是为了保证可以通过修改MAC地址而进行数据报文的转发。当RealServer处理请求,响应数据,发送响应数据给客户端,按理说此时的数据包的源IP为RIP,目标IP为CIP,虽然能找到客户端,但是客户端是不收该数据包的,因为并没有请求该RIP ,现在的做法就是进行IP欺骗,即就是修改源 IP 为 VIP,但是不可以将VIP设置在出口网卡上,否则会响应客户端的arp request,造成client/gateway arp table紊乱,以至于整个load balance都不能正常工作。要在lo接口上配置VIP,并将此 VIP 屏蔽,但是出去时候的数据包被路由转换,转换后的 IP不再是 VIP,所以要重新设置路由。

  另外关于各服务器网络的配置,首先每个服务有一个独立网卡即可。在DR上将DIP配置eth0上,将VIP配置在网络别名上,这样是为了以后调度器做高可用方便VIP做IP地址飘移。在各RS上同样需要配置好VIP,这样个RS就可以直接响应Client,而不需要再经过DR,但是一个物理网络之内是不允许有多个同名IP的,所以需要修改RS的内核参数,并且将VIP配置在LO上,让其保留VIP但是不允许对外进行广播,这样从RS出去的报文源地址就是VIP,当然这需要从真实的物理网卡出去,所以必须加一条路由,让访问VIP的数据包请求,对其响应的是配置了VIP的网卡,这样响应出去的报文源地址就是VIP,可以被Client接受。

2. LVS-DR的配置参数 

                             

       在如上图的VS/DR应用模型中(所有机器都在同一个物理网络),所有机器(包括Director和RealServer)都使用了一个额外的IP地址,即VIP。

  当一个客户端向VIP发出一个连接请求时,此请求必须要连接至Director的VIP,而不能是RealServer的,因为LVS的主要目标就是要Director负责调度这些连接请求至RealServer的。因此,在Client发出至VIP的连接请求后,只能由Director将其MAC地址响应给客户端(也可能是直接与Director连接的路由设备),而Director则会相应的更新其ipvsadm table以追踪此连接,而后将其转发至后端的RealServer之一。

3. 配置一台LVS负载均衡服务器

实验环境:

                          

实验步骤:

server1主机上:

1、搜索并下载ipvsadm

yum search ipvsadm     ###搜索包,企业6需要去配置,但企业7直接有,可以用
yum install ipvsadm.x86_64 -y    ####安装

注意:企业七版本可以直接下载,但企业六会发现报错,原因是因为yum源中没有ipvs的包,会出现No package ipvsadm available错误,这时需要安装去策略的编辑工具,这个工具不用在官网下载,他是linux系统自带的只是没有在内核中,但在镜像中可以找到,将他写进yum仓库中直接下载即可,可以在镜像挂载点找到安装包,并且要写enabled=1,否则之后的安装可能会有问题

2、查看策略和服务状态,并开启服务,如下所示:

   ipvsadm -l           ###查看策略
   systemctl status ipvsadm.service   ###查看ipvsadm的状态,此时应该是关着的
   systemctl start ipvsadm.service        ###开启服务,发现报错

通过查看文件的相关设定和日志,我们可以知道这是因为缺少文件/etc/sysconfig/ipvsadm,创建此文件,在次重启发现可以重启,如下所示:

  vim /usr/lib/systemd/system/ipvsadm.service  ###查看此文件,便于知道一些设置
  vim /var/log/messages        ###查看重启不原因
  touch /etc/sysconfig/ipvsadm    ##建文件
  systemctl start ipvsadm.service    ##开启服务
  systemctl status ipvsadm.service    ###查看状态,此时状态是开着的

 

3、进入文件下修改18行为yes,如下所示:

vim /etc/sysconfig/ipvsadm-config     ##进入此文件修改,将18行改为yes

4、添加后端实际服务器并保存策略,如下所示:

  ipvsadm -A -t 172.25.10.100:80 -s rr    ##添加100ip作为
  ipvsadm -a -t 172.25.10.100:80 -r 172.25.10.2:80 -g
  ipvsadm -a -t 172.25.10.100:80 -r 172.25.10.3:80 -g
  cat /etc/sysconfig/ipvsadm
  systemctl restart ipvsadm.service
  cat /etc/sysconfig/ipvsadm
  ipvsadm -l
  ipvsadm -ln

注意:

-l:列出当前的策略

-n:不解析
-A:增加一台虚拟设备
-a:增加真实服务器的操作
-t:tcp服务地址
-s:调度算法(调度算法分别有10种,为rr/wrr/lc/wlc/lblc/lblcr/dh/sh/sed/nq)
-r:对应的真实ip
-g:rh(路由)
rr:调度算法,轮循

5、添加VIP地址,将VIP地址配置在各自的NonARP网络设备中,如下所示:

 ip a
 ip addr add 172.25.10.100/24 dev eth0
 ip a
 ipvsadm -ln

 

server2主机上:

1、安装httpd服务,如下所示:

yum install httpd -y

2、在默认发布目录下编写一个测试页,开启apache服务,并添加VIP,如下所示:

 vim /var/www/html/index.html
 cat /var/www/html/index.html
 systemctl start httpd
 ip addr add 172.25.10.100/24 dev eth0
 ip a

server3主机上:

1、安装httpd服务,如下所示:

yum install httpd -y

2、在默认发布目录下编写一个测试页,开启apache服务,并添加VIP,如下所示:

 vim /var/www/html/index.html
 cat /var/www/html/index.html
 systemctl start httpd
 ip addr add 172.25.10.100/24 dev eth0
 ip a

物理机测试:

1、在物理机尝试访问172.25.66.100,会发现其一直返回的是server3中的测试页

curl 172.25.10.100
curl 172.25.10.100
curl 172.25.10.100
curl 172.25.10.100

2、我们通过查看物理机绑定的MAC地址后,会发现其MAC地址是server3的MAC地址,无法进行轮循,如下所示:

arp -an | grep 100

3、删除绑定的MAC地址并重新访问,发现此时的MAC地址是server1的MAC地址,如下所示:

 arp -d 172.25.10.100
 curl 172.25.10.100    ##此时会出现轮循

注意:
1.servrer1,server2,server3都有可能被访问到
2.如果绑定的MAC地址是server1,则访问的测试页会在server2和server3中循环显示
3.如果绑定的MAC地址是server2或server3中其中一个,访问时不会轮循,而是只显示绑定MAC地址的主机的测试页,所以,这样是不合理的

为了解决上面的不合理情况,只有一直绑定sever1的MAC地址,所以我门要配置server2和server3的arp路由策略,具体如下所示:

server2主机上:

1、安装arptables_jf工具(配置arp路由策略)

 yum search arptables
 yum install arptables.x86_64 -y

2、为arptables网络的用户控制过滤的守护进程(防止在物理机中测试时直接访问server2,相当于编写防火墙策略)

[root@server2 ~]# iptables -nL  ##查看策略
[root@server2 ~]# arptables -A IN -d 172.25.12.100 -j DROP  #当网内广播需要172.25.12.100这个ip时,它将丢弃网内的所有请求
[root@server2 ~]# arptables -A OUT -s 172.25.12.100 -j mangle --mangle-ip-s 172.25.12.2 #当它自身需要在网内发包时,伪装为自己原本的ip172.25.12.2
[root@server2 ~]# arptables -nL
[root@server2 ~]#  cat /etc/sysconfig/arptables
[root@server2 ~]# arptables-save > /etc/sysconfig/arptables
[root@server2 ~]# cat /etc/sysconfig/arptables      ##此时有文件

3、查看状态,并开启arptables服务,如下所示

 systemctl status arptables.service
 systemctl start arptables.service
 systemctl status arptables.service

server3主机上:

1、安装arptables_jf工具(配置arp路由策略)

 yum search arptables
 yum install arptables.x86_64 -y

2、为arptables网络的用户控制过滤的守护进程(防止在物理机中测试时直接访问server3,相当于编写防火墙策略)

[root@server3 ~]# iptables -nL  ##查看策略
[root@server3 ~]# arptables -A IN -d 172.25.12.100 -j DROP  #当网内广播需要172.25.12.100这个ip时,它将丢弃网内的所有请求
[root@server3 ~]# arptables -A OUT -s 172.25.12.100 -j mangle --mangle-ip-s 172.25.12.3 #当它自身需要在网内发包时,伪装为自己原本的ip172.25.12.3
[root@server3 ~]# arptables -nL
[root@server3 ~]# arptables-save > /etc/sysconfig/arptables
[root@server3 ~]# systemctl restart iptables  ##重启服务

物理机再次测试:

删除原来绑定的MAC地址,再次测试,此时发现可以轮循,且经过调度器,如下所示:

arp -d 172.25.10.100   ###清理缓存
curl 172.25.10.100    
curl 172.25.10.100   
curl 172.25.10.100   
curl 172.25.10.100   

DR模式小结:

  1、通过在调度器LB上修改数据包的目的MAC地址实现转发,端口不改变。意味着发送到RS上时的端口还是原来的端口,如果在RS上安装了Tomcat,那么

Tomcat的端口也应该是和前面的端口一致,注意源地址仍然是CIP,目的地址仍然是VIP地址。

  2、请求的报文经过调度器,而RS响应处理后的报文无需经过调度器LB,因此并发访问量大时使用效率很高(和NAT模式比)

  3、因为DR模式是通过MAC地址改写机制实现转发,因此所有RS节点和调度器LB只能在一个局域网里面

  4、RS主机需要绑定VIP地址在LO接口上,并且需要配置ARP抑制。

  5、RS节点的默认网关不需要配置成LB,而是直接配置为上级路由的网关,能让RS直接出网就可以。

  6、由于DR模式的调度器仅做MAC地址的改写,所以调度器LB就不能改写目标端口,那么RS服务器就得使用和VIP相同的端口提供服务。

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

weixin_42566251

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值