LB 负载均衡的层次结构

作为后端应用的开发者,我们经常开发、调试、测试完我们的应用并发布到生产环境,用户就可以直接访问到我们的应用了。但对于互联网应用,在你的应用和用户之间还隔着一层低调的或厚或薄的负载均衡层软件,它们不显山不露水默默的发挥着重要的作用,以至于我们经常忽略了它们的存在。因为负载均衡层通常不在一般开发人员的问题域内,而且它们一般都是现成且成熟的解决方案,以至于我们习惯性的忽略和认为乏善可陈。其实不然,本文就写写我对负载均衡层次结构的认知和理解。



硬负载

所谓「硬负载」就是采用硬件设备来提供负载均衡。

在七、八年前那时我在做 Java 的企业软件开发,开发出来的企业级 Java 应用程序就部署在像 Weblogic 之类的应用容器中。而这类应用容器软件又跑在 Unix 的小型机上。把硬件和软件一体打包作为企业应用解决方案卖给客户。这类应用部署的方案十分简单,层级也比较浅。为了保证可靠性,使用两套小型机上各部署一个 Weblogic Server,在应用服务前面使用像 F5 之类的硬件负载均衡器,如下图所示。

由于小型机和前面的 F5 负载均衡硬件都比较贵,所以出于可靠性、可维护性和成本的综合考虑,一般应用部署两套跑在两台小型机上,在前面共享一个 F5 做负载均衡。而一般 F5 和小型机这类硬件设备都至少是 5 个 9 的可靠性保障,所以整体的系统可靠性基本有保障。

进入互联网时代后,应用开发拥抱开源,部署使用更廉价的 PC Server 和免费开源的应用容器。负载均衡也逐步从硬负载向软负载变迁,由于互联网应用的海量特性和部署规模的急剧膨胀,前端负载均衡也开始变得丰富起来。

软负载

进入互联网公司后,我们刚开始开发应用时,业务规模小用户量还不大,机器数量也少(<10)。所以一开始的负载均衡的结构也是很简单的,类似硬负载只是把硬件换成了免费的开源软件并跑在可用性是有 3 个 9 的廉价 PC Server 上。

前面一个 LVS 后面跟着几个应用服务,后来为了方便做按域名的分流和适配切流量上线,中间又加了一层 Nginx。

这样就变成了两层软负载结构了,LVS 负责 4 层,Nginx 负责 7 层。 但 Nginx 只负责了单机内多实例的负载均衡,这里主要是因为当时 PC Server 是物理机,CPU 16/32 core,内存 32/64G 不等,为了更充分的利用资源,一台物理机上都部署了多个应用服务实例,而考虑到 Nginx 工作在 7 层的开销远高于 LVS/DR 模式,所以一般在一个 Nginx 后面挂的实例数也不会超过 10 个。

但随着业务发展和用户流量上升,机器规模也在不断扩张,导致一个网段内的 IP 都不够用了,这套负载结构又遇到了横向扩展的瓶颈,因为 LVS/DR 模式下跨不了网段。所以后来又在 LVS 和 Nginx 之间加了一层 HAProxy,负载结构就变成了下面这样。

其实加了 HAProxy 之后,它也是工作在 7 层,这样 Nginx 这层看起来就不是很有必要。但三层的负载结构能支撑更大规模的集群,而原本在 Nginx 层做了一套方便研发切流量上线的运维管理系统,所以牺牲一点性能换取现在的可维护性和将来扩展性,Nginx 这层就一直保留下来了。而且 Nginx 相比 HAProxy 不是纯粹的负载均衡器,它还能提供 cache 功能,对于某些 HTTP 请求实际只走到 Nginx 这层就可以通过缓存命中而返回。

DNS负载

随着业务发展,公司开始了多个 IDC 的建设,考虑到 IDC 级别的容灾,集群开始部署到多个 IDC。跨 IDC 的负载均衡方案可以简单通过 DNS 轮询来实现,但可控性不好。所以我们没有采用这种,而是采用一主加多子域名的方式来基于业务场景实现动态域名调度和负载。主域名下实际是一个动态流量调度器,跨多个 IDC 部署,对于 HTTP 请求基于重定向方式跳子域名,对于 TCP 方式每次建立长连接前请求分配实际连接的子域名,如下图所示。

CDN负载

最后再加上互联网应用必不可少的 CDN 将静态资源请求的负载分流,那么整个负载的层次结构就完整了。

SSL 带来的负载结构变化

随着互联网的普及,安全问题益发严重,原本早期只有银行网银等使用 HTTPS 方式访问,现在电商类网站也开始启用全站 HTTPS 了。引入 SSL 后对负载结构带来了什么影响么?SSL 属于应用层的协议,所以只能在 7 层上来做,而 HAProxy 也是支持 SSL 协议的,所以一种方式是只需简单的让 HAProxy 开启 SSL 支持完成对内解密对外加密的处理。

但 HAProxy 的作者不太赞同这种方案,因为引入 SSL 处理是有额外的性能开销的。那么在承担确定流量的情况下,假设原本需要 M 台 HAProxy,在开启了 SSL 后可能需要 M + N 台 HAProxy。随着流量增长,这种方式的横向扩展成本较高(毕竟 SSL 证书按服务器数量来收费的)。他给出的解决方案是再独立一层 SSL 代理缓存层,像下面这样。

L4 和 L7 之间独立的 SSL 代理缓存层只负责 SSL 协议的处理,把 HTTPS 转换成 HTTP,并检查本地缓存是否命中。若未命中再转发请求到后端的 L7 层应用负载均衡层。这样的好处是每个层次都可以根据流量来独立伸缩,而且 SSL 层显然可以跨多个应用共享,更节省成本。如果按这个思路来重新调整我们前面的负载均衡结构层次,将会演变成下面这样。

其实,这时我觉得应用前面的那层 Nginx 可能就显得多余了点,不是必需的。但如果现实这么演进下来很可能就会有这么一层冗余的东西存在很长一段时间,这就是理想和现实之间的差距吧。

总结

好了,本文到此为止。作为一名后台开发我其实对上面提及的各类开源软件如何配置、调优和管理并不熟悉,这属于运维开发的问题域范畴。但这并不妨碍我去了解我所开发的应用所处的整个环境是怎样的,多了解些你工作领域范围边界外的 What 和 Why,有时也能帮助我们更好的设计和解决自身问题域内的问题,别为自己设限而最终画地为牢。

本来以为负载均衡这个古老的课题已经定型了,在写本文时又看到新闻,在近日举办的第十三届网络系统设计与实现 USENIX 研讨会上,来自 Google 的工程师又分享了其自研的 Maglev 负载均衡器。刚下了论文还没看,回头看了再来写写。

参考

[1] HAProxy Documentation. HAProxy Management Guide
[2] HAProxy Documentation. HAProxy Starter Guide
[3] Willy Tarreau. Making applications scalable with Load Balancing
[4] LVS wiki. Load balancing
[5] Wikipedia. Virtual Router Redundancy Protocol
[6] shuming. LVS 工作模式以及工作原理


转载自: http://www.cnblogs.com/mindwind/p/5339657.html?ref=myread

<think>嗯,用户问负载均衡是什么,我需要先回忆一下相关知识。负载均衡,听起来像是分配工作量的机制吧?可能在网络或者服务器管理里用的多。比如,当有很多用户访问网站时,单台服务器可能处理不过来,负载均衡可以把请求分到不同的服务器上,避免某台服务器过载。这样还能提高可用性,如果一台挂了,其他的还能继续服务。 不过,具体是怎么实现的呢?可能涉及到不同的算法,比如轮询、加权轮询,或者基于响应时间的分配。另外,负载均衡器可以是硬件设备,也可以是软件,比如Nginx或者HAProxy。还有,应用层和传输层的负载均衡有什么区别吗?比如OSI模型的不同层次,四层和七层的负载均衡策略可能不同。 用户可能想知道负载均衡的作用、原理、常见类型以及应用场景。需要解释清楚这些点,用简单易懂的例子帮助理解。比如,把服务器比作餐厅的服务员,负载均衡就是领班,根据服务员的工作量分配客人,确保高效运作。 还要注意用户可能的背景,可能是刚开始学习网络知识,或者需要部署服务器架构,所以需要兼顾基础概念和实际应用。避免使用太多专业术语,或者遇到术语时要解释清楚。比如,解释什么是健康检查,会话保持等概念。 可能还需要提到负载均衡的好处,比如提高性能、可靠性、可扩展性,以及可能的缺点,比如配置复杂,单点故障问题(虽然高可用架构可以解决)。同时,可以举一些现实中的例子,比如大型网站如何利用负载均衡处理高流量。 最后检查有没有遗漏的重要点,确保覆盖了定义、工作原理、类型、算法、优缺点和应用场景。结构上应该先定义,再逐步展开,每个部分简明扼要。使用中文,避免使用Markdown格式,保持口语化但专业。</think>负载均衡是一种将工作负载(如网络流量、计算任务等)**智能分配到多个资源**的技术,其核心目标是**优化资源利用率、提升系统性能和保障服务可靠性**。 ### 核心作用 1️⃣ **流量分发** 例如:当1000个用户同时访问网站时,负载均衡器会将请求分配给多台服务器(而不是让单台服务器承受全部压力),类似餐厅领班把客人分配到不同餐桌。 2️⃣ **故障容错** 持续监测服务器健康状态,自动屏蔽故障节点。假设某台服务器宕机,流量会立即转移到其他正常服务器,用户几乎无感知。 3️⃣ **弹性扩展** 当流量激增时,可快速添加新服务器加入资源池,负载均衡器自动调整分配策略。 --- ### 常见类型 | 类型 | 工作层级 | 特点 | 典型应用场景 | |-------------|-----------------|-----------------------------|---------------------| | **四层LB** | 传输层(TCP/UDP)| 基于IP+端口转发,速度快 | 游戏服务器、视频流传输 | | **七层LB** | 应用层(HTTP等) | 能解析协议内容,策略更精细 | 电商网站、API网关 | --- ### 关键算法 - **轮询法**:像发扑克牌一样依次分配(适合服务器性能均等时) - **加权轮询**:给高性能服务器分配更多任务(权重比例例如 3:2:1) - **最小连接数**:优先选择当前连接最少的服务器 - **哈希算法**:根据用户IP等特征固定分配,保证会话连续性 --- ### 技术实现 - **硬件方案**:F5 BIG-IP等专用设备(性能强但成本高) - **软件方案**:Nginx(HTTP反向代理)、LVS(Linux虚拟服务器)、云服务商的LB产品(如AWS ALB) 例如:使用Nginx配置简单的负载均衡时,配置文件可能包含: ```nginx upstream backend { server 192.168.1.10 weight=3; server 192.168.1.11; server 192.168.1.12 backup; # 备用服务器 } location / { proxy_pass http://backend; } ``` --- ### 典型应用场景 1. **电商大促**:应对瞬间流量洪峰 2. **全球业务**:通过GSLB(全局负载均衡)实现就近访问 3. **微服务架构**:服务发现与路由的核心组件 4. **混合云部署**:协调本地IDC与云服务器的资源调度 --- **延伸思考**:现代云原生环境中,负载均衡常与自动扩缩容(Auto Scaling)结合,形成弹性计算体系。当监控到CPU使用率超过70%时,自动启动新实例并加入负载均衡池,实现真正的动态资源管理。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值