在一个典型的高并发、大用户量的Web互联网系统的架构设计中,对HTTP集群的负载均衡设计是作为高性能系统优化环节中必不可少的方案。HTTP负载均衡的本质上是将Web用户流量进行均衡减压,因此在互联网的大流量项目中,其重要性不言而喻。
即时通讯网注:本文中所提及的HTTP负载均衡方案和算法,并不完全适用IM即时通讯Socket长连接的负载均衡,因为IM长连接、有状态的特性,跟HTTP这种短连接、无状态的特征是矛盾的,所以请勿盲目套用。但,一个完整的IM系统是由HTTP短连接+IM长连接组成,因而本文内容虽不能套用于IM长连接的负载均衡方案,但可以用于您IM的高并发、大用户量的HTTP短连接的方案设计。

什么是负载均衡?
早期的互联网应用,由于用户流量比较小,业务逻辑也比较简单,往往一个单服务器就能满足负载需求。随着现在互联网的流量越来越大,稍微好一点的系统,访问量就非常大了,并且系统功能也越来越复杂,那么单台服务器就算将性能优化得再好,也不能支撑这么大用户量的访问压力了,这个时候就需要使用多台机器,设计高性能的集群来应对。
那么,多台服务器是如何去均衡流量、如何组成高性能的集群的呢?
此时就需要请出 「负载均衡器」 入场了。
负载均衡(Load Balancer)是指把用户访问的流量,通过「负载均衡器」,根据某种转发的策略,均匀的分发到后端多台服务器上,后端的服务器可以独立的响应和处理请求,从而实现分散负载的效果。负载均衡技术提高了系统的服务能力,增强了应用的可用性。
主流负载均衡方案有几种?
目前市面上最常见的负载均衡技术方案主要有三种:
1)基于DNS负载均衡;
2)基于硬件负载均衡:比如F5
3)基于软件负载均衡:比如Nginx、S

本文探讨了HTTP负载均衡在高并发、大用户量互联网系统中的重要性,强调了其在即时通讯系统HTTP短连接部分的设计价值。介绍了负载均衡的基本概念、主流负载均衡方案,如DNS、硬件和软件负载均衡器,并详细阐述了各种负载均衡算法,如轮询、负载度、响应和哈希策略。
最低0.47元/天 解锁文章
424

被折叠的 条评论
为什么被折叠?



