AliRedis单机180w QPS, 8台服务器构建1000w QPS Cache集群(转)

http://blog.sina.com.cn/s/blog_e59371cc0101br74.html

引言:
        如今redis凭借其高性能的优势, 以及丰富的数据结构作为cache已越来越流行, 逐步取代了memcached等cache产品, 在Twitter,新浪微博中广泛使用,阿里巴巴同样如此. redis已经占据了其不可动摇的地位, 然而在实际的生产环境中, redis也暴露出一些其他问题.如性能瓶颈, 内存冗余, 运维部署复杂等. 本文目的就是分析redis现有的问题, 以及介绍阿里巴巴技术保障团队对redis的改造工作, 使其在生产环境中发挥更大的价值.
 
原生redis的瓶颈:
1. 单进程单线程, 无法充分发挥服务器多核cpu的性能.
2. 大流量下造成IO阻塞. 同样是由于单进程单线程, cpu在处理业务逻辑的时候,网络IO被阻塞住, 造成无法处理更多的请求.
3. 维护成本高, 如果想要充分发挥服务器的所有资源包括cpu, 网络io等, 就必须建立多个instance, 但此时不可避免会增加维护成本.  拿24核服务器举例来讲, 如果部署24个单机版的instance,理论上可以实现10w*24core= 240wQPS的总体性能.但是每个 instance 有各自独立的数据,占用资源如内存也会同比上升,反过来制约一台服务器又未必能支持这么多的 instance.  如果部署24个Instance来构成单机集群, 虽然可以共享数据,但是因为节点增加, redis的状态通讯更加频繁和费时,性能也下会降很多.  并且两种方式都意味着要维护24个Instance,运维成本都会成倍增加. 

4. 持久化. redis提供了两种save方式 1)save触发. 2)bgsave. 当然也可以使用3)aof来实现持久化, 但是这3点都有弊端.
         1)save:  由于是单进程单线程, redis会阻塞住所有请求, 来遍历所有redisDB, 把key-val写入dump.rdb. 如果内存数据量过大, 会造成短时间几秒到几十秒甚至更长的时间停止服务, 这种方案对于twitter, taobao等大流量的网站, 显然是不可取的.  
         2)bgsave: 在触发bgsave时, redis会fork自身, child进程会进入1)的处理方式,这意味着服务器内存要有一半的冗余才可以, 如今内存已变得越来越廉价, 但是对于存储海量数据的情况,内存以及服务器的成本还是不容忽视的. 
         3)aof:  说到持久化, redis提供的aof算是最完美的方案了, 但是有得必有失, 严重影响性能! 因为redis每接收到一条请求, 就要把命令内容完整的写到磁盘文件, 且不说频繁读写会影响磁盘寿命,写磁盘的时间足以拖垮redis整体性能 . 当然熟悉redis的开发者会想到用appendfsync等参数来调整, 但都不是完美.即使使用 SSD,性能也只是略有提升,并且性价比不高。
 
针对以上几种情况, 阿里技术保障团队做了如下优化手段, 其实这不仅仅只是优化, 而更是一种对redis的改造.
1. 多线程master + N*work 工作模式.master线程负责监听网络事件, 在接收到一个新的连接后, master会把新的fd注册到worker的epoll事件中, 交由worker处理这个fd的所有读写事件, 这样master线程就可以完全被释放出来接收更多的连接, 同时又不妨碍worker处理业务逻辑和IO读写.

采用这种master + N*worker的网络层事件模型,可以实现redis性能的平行扩展. 真正的让redis在面临高并发请求时可以丛容面对.
2. 抛弃save, bgsave, aof等三种模式.采用redisDB lock模式. AliRedis在数据存储层把多DB存储模式转换成HashDb存储, 将key hash到所有RedisDB上, 这样做有一个弊端就是抛弃了select命令, 但与此同时会带来一个更大的好处, 可以逐个DB持久化而不会影响整个系统, 在做持久化的时候AliRedis只需lock住1/N个redisDb, 占用1/m个线程. 在不需要内存冗余的情况下进行持久化, 相比之前提到的弊端, 这种方式可以带来更大的收益, 更丰厚的回报.
3. 重构hiredis客户端, 支持redis-cluster工作模式, 目前hiredis并不支持redis-cluster模式, 阿里技术保障团队对hiredis进行重构,使之支持redis-cluster.
4. 优化jemalloc, 采用大内存页.  Redis在使用内存方面可谓苛刻至极, 压缩, string转number等, 能省就省, 但是在实际生产环境中, 为了追求性能, 对于内存的使用可以适度(不至于如bgsave般浪费)通融处理, 因此AliRedis对jemalloc做了微调, 通过调整pagesize来让一次je_malloc分配更多run空间来储备更多的用户态可用内存, 同时可以减轻换页表的负载, 降低user sys的切换频率, 来提高申请内存的性能, 对jemalloc有兴趣的开发者可以参考jemalloc源码中的bin, run, chunk数据结构进行分析.


通过如上改造, redis可以充分发挥服务器多核的优势, 以及网络IO复用, 特别是节省运维成本, 每台服务器只需维护一个AliRedis实例.

QPS, 8台服务器构建1000w QPS Cache集群" name=image_operate_60451388034980025 alt="AliRedis单机180w QPS, 8台服务器构建1000w QPS Cache集群" src="http://s8.sinaimg.cn/mw690/004cF6UIgy6FibVf6mz47&690" width=690 height=517 action-type="show-slide" action-data="http%3A%2F%2Fs8.sinaimg.cn%2Fmw690%2F004cF6UIgy6FibVf6mz47%26690" real_src="http://s8.sinaimg.cn/mw690/004cF6UIgy6FibVf6mz47&690">

测试环境
CPU: Intel Xeon E5-2630 2.3GHz, *2
KERNEL: 3.2.0
GCC: 4.4.6
Jemalloc: 3.2.0
NIC: Intel 82599EB

测试数据
AliRedis单机版性能数据
thread:            1            2              4            8             12          16             20             24
set/get=1:1    83182  162214  301552 605817 876656 1173748 1551113 1800878

AliRedis集群
8个节点, 20台客户端, 配置相同, cpu全部打满.
set/get=1:1   qps: 10,344,877
 
结论
单机版AliRedis可以实现24核跑满180wQPS性能.
集群版可以实现8台服务器支撑1000wQPS的数据请求.
 
阿里巴巴技术保障团队肩负着支撑阿里技术, 保障系统稳定运行的艰巨使命.不管是双11, 还是双12, 或者其他大促活动, 每个阿里人都在努力且拼命的工作, 拿自己的劳动来捍卫着阿里集团的荣誉.
 
阿里技术-保障奇迹.
                                                                                    阿里技术保障部-系统运营-网络部-子逍

### QPS 的分级标准及高低等级划分方法 QPS(Queries Per Second)作为衡量服务器性能的重要指标,其分级标准和高低等级的划分通常系统的实际需求、行业基准以及硬件资源密切相关。以下是关于 QPS 分级标准及高低等级划分的具体分析: #### 1. 行业基准分级标准 在不同的应用场景中,QPS 的分级标准会有所不同。例如,在电商平、搜索引擎和社交媒体平等高并发场景下,QPS 的要求通常较高[^3]。以下是一个通用的 QPS 分级标准示例: - **低 QPS 系统**:QPS 小于 100 这类系统通常适用于小型网站或低流量应用,如个人博客或内部管理系统。 - **中 QPS 系统**:QPS 在 100 到 1000 之间 此类系统适用于中小型企业的业务应用,如企业官网或简单的在线服务。 - **高 QPS 系统**:QPS100010000 之间 高 QPS 系统常见于中大型互联网应用,如电商网站、新闻门户或在线教育平。 - **超高 QPS 系统**:QPS 大于 10000 超高 QPS 系统适用于超大规模的互联网服务,如搜索引擎、社交网络或视频直播平。 #### 2. 高低等级的划分方法 QPS 的高低等级划分需要结合多个因素进行综合评估,包括但不限于以下几点: - **硬件资源配置** 系统的硬件资源(如 CPU 核心数、内存大小、磁盘 I/O 性能等)直接影响 QPS 的承载能力[^3]。例如,增加副本数可以显著提升 OLAP 系统的 QPS 值[^1]。 - **软件架构设计** 软件架构的设计对 QPS 的影响至关重要。例如,使用缓存技术(如 ResultCache 和 Page Cache)可以大幅提升查询效率,从而提高 QPS 值[^1]。 - **请求复杂度** 请求的复杂度也会影响 QPS 的高低等级划分。简单请求(如静态页面访问)通常具有更高的 QPS 值,而复杂请求(如涉及多表联查的 SQL 查询)则会降低 QPS 值。 - **并发用户数** 并发用户数是衡量系统负载的重要指标之一。一般来说,并发用户数越多,系统所需的 QPS 值越高。 #### 3. 示例代码:动态监控 QPS 以下是一个基于 Python 的示例代码,用于动态监控系统的 QPS 值: ```python import time def calculate_qps(total_requests, time_window_seconds): return total_requests / time_window_seconds # 模拟请求计数器 start_time = time.time() request_counter = 0 # 模拟每秒增加的请求数 while True: current_time = time.time() elapsed_time = current_time - start_time if elapsed_time >= 60: # 每分钟统计一次 qps = calculate_qps(request_counter, elapsed_time) print(f"当前 QPS: {qps:.2f}") start_time = current_time request_counter = 0 request_counter += 1 # 模拟新增请求 time.sleep(0.1) # 模拟请求间隔 ``` #### 4. 提升 QPS 的优化策略 为了提升系统的 QPS 值,可以采取以下措施: - **增加硬件资源**:通过扩展服务器集群或升级单机硬件配置来提高处理能力。 - **优化软件架构**:引入分布式架构、负载均衡和缓存机制以分担压力[^1]。 - **减少请求复杂度**:优化数据库查询语句,避免不必要的计算操作。 - **使用异步处理**:对于耗时较长的操作,可以采用异步方式以提高响应速度[^4]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值