业务应用

本文介绍了使用Hypertable支持大规模监控数据存储的具体优化措施,包括元数据集中化、数据与日志存储分离等高可用改进,以及内存优化等性能提升手段。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

业务应用

Facebook在SIGMOD 2011会议上介绍了基于Hadoop/HBase的三种应用系统:Titan(Facebook Messages)、Puma(Facebook Insights)和ODS(Facebook Internal Metrics)。Titan主要用于用户数据存储,Puma用于MapReduce分布式计算,ODS用于存储公司内部监控数据,Facebook基于HBase的应用方式与国内几大互联网公司类似。

和ODS类似,对于一些硬件或软件的运行数据,我们会保存监控数据到数据库中,供软件工程师或者运维工程师查询。这里的查询可能是大批量的,也可能是个别条目;可能是延迟查询,也可能是即时查询。将此类业务的需求总结如下。

1. 要求存储容量非常大,往往达到10~100TB,10亿~100亿条记录。
2. 需要支持自动扩容,因为数据的增长模式不易估计,可能出现短时间的爆炸性增长。
3. 写吞吐的压力较大,每秒超过1万次的插入。
4. 近期导入数据能够快速检索。
5. 需要支持扫描早期的大量数据,例如支持周期性的检查或回滚。

这里可选的一个方案是使用传统的DBMS(如MySQL)。但它存在如下弊端:首先MySQL单机存储有上限,一般超过1.5GB性能就会有波动;不过即使MySQL支持拆表,也并非完全分布式的,由于表的大小限制,对于不规则的数据增长模式,分布式MySQL也并不能很好地应对,如果抖动频率较大,需要引入较多的人工操作来进行数据迁移;再者MySQL也不支持表的Schema动态改变。另一个可选方式是使用Hadoop。不过MapReduce并非实时计算,并且HDFS不支持随机写,随机读性能也很差。

综上分析,我们选择BigTable类型的系统来支持业务需求,即使用Hypertable+Hadoop的方式(如图2所示)。

 
图2 监控数据收集与查询示意图
 
 
   
认证徽章
论坛徽章:
274
马上加薪日期:2014-02-19 11:55:14 马上有对象日期:2014-02-19 11:55:14 马上有钱日期:2014-02-19 11:55:14 马上有房日期:2014-02-19 11:55:14 马上有车日期:2014-02-19 11:55:14 马上有车日期:2014-02-18 16:41:11 2014年新春福章日期:2014-02-18 16:41:11 版主9段日期:2012-11-25 02:21:03 ITPUB年度最佳版主日期:2014-02-19 10:05:27 现任管理团队成员日期:2011-05-07 01:45:08
3#
  发表于 2013-5-6 10:28  |  只看该作者
高可用改进

元数据集中化

挑战:在Hypertable或其他类似BigTable的系统中,元数据一般采用一种两级的类B+树结构,这主要是出于规模的考虑:采用这种结构理论上可以支持存放并索引2EB的用户数据。若要索引这么多用户数据,所需的元数据就高达16TB,一台机器是存不下的,因此在类BigTable系统中,元数据也是分布在不同节点上进行管理的,集群中任意一个节点既可能包含用户Range也可能包含元数据Range。

虽然这种做法可以解决规模问题,但在管理上带来了一些困难,特别是进行故障恢复时,由于用户表的Range恢复过程中需要读取元数据,所以必须先恢复METADATA表中的Range,再恢复用户表中的Range。如果有多台Range Server同时故障,这种跨节点的依赖性处理起来非常困难,其他一些维护性操作同样具有类似问题。此外,由于一条METADATA实际上覆盖了一个200MB的Range,所以任何一台包含METADATA的Range Server发生故障,都可能导致这部分METADATA所涵盖的一大批数据不可访问。将METADATA分布到多个不同的Range Server上,无异于给系统增加了很多单点,降低了系统可靠性。

解决:本着简单原则,我们认为将元数据与用户数据分离,放在专用的Meta Range Server上更具有可操作性。元数据集中化的唯一缺点是,由于受Meta Range Server内存限制,32GB物理内存所能存放的元数据理论上只能支持上PB的用户数据。但考虑一般机房所能容纳的机器规模,PB级的数据规模完全可以满足大多数公司的需要。

 
图3 Hypertable高可用改进架构示意图
 
 
   
认证徽章
论坛徽章:
274
马上加薪日期:2014-02-19 11:55:14 马上有对象日期:2014-02-19 11:55:14 马上有钱日期:2014-02-19 11:55:14 马上有房日期:2014-02-19 11:55:14 马上有车日期:2014-02-19 11:55:14 马上有车日期:2014-02-18 16:41:11 2014年新春福章日期:2014-02-18 16:41:11 版主9段日期:2012-11-25 02:21:03 ITPUB年度最佳版主日期:2014-02-19 10:05:27 现任管理团队成员日期:2011-05-07 01:45:08
4#
  发表于 2013-5-6 10:29  |  只看该作者
图3给出了Hypertable元数据集中管理的整体结构。目前的实现将Hypertable中的数据服务器(Range Server)分为两种:Meta Range Server和User Range Server。Meta Range Server只管理Root表和METADATA表的Range,User Range Server只管理用户表的Range。由于Master的负载较轻,因此一般将Meta Range Server与Master放在同一个节点上。

系统启动时,每个Range Server从配置文件得知自己的类型,并在注册时汇报自己的类型。Master记录每台Range Server的信息。当Master需要将Range分配给Range Server时(例如表格创建和Range分裂),会根据Range所在表格的类型来选择合适的Range Server,元数据Range分配到Meta Range Server,用户Range则分配到User Range Server。
 
 
   
认证徽章
论坛徽章:
274
马上加薪日期:2014-02-19 11:55:14 马上有对象日期:2014-02-19 11:55:14 马上有钱日期:2014-02-19 11:55:14 马上有房日期:2014-02-19 11:55:14 马上有车日期:2014-02-19 11:55:14 马上有车日期:2014-02-18 16:41:11 2014年新春福章日期:2014-02-18 16:41:11 版主9段日期:2012-11-25 02:21:03 ITPUB年度最佳版主日期:2014-02-19 10:05:27 现任管理团队成员日期:2011-05-07 01:45:08
5#
  发表于 2013-5-6 10:29  |  只看该作者
数据与日志存储分离

挑战:Hypertable集群中某些Range Server发生故障(Range Server进程故障退出)时,需要重新启动该Range Server并恢复服务,这依赖于Range Server记录的操作日志(CommitLog和SplitLog等)。BigTable系统(Hypertable/HBase)最重要的功能之一是自动恢复,自动恢复依赖操作日志(Commit Log)能够真正写入HDFS(Sync),故障发生后,系统通过重放日志构建故障前的一致性状态。

在我们早期使用Hypertable和Hadoop系统时,Hadoop 0.18版本尚不支持Append Sync功能。即使当前版本的Hadoop支持了Append Sync功能,频繁使用Sync也会影响系统的写吞吐能力。另外,Hadoop的稳定性在当时还不能得到保证,存在写入失败的情况。如果Hadoop出现问题,那么Hypertable刚写入的数据可能丢失。如果是日志,那么重启时无法恢复系统状态。

解决:一般情况下,Hypertable系统的存储基于Hadoop文件系统,数据和日志都写入HDFS。而在改进后的Hypertable系统中我们采用了不同的存储方式:数据写HDFS,日志写Local FS。
较之本地文件系统Ext2等,HDFS的稳定性还是略逊一些,在Hypertable的实际运维过程中,我们也遇到过Hypertable向Hadoop写入数据失败的情况。鉴于日志的重要性,我们选择将日志写入可靠性更高的本地文件系统,这样即使Hadoop写文件时出现问题,也可以通过重放本地日志来恢复Hypertable系统状态。

改进后的Hypertable集群发生故障时,有以下几种处理场景。

1. 写日志故障:Range Server在写日志时(CommitLog等)发生错误,可能是本地磁盘故障。此时日志的完整性不能得到保证,需要在Range Server写日志的相关操作上附加额外的例外处理。日志写例外将触发Range Server执行一次OFFLINE操作,即在日志完整性不能保证的前提下,尽快保证数据的完整性和一致性,之后再人工参与后续的恢复处理。
2. 写数据故障:Range Server故障非日志操作引起的,可能由系统Bug导致,也可能是Hadoop写数据文件失败。此时日志的完整性有保障,可以直接执行SHUTDOWN操作,关闭各个Range Server。待Bug解决或Hadoop恢复后,重启Hypertable重放日志即可恢复集群状态和数据。

以上提到半自动容错机制的两条路线分别保证了“日志- | 数据+”和“日志+ | 数据-”两种故障情况下集群数据的完整性和一致性。那么有没有“日志- | 数据-”的情况,极端情况下可能出现Hadoop写数据文件失败和某Data Node(Range Server)硬盘故障同时发生,此时系统将不可避免地丢失数据,我们只能通过上层应用回滚重放的方式来恢复系统数据。
 
 
   
认证徽章
论坛徽章:
274
马上加薪日期:2014-02-19 11:55:14 马上有对象日期:2014-02-19 11:55:14 马上有钱日期:2014-02-19 11:55:14 马上有房日期:2014-02-19 11:55:14 马上有车日期:2014-02-19 11:55:14 马上有车日期:2014-02-18 16:41:11 2014年新春福章日期:2014-02-18 16:41:11 版主9段日期:2012-11-25 02:21:03 ITPUB年度最佳版主日期:2014-02-19 10:05:27 现任管理团队成员日期:2011-05-07 01:45:08
6#
  发表于 2013-5-7 10:11  |  只看该作者
分裂日志策略

挑战:Hypertable系统涉及的日志为CommitLog和SplitLog等,日志写本地文件系统的策略约束了SplitLog的故障恢复。

Hypertable系统设计SplitLog的初衷在于保证导入数据的速率。Range Server上的Range在分裂时,数据可以无阻塞地写入SplitLog(它必须写到分布式文件系统上,因为它保存的是实际数据),Range分裂完成后SplitLog文件可能被其他的Range Server重放。CommitLog中记录了SplitLog的位置,系统恢复时日志重放会涉及SplitLog日志的重放,如果SplitLog写在本地,那么故障恢复时就无法读取该日志。

HBase系统中并未涉及SplitLog机制,在Range分裂时数据不能继续导入。

解决:解决方案有两种,一种是本着稳定性和可靠性优先于性能的原则,为了保证日志的可靠性和使得自动恢复机制更简单,取消SplitLog机制,修改后的Hypertable系统在Range分裂过程不涉及SplitLog相关操作;另一种是将SplitLog写入更加可靠的共享存储中,能够让Range Server远程访问,这相当于引入了第三方系统。
 
 
   
认证徽章
论坛徽章:
274
马上加薪日期:2014-02-19 11:55:14 马上有对象日期:2014-02-19 11:55:14 马上有钱日期:2014-02-19 11:55:14 马上有房日期:2014-02-19 11:55:14 马上有车日期:2014-02-19 11:55:14 马上有车日期:2014-02-18 16:41:11 2014年新春福章日期:2014-02-18 16:41:11 版主9段日期:2012-11-25 02:21:03 ITPUB年度最佳版主日期:2014-02-19 10:05:27 现任管理团队成员日期:2011-05-07 01:45:08
7#
  发表于 2013-5-7 10:11  |  只看该作者
安全停机策略

挑战:kill/run操作可以完成任意时刻Hypertable系统的关闭和启动,无论当前是否正在导入数据,因为Range Server启动后会重放日志。但由于当时的Hypertable缺乏自动迁移(负载均衡)机制,这组操作并不适用于集群的变更,例如更替或添加节点。

解决:offline/online操作方式的提出是为了辅助kill/run操作,增加Hypertable集群的可扩展性。执行这组操作,可以保证offline执行时内存数据都写入文件系统,online执行时Range能够均匀分布加载,易于集群节点更换。系统管理员通过Hypertable命令行工具执行offline向各个Range Server发出命令,Range Server进程收到offline命令后,等待其上执行的Maintenance任务执行完成,并卸载其上加载的Range后退出。Range卸载成功时,所有系统数据被成功写入分布式文件系统,本地文件系统的日志被删除;卸载失败时,日志保留。系统管理员通过Hypertable命令行工具执行online命令,Master收到online命令后,将METADATA记录的Ranges均匀分配给各个Range Server加载,这就做到了半自动的负载均衡。
 
 
   
认证徽章
论坛徽章:
274
马上加薪日期:2014-02-19 11:55:14 马上有对象日期:2014-02-19 11:55:14 马上有钱日期:2014-02-19 11:55:14 马上有房日期:2014-02-19 11:55:14 马上有车日期:2014-02-19 11:55:14 马上有车日期:2014-02-18 16:41:11 2014年新春福章日期:2014-02-18 16:41:11 版主9段日期:2012-11-25 02:21:03 ITPUB年度最佳版主日期:2014-02-19 10:05:27 现任管理团队成员日期:2011-05-07 01:45:08
8#
  发表于 2013-5-7 10:12  |  只看该作者
性能优化

内存优化


挑战:在Hypertable系统的运维中,我们发现,Hypertable在内存使用效率上存在严重问题。在数据插入过程中,Range Server内存用量一直飙升,而且持久不下,很容易造成内存溢出并最终崩溃,严重威胁Hypertable的稳定性。

为了定位内存占用过量问题,我们使用valgrind和TCMalloc库的Heap Profiling工具对Hypertable进行了测试,发现Hypertable内存飙升的原因是Cell Cache代码中存在频繁分配、释放小片内存(从十几字节到几千字节不等)的情况,从而产生了大量内存碎片,致使内存效率存在严重问题。如图4所示,Range Server中的大量内存分配集中于Cell Cache为<key, value>和Cell Map进行空间分配的时候。

 

图4 改进前Range Server内存使用情况统计

解决:我们决定对Cell Cache相关的内存实施独立管理,即采用自定义的内存分配回收方式管理<key, value>和Cell Map,使其产生的内存碎片最小化。
 
 
   
认证徽章
论坛徽章:
274
马上加薪日期:2014-02-19 11:55:14 马上有对象日期:2014-02-19 11:55:14 马上有钱日期:2014-02-19 11:55:14 马上有房日期:2014-02-19 11:55:14 马上有车日期:2014-02-19 11:55:14 马上有车日期:2014-02-18 16:41:11 2014年新春福章日期:2014-02-18 16:41:11 版主9段日期:2012-11-25 02:21:03 ITPUB年度最佳版主日期:2014-02-19 10:05:27 现任管理团队成员日期:2011-05-07 01:45:08
9#
  发表于 2013-5-7 10:13  |  只看该作者
图5显示了Hypertable数据服务器上的数据更新过程。Client向Range Server发送数据(<key, value>形式),Range Server首先将数据缓存在Cell Cache中,并使用Cell Map结构建立树形索引。当需要进行Compaction时,会新开一个Cell Cache,并把当前Cell Cache冻结,新写入的数据会进入新开的Cell Cache,而冻结的Cell Cache则在后台写到文件系统中形成Cell Store文件,Compaction完成后,冻结了的Cell Cache会被统一释放。此过程中,Cell Cache涉及的内存分配释放操作主要有:分配空间(new)容纳要写入的key/value;分配空间维护Cell Map(本质上是一个std::map,使用默认的STL allocator分配空间)索引结构;释放数据和索引占用的全部空间。可见,问题主要出在内存分配太过细碎。

 

图5 Hypertable插入数据时Cell Cache内存分配示意图

我们修改了Cell Cache的分配策略,利用简化的内存池思想,将内存分配策略改为统一分配。每个Cell Cache使用1个内存池(MemPool),每个MemPool初始时包含1个4MB(默认设置)的缓冲区(MemBuf),所有的<key, value>和Cell Map结构占用的空间都在MemBuf内部分配。当MemBuf满了之后,再分配一片新的MemBuf,释放时也是大片释放,这样就防止了频繁的new/delete操作。此外,<key, value>和Cell Map结构占用的内存是分别从MemBuf的两端分配的,这样做的目的是保证Cell Map内存对齐,减少因为内存非对齐访问带来的效率下降。当一个缓冲区用满后,内存池会自动扩充一个新的缓冲区,内存释放只是针对整个内存池。

这种内存池分配方式最终也被合入到Hypertable官方版本之中。
 
 
   
认证徽章
论坛徽章:
274
马上加薪日期:2014-02-19 11:55:14 马上有对象日期:2014-02-19 11:55:14 马上有钱日期:2014-02-19 11:55:14 马上有房日期:2014-02-19 11:55:14 马上有车日期:2014-02-19 11:55:14 马上有车日期:2014-02-18 16:41:11 2014年新春福章日期:2014-02-18 16:41:11 版主9段日期:2012-11-25 02:21:03 ITPUB年度最佳版主日期:2014-02-19 10:05:27 现任管理团队成员日期:2011-05-07 01:45:08
10#
  发表于 2013-5-7 10:14  |  只看该作者
图6给出了Google Heap Profiling工具检测的Cell Cache内存使用情况,对比图4中的数据,改进后版本Range Server的主要内存使用集中于CellCachePool::get_memory,即Cell Cache的内存使用,这和原始版本中主要使用内存的地方是一致的。这说明如果我们的内存管理机制有效,就能大量减小Hypertable的内存占用量。

 

q3.jpg (24.59 KB, 下载次数: 3)

下载附件

2013-5-7 10:14 上传



图6 改进后Range Server内存使用情况统计
 
 
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值