是否要用Hadoop

Hadoop现在已是互联网公司的标配,用于离线的数据存储与分析。如果是一个初创型的小团队,或者是一个业务量不大的产品,是否有必要使用Hadoop呢?

先举几个仅靠传统关系型数据库很难解决的问题

1. “大”数据问题

这里的大,纯粹就是指数据量的大小。当有几千万甚至上亿条数据时,在关系型数据库里做group by、order by等聚合操作就会非常慢,数据库的日常维护也会是DBA的噩梦。而这正是Hadoop最大的特点,利用集群的优势,解决单机性能问题。

2. 关系型数据库的扩展后的数据分析

当数据库或表达到一定量时,常见的做法就是一个字“拆”。但拆完后,业务问题解决了,数据分析却会遇到麻烦。

1)水平拆分:比如电商的订单表,按用户做了N个分区,如果要统计全局的订单总数,怎么破?

2)垂直拆分:比如订单和商品拆成了两个独立的数据库,如果要分析某个商品的销量,或许订单库能查出每个商品id下的销量,却很难知道商品名称,因为没法跨库join,怎么破?

一种办法是把拆分后的数据汇总到一台机器上,这样原来的统计sql又可以跑起来,但是这样就违背了拆分的初衷,甚至可能单机存不了这么多数据。Hadoop则可以认为没有存储空间的上限,可以线性且随意地添加机器,而且代码逻辑上这些数据是统一而不是分割的。

3. 不同数据源的统一存储与分析

举个例子,要分析商品的访问次数,就需要分析服务器访问日志。但是光有日志不行,可能要根据日志里的URL关联到商品的名称。这时候需要把日志和商品表做关联查询。而把日志存在数据库中,显然不是合理的方案。而仅仅通过简单的awk等文本处理工具,又不好关联数据库中的商品。Hadoop可以作为统一的存储介质,把各种格式、各种来源的数据汇总在一起,方便后续的处理。

是否用Hadoop,还是要看业务需求。对于一个有理想的互联网公司是应该选择Hadoop的。若不使用百度、cnzz、google等第三方流量统计工具,而是自己统计流量数据,Hadoop就几乎成为了必选工具。如果是一个传统软件公司,就不一定有动力选择Hadoop了,因为数据量可能不大,也不用分析页面流量,数据库单机可以搞定所有报表,使用Hadoop反而增加了维护成本。




Hadoop从业者为什么需要Spark?答案是Hadoop已死,Spark称霸。 而Hadoop的死亡过程在2012年已经开始: 1,由于Hadoop自身架构的导致了在离线数据存储分析意外的一切领域都力不从心,理论已经证明MapReduce模型可以模拟一切分布式计算,但是效率成为其死穴,而Spark基于RDD的计算图可以轻松、完整地表达MapReduce模型,并且能极为容易的处理实时流计算、机器学习、图计算、误差查询等; 2,2012年以来Hadoop本身架构臃肿并未得到本质性的改善,很多修改升级也就只是补丁式的修修补补,现在Hadoop这个云计算大数据前期做出卓越贡献的平台正在继续的死亡; 4,原先支持Hadoop的四大商业机构纷纷宣布支持Spark; 5,Mahout前一阶段表示从现在起他们将不再接受任何形式的以MapReduce形式实现的算法,另外一方面,Mahout宣布新的算法基于Spark; 6,Cloudera的机器学习框架Oryx的执行引擎也将由Hadoop的MapReduce替换成Spark; Spark是继Hadoop之后,成为替代Hadoop的下一代云计算大数据核心技术,目前SPARK已经构建了自己的整个大数据处理生态系统,如流处理、图技术、机器学习、NoSQL查询等方面都有自己的技术,并且是Apache顶级Project,可以预计的是2014年下半年到2015年在社区和商业应用上会有爆发式的增长。 国外一些大型互联网公司已经部署了Spark。甚至连Hadoop的早期主要贡献者Yahoo现在也在多个项目中部署使用Spark;国内的淘宝、优酷土豆、网易、Baidu、腾讯等已经使用Spark技术用于自己的商业生产系统中,国内外的应用开始越来越广泛。Spark正在逐渐走向成熟,并在这个领域扮演更加重要的角色。 现在很多原来使用深度使用Hadoop公司都在纷纷转向Spark,国内的淘宝是典型的案例,我们在这里就不做介绍。在此,我们以使用世界上使用Hadoop最典型的公司Yahoo!为例,大家可以看一下其数据处理的架构图: 而使用Spark后的架构如下: 大家可以看出,现阶段的Yahoo!是使用Hadoop和Spark并存的架构,而随着时间的推进和Spark本身流处理、图技术、机器学习、NoSQL查询的出色特性,最终Yahoo!可能会完成Spark全面取代Hadoop,而这也代表了所有做云计算大数据公司的趋势。 最后,不得不提的是Spark的“One stack to rule them all”的特性,Spark的特点之一就是用一个技术堆栈解决云计算大数据中流处理、图技术、机器学习、交互式查询、误差查询等所有的问题,此时我们只需要一个技术团队通过Spark就可以搞定一切问题,而如果基于Hadoop就需要分别构建实时流处理团队、数据统计分析团队、数据挖掘团队等,而且这些团队之间无论是代码还是经验都不可相互借鉴,会形成巨大的成本,而使用Spark就不存在这个问题; 再说一点,Hadoop现在人才已经非常多了,想在该技术领域做到中国前100人之内是非常有难度的,而如果从事Spark则会更容易些,因为现在Spark人才不是稀少,而是太稀缺。 Hadoop从业者们,您需要Spark。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值