探索 Hadoop:从基础到 2.0 版本的变革
1. 版本选择说明
Hadoop 版本发展历程中,Hadoop 1 的版本历史较为复杂,0.2x 范围存在多个分支,导致 1.x 版本在某些情况下功能可能不如 0.23 版本。而 Hadoop 2 的版本情况相对清晰。Hadoop 2.0 有 alpha 和 beta 版本,期间引入了一些不兼容的更改,尤其是在 beta 版到最终发布阶段进行了主要的 API 稳定工作。
Hadoop 2.2.0 是 Hadoop 2 代码库的首个通用可用性(GA)版本,其接口稳定且向前兼容。因此,建议在开发和生产部署 Hadoop 2 工作负载时使用基于 Hadoop 2.2 或更高版本。
2. Hadoop 的背景
在“大数据”概念出现之前(大约十年前),处理数 TB 及以上规模的数据集选择有限。一些商业数据库在特定且昂贵的硬件设置下可以扩展到该级别,但所需的专业知识和资本支出使得只有大型组织能够采用。或者,也可以构建针对特定问题的自定义系统,但这同样面临专业知识和成本问题,并且存在前沿系统固有的风险。
随着生成大型数据集的能力变得普遍,处理这些数据的需求也随之增加。为了使数据处理系统更适合小公司,需要进行重大架构更改。首要的是减少系统的前期资本支出,即不使用高端硬件或昂贵的软件许可证。从高端硬件转向大量低端服务器是降低新系统硬件成本的最快方法,但这也意味着在弹性和容错能力方面的降低,这些责任需要由软件层承担。
2003 年和 2004 年,Google 发布了关于 Google 文件系统(GFS)和 MapReduce 的学术论文,为大规模数据处理提供了高效平台。他们利用大量商用
超级会员免费看
订阅专栏 解锁全文
485

被折叠的 条评论
为什么被折叠?



