Hadoop、Spark与MapReduce:大数据处理性能对比及分析
1. 大数据处理基础架构介绍
在大数据处理领域,Hadoop和Spark是两个备受关注的框架,而MapReduce则是Hadoop中的核心编程模型。
1.1 Hadoop框架
Hadoop框架有四个重要组成部分:
- Hadoop Common :封装和集成通用底层工具,是Hadoop的底层逻辑,包含参数配置工具、远程过程调用、程序序列化工具和Hadoop自身的抽象文件系统管理工具,是其他Hadoop模块的基石。
- Hadoop分布式文件系统(HDFS) :用于在多服务器集群中存储文件数据的文件分布式管理系统。它主要通过目录树定位特定文件的位置,适合单写多读场景,不支持文件修改。
- Hadoop资源管理器(YARN) :多服务器资源供应工具,在任务和角色之间起到协调和分配的作用。其核心思想是将JobTracker的两个主要任务(资源管理和作业调度与监控)独立出来,减轻JobTracker的压力,使整个宏观资源供应更加分布式和统一。
- Hadoop MapReduce :源于分区方法的编程模型,主要功能是将每个单独的数据文件切片并打包到各个机器进行数据处理,然后将各机器的结果组合打包得到所需结果。与其他大数据处理的分布式架构相比,Hadoop因其强大的数据存储和处理能力(可通过简单方式增强)以及出色的可扩展性而经久不衰。
1.2 MapReduce模型
MapReduc
超级会员免费看
订阅专栏 解锁全文
3392

被折叠的 条评论
为什么被折叠?



