详解MapReduce全过程

        写在开头:MapReduce应该是在我刚开始学习Hadoop和hive的时候就已经学习过的数据处理的过程,最近由于学到了spark,也是同样基于相同流程设计出的组件,觉得也是有必要进行一次流程上的梳理,以便自己可以更好的理解整个过程,更好的理解整个大数据框架数据处理的过程。

        总的来说,MapReduce的过程可以被分成两个部分,第一部分是map端,负责数据的处理,第二部分是reduce端,负责数据处理和计算,另外也常听到shuffle的部分,这一部分我认为是可以被涵盖在mapreduce之中的,所以我就并不展开来讲,而是放在最后进行总结。

以上是mapreduce流程图。

一、Map过程

        首先,需要读取hdfs中的数据,然后通过InputFormat类对数据进行切片。这里默认一个切片是128Mb,如果文件大小不到128Mb,那么会产生一个切片,大小就是文件本身的大小,多了也同理。一个block块对应一个切片。再通过RecordReader类将每个切片解析成一个个<k1,v1>。这个时候map端的前期准备工作就OK了,接下来就需要调用Map端的map()方法,这里的map方法可以由我们程序员自己进行实现以达到我们自己想要的需求。

        举个简单的例子,如果我们想实现一个聚合的操作,就可以自己定

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值