MapReduce简述、工作流程

本文深入解析MapReduce(MR)编程模型的执行步骤与处理流程,包括输入数据的准备、mapper处理、shuffle、reduce处理及结果输出。阐述了MR中Split、InputFormat、OutputFormat的概念及其工作原理,并对比了MapReduce1.x与2.x的架构差异。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

MR编程模型之执行步骤:

  1、准备map处理的输入数据

  2、mapper处理

  3、Shuffle

  4、Reduce处理

  5、结果输出

 (input)<k1,v1> -> map -><k2,v2> -> combine -> <k2,v2> ->reduce -> <k3,v3>(output)

 

 

 

处理流程:

  

流程:

  1、输入文本信息,由InputFormat -> FileInputFormat -> TextInputFormat,通过getSplits方法获得Split数组,然后在用getRecordReader 方法对Split做处理,每读一行交给一个map处理

  2、每个节点上的所有map,交由该节点上的Partitioner处理(Shuffling的过程),按key将map放在其他节点上去还是继续在该节点下处理

  3、排序

  4、结果交由reduce处理

  5、处理完成后由 OutputFormat ->FileOutputFormat ->TextOutputFormat 写到本地或Hadoop上

 

Split:MR处理的的数据块,MR中最小的计算单元,默认是与HDFS中的Block(HDFS中的最小存储单元,默认128M)是一一对应的,也可以手工设置(不建议修改)

InputFormat:将输入的数据进行分片(Split) InputSplit[] getSplits(JobConf var1, int var2)

  TextInputFormat:用来处理文本格式的数据

OutputFormat: 输出

 

 

上图图解:

  一般来说,一个Split对应一个Block,但上图是一个设置过后的。

  一个file文件被分成了n个Block,对应着就是2n个Split,经过InputFormat处理后,每个Split交由一个Mapper处理,通过Shuffling的分组和排序后产生多个Reducer,每个Reducer就会产生一个文件

 

 

 

MapReduce 1.x的架构:一个JobTracker+多个taskTracker

    JobTracker:负责资源管理和作业调度

    TrakTracker:定期向JobTracker汇报节点的健康、资源、作业情况,接收JT的命令,比如启动/杀死任务

 

MapReduce 2.x:

  

 

转载于:https://www.cnblogs.com/onone/articles/8483689.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值