MapReduce工作流程------学习笔记

MapReduce的工作流程包括Map任务和Reduce任务的执行。Map任务由数据split驱动,每个split对应一个Map任务,split的划分由用户决定。Reduce任务数量通常小于集群中的reduce任务槽数目,以预留资源应对可能出现的错误。所有数据交换通过框架自身完成,任务间不直接通信。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1、不同的Map任务之间不会进行通信

2、不同的Reduce任务之间也不会发生任何信息交换

3、用户不能显式地从一台机器向另一台机器发送消息

4、所有的数据交换都是通过MapReduce框架自身去实现的

各个执行阶段:



HDFS 以固定大小的block 为基本单位存储数据

而对于MapReduce 而言,其处理单位是split。

split 是一个逻辑概念,它只包含一些元数据信息,比如数据起始位置、数据长度、数据所在节点等。它的划分方法完全由用户自己决定。

Map任务数:

Hadoop为每个split创建一个Map任务,split 的多少决定了Map任务的数目。大多数情况下,理想的分片大小是一个HDFS块;

R

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值