MR中Shuffle过程中sort总结

原文: http://blog.youkuaiyun.com/u013080251/article/details/60146294

写在前面的话: 
新学期开学想重新复习一下Hadoop的知识,不断更新自己的知识库,在今天晚上阅读的过程中发现,有人已经总结了Mapreduce在shuffle过程中sort的实施。我以前从来都没有深入探究过sort过程应用的算法,以及sort的次数。今天我将其总结一下: 
排序贯穿于Map任务和Reduce任务,是MapReduce非常重要的一环,排序操作属于MapReduce计算框架的默认行为,不管流程是否需要,都会进行排序。在MapReduce计算框架中,主要用到了两种排序方法:快速排序和归并排序

  1. 快速排序:通过一趟排序将要排序的数据分割成独立的两部分,其中一部分的所有数据比另外一部分的所有数据都小,然后再按此方法对这两部分数据分别进行快速排序,整个排序过程可以递归进行,以此使整个数据成为有序序列。
  2. 归并排序:归并排序在分布式计算里面用的非常多,归并排序本身就是一个采用分治法的典型应用。归并排序是将两个(或两个以上)有序表合并成一个新的有序表,即把待排序序列分为若干个有序的子序列,再把有序的子序列合并为整体有序序列。

在map任务和reduce任务的过程中,一共发生3次排序操作。

  1. 当map函数产生输出时,会首先写入内存的环形缓冲区,当达到设定的阈值,在刷写磁盘之前,后台线程会将缓冲区的数据划分成相应的分区。在每个分区中,后台线程按键进行内排序,如下图5-18所示: 
    这里写图片描述 
    图5-18第一次和第二次排序
  2. 在Map任务完成之前,磁盘上存在多个已经分好区,并排好序的、大小和缓冲区一样的溢写文件,这时溢写文件将被合并成一个已分区且已排序的输出文件。由于溢写文件已经经过第一次排序,所以合并文件时只需要再做一次排序就可使输出文件整体有序。
  3. 在shuffle阶段,需要将多个Map任务的输出文件合并,由于经过第二次排序,所以合并文件时只需要再做一次排序就可使输出文件整体有序,如下图5-19所示。这里写图片描述图5-19 第三次排序 
    在这3次排序中第一次是在内从缓冲区做的排序,使用的算法是快速排序,第二次排序和第三次排序都是在文件合并阶段发生的,使用的是归并排序。
### Spark 和 MapReduce 中 Shuffle 过程的区别 #### 数据处理阶段划分 在 Spark 中,Shuffle write 类似于 MapReduce 的 map 阶段,负责数据的初步加工和分区;而 Shuffle read 则对应着 reduce 阶段,用于聚合来自不同节点的数据并执行最终计算[^1]。 #### 性能影响因素 鉴于 Shuffle 操作涉及到大量的磁盘 I/O 以及跨网络的数据交换,这一步骤成为决定作业执行速度的关键环节之一。因此,Shuffle 效率直接关系到整个应用程序的表现效果[^2]。 #### 设计理念差异 相较于传统意义上的 MapReduce,Spark 对 Shuffle 流程进行了多方面改进,旨在减少中间文件的数量及其大小,并通过内存缓存机制加速数据传递流程。这种设计使得 Spark 能够更好地应对大规模分布式环境下的复杂运算需求[^4]。 #### 容错性考量 尽管 Spark 提供了更为出色的灵活性与效能表现,但在面对特定类型的全局排序任务时,MapReduce 凭借其严谨的设计思路仍然保持着一定优势。这是因为后者特别强调系统的稳定性和错误恢复能力,在这方面做得相对更好一些[^3]。 ```python # Python伪代码展示简单的Shuffle操作对比 def spark_shuffle(data): # 基于RDD或其他结构化API实现更高效的Shuffle逻辑 partitions = data.partitionBy(num_partitions).persist() result = partitions.reduceByKey(lambda a, b: a + b) return result.collect() def mr_shuffle(data): # 使用传统的Mapper/Reducer模式完成相同功能 mapper_output = [] for key_value in data: k, v = process(key_value) mapper_output.append((k,v)) reducer_input = sort_and_group(mapper_output) final_result = {} for group in reducer_input: reduced_val = combine(group.values()) final_result[group.key()] = reduced_val return list(final_result.items()) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值