在MapTask中,缓冲区数据溢写(Spill)到磁盘前的排序是分区内的排序,而非分区间(全局)的排序。具体过程如下:
1. 分区(Partitioning)优先
- MapTask处理输入数据生成键值对(
<key, value>
)时,会首先根据Partitioner(默认是HashPartitioner
)计算每个键对应的分区号(partition ID
),即决定该键值对属于哪个Reduce任务处理的分区。 - 缓冲区内的数据按分区号分组,相同分区的数据被分配到同一内存区域。
2. 分区内排序(Sort within Partition)
- 排序发生在每个分区内部:在溢写前,每个分区的数据会根据
key
进行排序(默认按字典序,可通过RawComparator
自定义)。 - 分区间无全局排序:不同分区的数据在溢写时彼此独立,不会跨分区排序。例如,分区1的数据按
key1
排序,分区2的数据按key2
排序,但分区1和分区2的key1
与key2
之间没有顺序关系。
3. 溢写(Spill)到磁盘
- 每个分区的排序后的数据会单独写入磁盘文件(如
spill0.out
,spill1.out
),且每个文件内部分区数据保持有序。 - 最终,所有溢写文件会被合并(Merge)成一个分区有序的输出文件,合并过程保证同一分区的数据仍按
key
有序。
4. 总结
阶段 | 排序范围 | 说明 |
---|---|---|
分区(Partition) | 分区间划分 | 数据按partition ID 分组,决定Reduce任务处理范围。 |
排序(Sort) | 分区内按key 排序 | 每个分区的数据单独排序,分区间无全局顺序。 |
溢写(Spill) | 保持分区内有序 | 合并后的最终输出文件中,同一分区的数据有序,不同分区间仍无序。 |
示例
假设Reduce任务数为2,MapTask生成以下键值对:
(apple, 1), (banana, 1), (cat, 1), (dog, 1)
- 分区:假设
HashPartitioner
将apple
和cat
分到分区0,banana
和dog
分到分区1。 - 排序:
- 分区0内排序结果:
(apple, 1) → (cat, 1)
- 分区1内排序结果:
(banana, 1) → (dog, 1)
- 分区0内排序结果:
- 结果:分区0和分区1各自有序,但分区0的
apple
与分区1的banana
之间无顺序关系。
为何不进行分区间全局排序?
- 性能考虑:全局排序需要将所有数据加载到内存,对大规模数据不现实。
- Reduce阶段需求:每个Reduce任务仅需处理自己分区的有序数据,最终结果的多分区有序性由业务逻辑决定(例如:若只有一个Reduce任务,则等同于全局排序)。
因此,Map端的排序是分区内有序,而分区间无序。全局有序需通过单Reduce任务或自定义逻辑实现。