Shuffle过程是会按照Map中输出的key,把数据默认分到一个分区中,那么默认的是如何实现的?

HashPartitioner是Partitioner默认的分区规则,其中numReduceTasks就是指定的Reducer的个数,决定了Reducer作业输出文件的个数。
自定义Partitioner
package com.imooc.bigdata.hadoop.mr.access;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Partitioner;
/**
* MapReduce自定义分区规则
*/
public class AccessPartition extends Partitioner<Text, Access> {
/**
* @param phone 手机号
* @param access
* @param numPartitions
* @return
*/
@Override
public int getPartition(Text phone, Access access, int numPartitions) {
if (phone.toString().startsWith("13")) {
return 0;
} else if (phone.toString().startsWith("15")) {
return 1;
} else {
return 2;
}
}
}
在main方法中配置:
// 设置自定义分区规则
job.setPartitionerClass(AccessPartition.class);
// 设置reduce个数
job.setNumReduceTasks(3);
这样就将结果输出到不同的文件中去了。
本文详细解析了MapReduce中Shuffle过程的默认分区规则,即HashPartitioner的作用,并介绍了如何通过自定义Partitioner来实现更灵活的数据分区策略,以适应特定的业务需求。
2070

被折叠的 条评论
为什么被折叠?



