Hadoop学习日记(十二)——MapReduce自定义分组的实现

本文详细介绍了在Hadoop中使用MapReduce自定义分组机制的方法,包括自定义Partitioner类实现特定分组逻辑,以及如何设置reducertask的任务并发数与分组数量相匹配,避免错误。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Hadoop学习日记(十二)

2019.07.03

主题:MapReduce自定义分组的实现

学习过程主要参考段海涛大数据p34

1.自定义分组机制

MapReduce进行分组是根据一个继承Partitioner类的具体实现类来定义的,一般是默认有一个HashPartitioner类。如果要自定义自己的分组机制,自然就需要自定义一个自己的继承Partitioner类的具体实现类(例如MyPartitioner类),在MyPartitioner类里定义自己想要实现的分组机制,最后在Runner类里指定分组机制为自定义分组机制。

job.setPartitioner(MyPartitioner.class);

2.自定义reducer task的任务并发数

job.setNumReduceTasks(num);

reduce的任务并发数应该和分组的数量保持一致。

如果任务并发数大于分组的数量,则多的那几个任务拿不到数据,输出为空,不会报错。

如果任务并发数小于分组的数量,会报错,错误提示为Illegal partition for xxxx

需要注意的是如果设置为1是可以的,因为如果本身不设置任务并发数,只设置分组机制,默认是1个reduce task。

总结来说,要么是1个reduce task,要么有大于等于分组数的reduce task。

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值