大数据之-Hadoop3.x_MapReduce_分区数与reduce个数总结---大数据之hadoop3.x工作笔记0113

本文探讨了在Hadoop MapReduce中,设置不同数量的reduce任务(分区数)对执行的影响。当设置的分区数少于实际需要的分区时,会导致IO异常;设置为1则所有数据由一个reduce处理,生成一个分区文件;若分区数大于实际需求,会创建空的分区文件,造成资源浪费。自定义分区类时,分区号需从0开始且连续。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1.然后我们再来看,上一节我们执行的时候设置的job.setNumReduceTasks(5),我们分成了5个分区,那么如果我们设置成4,可以看到上面

会怎么样? 

 2.设置以后执行可以看到,报错了对吧,报的是io异常,为什么?

因为我们我们如果设置4,但是我们自定义的partitioner中,是需要5的,这个时候去找5,这个分区文件就找不到自然就报错了.

去5分区,写数据的时候,没办法写就报io异常了.

3.上面是分析,可以看到没有5分区,非要向5分区中写入数据就报错了io异常. 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

添柴程序猿

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值