Hadoop任务提交到YARN运行出现Shuffle$ShuffleError: error in shuffle in fetcher#5

Error: org.apache.hadoop.mapreduce.task.reduce.Shuffle$ShuffleError: error in shuffle in fetcher#5
Caused by: java.io.IOException: Exceeded MAX_FAILED_UNIQUE_FETCHES; bailing-out

图为错误信息,运行的是example中提供的计算PI的任务

##错误原因:内存空间不足,
https://www.cnblogs.com/barneywill/p/10114729.html
我们需要做的是配置yarn.nodemanager.local-dirs参数,
因为默认配置${hadoop.tmp.dir}/nm-local-dir,配置在这里会经常报磁盘空间不足的错误
之前也试过网上其他答案的修改hosts,修改诸如mapreduce.reduce.shuffle.memory.limit.percent的参数的帖子并不奏效,其实本质在于内存空间不足,
在yarn-site.xml中做如下配置:

注意关键是第三个配置,他的value是自己新建的一个tmp目录,自己建一个tmp目录即可
注意关键是第三个配置,他的value是自己新建的一个tmp目录,自己建一个tmp目录即可

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值