hue同时执行多个任务出现org.apache.hadoop.mapred.TaskAttemptListenerImpl - Progress of TaskAttempt attempt_153...

本文介绍了如何通过修改CDH集群中的YARN资源配置来优化任务调度。针对DRF(DominantResourceFairness)调度策略,调整了与CPU及内存相关的多个参数,包括map和reduce任务的内存与vcores设置。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

根据网上提供的方法,在core-site.xml我添加了如下配置但是好像不管用

 <property>
    <name>hadoop.proxyuser.oozie.groups</name>
    <value>*</value>
  </property>
  <property>
    <name>hadoop.proxyuser.oozie.hosts</name>
    <value>*</value>
  </property>

然后我从CDH资源配置源头修改,根据自己的服务器的配置对yarn资源进行优化

DRF和相关参数

DRF: Dominant Resource Fairness,根据CPU和内存公平调度资源。CDH动态资源池默认采用的DRF计划策略。简单的理解就是内存不够的时候,多余的CPU就不会分配任务了,就让他空着;CPU不够的时候,多出来的内存也不会再启动任务了。

理解这个计划策略后,再查看Yarn启动任务时资源相关的参数,发现有以下几个参数可能会产生影响:

  • mapreduce.map.memory.mb ,map任务内存,cdh默认1G
  • mapreduce.map.cpu.vcores ,map任务虚拟CPU核数,cdh默认1
  • mapreduce.reduce.memory.mb ,reduce任务内存,cdh默认1G
  • mapreduce.reduce.cpu.vcores ,reduce任务虚拟CPU核数,cdh默认1
  • yarn.nodemanager.resource.memory-mb ,容器内存,cdh默认8G
  • yarn.nodemanager.resource.cpu-vcores ,容器虚拟CPU核数,cdh默认8,但CM会自动检测内核数并修改,我这里被自动改成了24。

可以看到默认配置下,CPU核数和内存是1:1G的比例来启动任务的。

这里要根据自己服务器的配置进行修改

参考https://www.tuicool.com/articles/ERbMruN

转载于:https://www.cnblogs.com/liquan-anran/p/9431576.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值