最近有几个处理大数据的计算,占用reduce为999,直接占满slot,导致其它任务无法够取资源。
现在尝试修改
<property>
<name>hive.exec.reducers.max</name>
<value>27</value>
<description>max number of reducers will be used. If the one
specified in the configuration parameter mapred.reduce.tasks is
negative, hive will use this one as the max number of reducers when
automatically determine number of reducers.
</description>
</property>
看看效果如何!
本文介绍了一个关于大数据处理的问题,即某些计算任务占用过多的reduce资源,导致其他任务无法获取资源的情况。通过调整Hive配置文件中的hive.exec.reducers.max参数来限制reduce的数量,以期解决资源占用过高的问题。
7万+

被折叠的 条评论
为什么被折叠?



