Yarn中的Map和Reduce的优化

本文介绍了如何解决Hive执行的Spark任务因内存不足而失败的问题。提供了五个方面的优化建议,包括调整Yarn的容器内存配置,提升Map和Reduce任务的可用内存等。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

通过Hive执行的批次任务处理失败,Spark中报的错误日志如下:

ERROR : Failed to monitor Job[ 3] with exception 'java.lang.IllegalStateException(RPC channel is closed.)'
java.lang.IllegalStateException: RPC channel is closed.
	at com.google.common.base.Preconditions.checkState(Preconditions.java:145)
	at org.apache.hive.spark.client.rpc.Rpc.call(Rpc.java:277)
	at org.apache.hive.spark.client.SparkClientImpl$ClientProtocol.run(SparkClientImpl.java:584)
	at org.apache.hive.spark.client.SparkClientImpl.run(SparkClientImpl.java:151)
	at org.apache.hadoop.hive.ql.exec.spark.status.impl.RemoteSparkJobStatus.getSparkJobInfo(RemoteSparkJobStatus.java:147)

通过Yarn的ResourceManager可以看到错误日志如下:

Diagnostics: Container [pid=31880,containerID=container_1528360247633_0013_01_000001] is running beyond physical memory limits. 
Current usage: 1.0 GB of 1 GB physical memory used; 2.8 GB of 2.1 GB virtual memory used. Killing container.

其中提示“1.0 GB of 1 GB physical memory used; 2.8 GB of 2.1 GB virtual memory used”,说明是由于内存不足导致了问题的发生,因而需要针对Yarn的容器的内存做优化。

1.调整每个容器节点的最大可用内存

这个根据当前所使用服务器的实际情况决定,另外还需要考虑给操作系统预留可使用的内存,如当前的服务器的内存为16G,可以配置为12G,其余4G留给操作系统:

<name>yarn.nodemanager.resource.memory-mb</name>
<value>12000</value>

注:配置在yarn-site.xml中

2.调整单个容器可申请的最小内存

调整参数为yarn.scheduler.minimum-allocation-mb,该值和第1点谈到的单个容器的最大可存,可用于测算单台服务器可运行的最多的容器数,现将其值调为2G:

 <name>yarn.scheduler.minimum-allocation-mb</name>
 <value>2048</value>

注:配置在yarn-site.xml中

3.提升Map和Reduce可使用的内存

在当前示例中,给每个容器设置了2G的内存(通过参数yarn.scheduler.minimum-allocation-mb=2048),因此我们给Map任务容器分配了4G的内存,给Reduce任务容器分配了8G的内存:

 <name>mapreduce.map.memory.mb</name>
 <value>4096</value>
 <name>mapreduce.reduce.memory.mb</name>
 <value>8192</value>
注:配置在mapred-site.xml中

4.优化Map和Reduce任务的JVM内存

每个Container都会运行Map和Reduce任务运行,因而JVM堆大小应设置为低于上面定义的Map和Reduce内存,以便它们位于由YARN分配的Container内存的范围内。

 <name>mapreduce.map.java.opts</name>
 <value>-Xmx3072m</value>
 <name>mapreduce.reduce.java.opts</name>
 <value>-Xmx6144m</value>

注:配置在mapred-site.xml中

5、优化虚拟内存的占比

每个Map和Reduce任务的虚拟内存(物理+分页内存)上限由每个允许YARN容器的虚拟内存比决定。 这由以下配置设置,默认值为2.1:
 <name>yarn.nodemanager.vmem-pmem-ratio</name>
 <value>2.1</value>
注:配置在yarn-site.xml中


参考:https://hortonworks.com/blog/how-to-plan-and-configure-yarn-in-hdp-2-0


评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值