主要是给节点分配的内存少,yarn kill了spark application。
给yarn-site.xml增加配置:
<property>
<name>yarn.nodemanager.pmem-check-enabled</name>
<value>false</value>
</property>
<property>
<name>yarn.nodemanager.vmem-check-enabled</name>
<value>false</value>
</property>重启hadoop。然后再重新提交spark application即可。
本文介绍了解决因内存不足导致YARN kill Spark应用的问题。通过修改yarn-site.xml文件中的配置项,并重启Hadoop服务,可以避免YARN因内存检查而终止Spark任务。
1800

被折叠的 条评论
为什么被折叠?



