01-集群空间被沾满导致sparksql执行失败异常

本文介绍了解决Spark SQL异常的具体步骤,包括删除yarn产生的usercache目录以临时解决问题,并提出为根本解决问题需要扩展集群并进行balance。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

异常log:
Caused by: java.sql.SQLException: org.apache.spark.SparkException: Job aborted due to stage failure: Task 799 in stage 9537.0 failed 4 times, most recent failure: Lost task 799.3 in stage 9537.0 (TID 14699170, node37.tj.leap.com): java.io.IOException: No space left on device



解决方案:
1.将yarn产生的usercache目录删除,临时得以解决
2.没有从根本上解决问题,数据量太大,空间太小了,下次还会发生类似问题,扩展集群,再做balance才能从根本上解决问题
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值