spark 执行报告异常:
15/04/17 04:15:57 INFO scheduler.TaskSetManager: Lost task 471.0 in stage 1.0 (TID 459) on executor ip-172-1-1-2.cn-north-1.compute.internal: java.lang.OutOfMemoryError (GC overhead limit exceeded) [duplicate 2]
解决方法:
spark.executor.memory 调大参数扩大内存(默认512M,调整为2G)
本文讨论了Spark执行报告中出现的异常情况,特别是关于内存溢出错误的详细解决方案,并提供了调整Spark executor内存参数的指导,以避免类似问题的发生。
1470

被折叠的 条评论
为什么被折叠?



