原因是内存不足,你可以在spark文件夹下的conf文件夹中的spark-defaults.conf文件里修改参数spark.driver.memory 的参数,例如我的电脑8g,这里写1g
本文介绍了解决Spark运行过程中出现内存不足的问题。通过调整Spark配置文件spark-defaults.conf中的spark.driver.memory参数来增加分配给Driver程序的内存大小。
原因是内存不足,你可以在spark文件夹下的conf文件夹中的spark-defaults.conf文件里修改参数spark.driver.memory 的参数,例如我的电脑8g,这里写1g
8095
1739
7200
2023
3807

被折叠的 条评论
为什么被折叠?