Spark 处理完后的DataFrame写入pgsql时报错:
通过查看分区数,发现分区在100~500之间,因此写入时repation至10个分区,后来报错如下:
最终调小 --num-executors 6解决。

记一次spark 写入pgsql异常及解决
Spark写入PGSQL错误解决
最新推荐文章于 2024-01-05 10:37:57 发布
博客详细描述了在使用Spark处理DataFrame并尝试将其写入PostgreSQL时遇到的错误。作者发现分区数量过多可能是问题所在,尝试调整--num-executors参数至6后,成功解决了写入过程中的错误。

1520





