启动SPARK时出现类似error虚拟机SAPRK,not found sc,于是按照以下方法修改:
1.查看ifconfig,看ip地址是否和你在/etc/hosts中的ip地址一致,如果不一致,修改/etc/hosts中的ip地址。
2.查看spark-env.sh中配置的SPARK_MASTER_IP是否和ifconfig中的ip地址一致,如果不一致,请修改SPARK_MASTER_IP。
3 重启虚拟机或者重新启动spark
修改后发现仍然没有作用,后来发现一个规律重启后第一次不会报错,后想到是强制关掉spark-shell造成端口占用,导致error
所以退出spark时,一定要使用:quit
本文介绍了解决Spark启动时报错的方法,包括检查并修正/etc/hosts文件中的IP地址、确保spark-env.sh中的SPARK_MASTER_IP与实际IP一致以及正确退出Spark Shell避免端口占用。
1238

被折叠的 条评论
为什么被折叠?



