从网上看到好多资料都是说Java的JDK没有配置好或者本地的Spark包没有指定。
当前遇到一个JDK已经设置完毕,并且Java -version 也存在,Spark也设置完毕了,还是存在这个问题的。
我的问题出现在本地的 Spark 包上,我是用的Spark 的 src 源码包,需要使用有 Hadoop 依赖的编译完成后的包:
Java gateway process exited before sending its port number(已解决)
最新推荐文章于 2025-11-05 18:35:45 发布
作者在配置完JavaJDK和Spark后仍遇到问题,焦点在于使用Spark的src源码包时,需确保包含Hadoop依赖的编译版本。
2794

被折叠的 条评论
为什么被折叠?



