Spark3.2.* spark-shell在windows启动失败原因characterIllegal character in path at index
碰到这个问题也是一脸懵逼,刚开始以为是自己的环境问题,但是pyspark就没什么问题,后来在StackOverFlow中找到了解决方案
StackOverflow:https://stackoverflow.com/questions/69669524/spark-illegal-character-in-path
两种解决方案
是spark降级3.0.*就没有这种情况
启动两个spark, 一个master,然后用spark-shell连接masterspark-class org.apache.spa
原创
2022-02-22 16:20:54 ·
2103 阅读 ·
0 评论