- 博客(3)
- 收藏
- 关注
原创 spark运行报错:env: “/home/hadoop/anaconda3/envs/pyspark/bin/python3.8“: 没有那个文件或目录
在进入spark的过程中,出现报错【env:"/home/hadoop/anaconda3/envs/pyspark/bin/python3.8": 没有那个文件或目录】,当时我立马就被搞蒙了,百度了各种方法,最终都没有解决。当然有大佬说“进入conf目录下,修改spark-env.sh文件”,这个方法我也进行了修改,最终在终端输入./bin/pyspark,仍然会提示上面的报错信息。此处我们使用的虚拟系统为Ubuntu,请未下载的自行下载,此处只解答报错问题。
2024-10-17 11:30:49
1075
2
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅