简述
先简单把流程过一遍,大家根据自己水平来看就好了。
- java的版本一定要安装到java8,高版本也不行,低版本也不行。
- 安装Hadoop:http://www.apache.org/dyn/closer.cgi/hadoop/common
- 安装Apach Spark:http://spark.apache.org/downloads.html
- 安装pyspark:
pip install pyspark
理论上这个流程已经可以了,我相信搜索到这篇文章的话,就有可能是下面的这几个细节没有注意:
细节一
java的版本号不是1.8 :https://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html
细节二
java所在目录中出现空格
这个直接替换下目录就好了
细节三
添加进环境变量时,所有的相关的目录都需要添加新的变量_home,如*,这样的模式
(很难说为什么,但是就是这样)不然会出现找不到目录的情况。