1.创建一个pycharm项目,在里面创建py文件
2.然后在Run中选择“Edit Configurations”,选中Templates下面的python。
3.点击Environment variables空格后的小图标,
不要改变里面的PYTHONUNBUFFERED,
单击+,name和value分别写入“PYTHONPATH”和“H:\spark-1.6.0-bin-hadoop2.4\python”,
再次添加,name和value分别写入“SPARK_HOME”和“H:\spark-1.6.0-bin-hadoop2.4”。
4.选择File->setting->你的project->project structure,
右上角Add content root添加:
py4j-some-version.zip和pyspark.zip的路径(这两个文件都在Spark\python\lib文件夹下)
5.over
完成
6.如果出现关键词缺失的错误
可能因为python版本为3.6或更高,
可按照https://blog.youkuaiyun.com/ExclusiveName/article/details/102654754更改。