windows下 pycharm+spark-1.6.2-bin-hadoop2.3+kafka配置
1、下载spark-1.6.2-bin-hadoop2.3,添加环境变量再将%SPARK_HOME%;%SPARK_HOME%\bin;%SPARK_HOME%\sbin;添加到PATH中。另外还需配置pycharm中run->Environment variables:注意:PYTHONPATH是spark目录下的python目录,如果不配置,运行到sparkconte...
原创
2018-08-31 14:49:26 ·
825 阅读 ·
0 评论