在wins10下配置pycharm+spark+Pyspark环境!!!
安装好pycharm+Anaconda
将Hadoop,spark压缩包解压到本地D盘的同名文件夹下,配置环境变量》》系统变量HADOOP_HOME,SPARK_HOME,添加Path
解压支持hadoop2.9.0在windows上运行的hadoop_dll和winutils到hadoop的bin目录下,并将\bin64下的hadoop.dll复制到C:\Window\System32下
...
原创
2019-07-13 12:27:55 ·
417 阅读 ·
0 评论