一、环境准备
windows
python3.+
pycharm或者anaconda
spark安装版(解压好之后)
二、设置环境变量
添加系统变量(设置自己的路径)
1.spark
SPARK_HOME=D:/bigdatashare/spark-2.4.3-bin-hadoop2.7
Path=D:/bigdatashare/spark-2.4.3-bin-hadoop2.7/bin
2.Python
PYTHON_HOME=D:/Python3.7.0
Path=D:/Python3.7.0/bin
三、导入pyspark包+py4j包
1.可以复制解压好的spark安装包内的pyspark和py4j文件夹解压之后---->anaconda的安装目录下的site-packages文件夹下:
2.可