随便打开一个project,pycharm右上角“run”三角形的左边有一个edit configurition,打开它。
设置configurition---Environment--- Environment variables ---点击“...”,出现框框,点击+,
输入两个name,
一个是SPARK_HOME = D:/spark-2.1.1-bin-hadoop2.7
一个是PYTHONPATH = D:/spark-2.1.1-bin-hadoop2.7/python,设置好了保存。

setting中project structure中点击右边的“add content root”,添加py4j-some-version.zip和pyspark.zip的路径(这两个文件都在Spark中的python文件夹下)

7 完成,from pyspark import SparkContext,红线消失,运行正常。
8.永久配置环境变量

本文介绍如何在PyCharm中配置Spark开发环境。主要包括设置环境变量SPARK_HOME和PYTHONPATH,以及添加py4j和pyspark的路径到项目结构中。通过这些步骤可以确保PyCharm能够正确识别Spark相关模块。
5919

被折叠的 条评论
为什么被折叠?



