vscode配置spark

本文详细介绍了如何在VSCode中配置Spark环境,包括解压Spark、设置环境变量、安装py4j、创建工作目录,以及编写并运行Python Spark程序进行WordCount操作。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1. 解压Spark压缩包到D盘,如下图所示:

2.在环境变量中配置SPARK_HOME,如下图所示:

SPARK_HOME

自己的路径
D:\axc\spark-2.4.6-bin-hadoop2.7

在这里插入图片描述

3.把SPARK_HOME 设置为python的exe文件

PYSPARK_PYTHON

自己的路径
C:\Users\wyj\AppData\Local\Programs\Python\Python37\python.exe

在这里插入图片描述

4. 复制spark下的pyspark目录到python安装目录下的lib目录,如下图所示:

在这里插入图片描述

5. 通过cmd执行pip install py4j命令安装py4j,py4j是一个在python中调用java代码的第三方库。效果如下图所示:

在这里插入图片描述

6.在D盘创建spark目录,存储我们的spark代码。

7.打开vscode,打开问哦们创建的存放spark代码的文件夹

8.在VsCode中创建0-TestSpark.py文件,填入以下内容:

from pyspark.sql import SparkSession
spark = SparkSession.builder.appName("WordCount").getOrCreate()
spark.sparkContext.textFile("file:///D:/spark-2.4.6-bin-hadoop2.7/README.md")\
        .flatMap(lambda x: x.split(' '))\
        .map(lambda x: (x, 1))\
        .reduceByKey(lambda x, y: x + y)\
        .foreach(print)

9.运行该python程序,对README.md文件做wordcount,效果如下图所示:

在这里插入图片描述

10.到这里我们配置就完成了,之后只要去写py文件就好,不用启动spark集群

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值