Windows本地搭建Spark开发环境

本文详细介绍如何在Windows系统下快速搭建Spark开发环境,包括安装Spark、Hadoop及IDEA等步骤,并提供解决常见问题的方法。

作者:翁松秀


Windows系统下搭建Spark开发环境三步曲,简单粗暴,走你┏ (゜ω゜)=☞
[TOC]

Step1:安装Spark

到官网http://spark.apache.org/downloads.html选择相应版本,下载安装包。我这里下的是2.1.3版本,后面安装的Hadoop版本需要跟Spark版本对应。下载后找个合适的文件夹解压即可。我是新建了一个home文件夹,底下放了三个文件夹,分别是spark, hadoop, scala。
这里写图片描述
解压之后配置环境变量,将Spark底下的bin文件所在的目录添加到环境变量的Path变量中,后面Hadoop也一样。
这里写图片描述
然后打开cmd进行测试,输入spark-shell,如果出现如下的”Spark”说明安装成功。
这里写图片描述
OK, Welcome to Spark!

Step2: 安装Hadoop

http://mirrors.hust.edu.cn/apache/hadoop/common/下载相应版本的Hadoop安装包,我下的是2.7.7。具体的Spark和Hadoop版本对应可以到网上查,Spark和Hadoop版本不一致可能会导致出问题。
这里写图片描述
将下载好的安装好进行解压,然后将Hadoop底下的bin目录配置到Path变量中。
为了防止运行程序的时候出现nullpoint异常,到github下载hadoop.dll和winutils.exe 下载地址:https://github.com/steveloughran/winutils
找到对应的hadoop版本,然后进入bin目录下,下载hadoop.dll和winutils.exe, 然后复制到所安装hadoop目录下。
到官网https://www.scala-lang.org/download/下载镜像,然后安装即可。一般默认会自动配置好环境变量。安装好之后打开cmd测试,输入scala,如果出现以下内容则安装成功。
这里写图片描述
如果没有成功,检查一下Path环境变量,如果安装之后没有自动配置,则手动配置,参照Spark的环境配置。

Step3: 安装IDEA

Spark开发有两种方式,一种是用内置的spark-shell,另一种是独立应用开发,独立应用开发支持的语言有Java、Scala、Python和R语言。如果采用Java语言进行Spark开发,需要配置Maven,最新版的Eclipse和IntelliJ都内置Maven,所以采用Eclipse和IntelliJ来开发Spark是比较方便的。

IntelliJ安装参考教程
https://blog.youkuaiyun.com/qq_35246620/article/details/61200815

Eclipse安装参考教程
https://jingyan.baidu.com/article/d7130635194f1513fcf47557.html

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

翁松秀

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值