windows下安装spark

windows下安装spark

1、安装jdk

在这里插入图片描述

2、安装scala(注意版本)

在这里插入图片描述

3、下载spark

下载地址
在这里插入图片描述
在这里插入图片描述

  • 将下载的文件解压到一个目录,注意目录不能有空格,比如说不能解压到C:\Program Files(x86)
  • 编辑Path环境变量添加路径
    在这里插入图片描述

4、安装hadoop

下载地址

  • 点击binary下载2.9.2版本
    在这里插入图片描述
  • 解压后配置系统变量
    在这里插入图片描述

在Path添加
在这里插入图片描述

  • 可能会疑惑为什么spark对应的hadoop是2.7但是我安装的是2.9.2,因为我能下到的只有2.9.2,但是实测也能用

5、下载winutils(winutils.exe是在window系统上安装hadoop时所需要的winutils文件)

下载地址

下载对应版本
在这里插入图片描述
接下来将bin替换原来Hadoop中的bin

6、运行spark-shell

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值