windows下安装spark
windows下安装spark
1、安装jdk
2、安装scala(注意版本)
3、下载spark
- 将下载的文件解压到一个目录,注意目录不能有空格,比如说不能解压到C:\Program Files(x86)
- 编辑Path环境变量添加路径
4、安装hadoop
- 点击binary下载2.9.2版本
- 解压后配置系统变量
在Path添加
- 可能会疑惑为什么spark对应的hadoop是2.7但是我安装的是2.9.2,因为我能下到的只有2.9.2,但是实测也能用
5、下载winutils(winutils.exe是在window系统上安装hadoop时所需要的winutils文件)
下载对应版本
接下来将bin替换原来Hadoop中的bin