文章目录
安装Spark开发环境
1.下载安装Java
略
2.下载安装Scala
https://www.scala-lang.org/download/2.11.12.html
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传


双击安装




等待安装完成!

3.安装hadoop
下载hadoop,我们选择2.7.7版本
http://hadoop.apache.org/releases.html



下载-bin版本压缩包(-src属于源码版本,不能直接使用,主要提供学习或源码修改)
下载完毕后,解压拷贝到指定文件夹下:

添加系统环境变量:HADOOP_HOME
在Path变量中,新建变量:%HADOOP_HOME%和%HADOOP_HOME%\bin

本文详述了在Windows上安装Spark开发环境的步骤,包括Java、Scala、Hadoop的安装,Spark的配置,特别是解决winutils.exe缺失问题和配置Python-PySpark环境,最后通过测试脚本确保环境搭建成功。
最低0.47元/天 解锁文章
1570

被折叠的 条评论
为什么被折叠?



