- 点赞、关注再看,养成良好习惯
- Life is short, U need Python
由于大部分学生用的都是windows系统,而且博主也是windows系统,所以想在win10上安装Spark学习大数据分析,于是开始搜索相关的文章,通过亲自挖坑Spark学习发现大多博文都比较混乱(但是自己却学会了相关很多知识),结合实际情况博主认为大家有一下四类需求(因为博主比较熟悉Python,所以只分析Python语言版,至于Scala语言版可以查询相关文献资料):
(1)Win10下安装Spark(Python+Local版+非虚拟机版):Local版即单机版,也就是说用户无需集群版(事实上,仅仅做一下大数据分析初学者最适合);环境准备如下:
- Anaconda3
- jdk-8u121-windows-x64.exe
- spark-2.4.5-bin-hadoop2.7
- winutils.exe (注意:与spark-2.4.5-bin-hadoop2.7中hadoop版本一致性)
(2)Win10下安装Spark(Python+非Local版+非虚拟机版):非Local版即集群版,这时需要Hadoop;环境准备如下:
- Anaconda3
- jdk-8u121-windows-x64.exe
- hadoop-2.7.7.tar.gz
- spark-2.4.5-bin-hadoop2.7
- scala-2.11.12.msi(注意:与spark版本的一致性)
- winutils.exe (注意:与spark-2.4.5-bin-hadoop2.7中hadoop版本一致性)
(3)Win10下安装Spark(Python+Local版+虚拟机版+Linux系统):通过在win10中安装VirtualBox虚拟机软件,然后在虚拟机软件上安装Linux系统虚拟机(Ubuntu);环境准备如下:
- Anaconda3
- VirtualBox
- jdk-8u121-windows-x64.exe
- spark-2.4.5-bin-hadoop2.7
- winutils.exe (注意:与spark-2.4.5-bin-hadoop2.7中hadoop版本一致性)
(4)Win10下安装Spark(Python+非Local版+虚拟机版+Linux系统):非Local版即集群版,这时需要Hadoop;环境准备如下:
- Anaconda3<

本文详细介绍了在Windows 10系统上安装Apache Spark的不同场景,包括本地单机版和集群版,以及使用虚拟机的Linux系统环境。涵盖了安装Anaconda3、JDK、Spark、Hadoop、VirtualBox等步骤,并提供了环境变量配置、权限修改和pyspark模块安装的指导。
最低0.47元/天 解锁文章
2万+





