Spark版本:2.3.1 (最新版)
hadoop版本:2.7
jdk版本:1.8.0
scala版本:官网最新版
第一步:首先安装jdk
一定要注意安装路径,我是安装在C盘,因为spark 环境搭建路径不能出现空格。

设置环境变量:
首先是JAVA_HOME 路径:C:\Java\jdk1.8.0_121

然后是CLASSPATH 路径: .;%JAVA_HOME%\lib\dt.jar;%JAVA_HOME%\lib\tools.jar;

测试:CMD 输入java & javac 不报错,就说明你安装好啦!
接下来安装hadoop啦!
我的解压路径:

如法炮制:配置环境变量,和java一样有两个路径。

本文介绍了如何在Windows 10 64位系统上搭建大数据Spark单机环境,包括安装配置JDK 1.8、Hadoop 2.7,确保安装路径无空格,设置相关环境变量,并解决winutils.exe权限问题。通过修改log4j.properties文件减少启动时的日志输出,最后简述了Pyspark的配置与交互使用。
最低0.47元/天 解锁文章
848

被折叠的 条评论
为什么被折叠?



