Windows10系统spark3.0.0配置

本文详细指导了如何在Windows10系统上配置JavaJDK1.8,Scala2.12.0,Hadoop3.1.0,以及Spark3.0.3,包括环境变量设置、验证方法和Hadoop配置文件的修改。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

前言

Windows10系统基本环境:spark3.0.0+hadoop3.1.0+scala2.12.0+java jdk1.8。

一、配置java jdk1.8

1. jdk环境变量配置

环境变量配置路径:电脑→属性→高级系统设置→环境变量

path中加入:%JAVA_HOME%/bin。
注:jdk版本不宜过高。

2. 配置验证

cmd验证:

java -version

二、配置scala2.12.0

1.下载scala安装包

官方下载网址:https://www.scala-lang.org/

选择对应版本,这里我选择的是scala2.12.0版本。

下载Windows系统对应的压缩包。

2. 配置scala环境

环境变量配置路径:此电脑→属性→高级系统设置→环境变量

path中加入:%SCALA_HOME%/bin。

3. 验证配置

cmd验证配置:

scala -version

三、配置Hadoop3.1.0

1.Hadoop下载

从Apache官网下载Hadoop:https://hadoop.apache.org/
官网下载速度较慢,也可使用国内镜像下载。

2. Hadoop环境变量配置

配置步骤同Scala配置。

注意:需要把%HADOOP_HOME%\bin与%HADOOP_HOME%\sbin一同加入path中。

3. Windows系统bin下载:

windows系统需要替换hadoop安装包里的bin文件夹。

不同版本bin文件下载链接:https://gitee.com/tlbrun/hadoopWinutils/。
下载成功直接覆盖本地bin。

4. 配置Hadoop启动文档和脚本

配置\etc\hadoop\下的如下5个文件。

(1)在core-site.xml末尾加入如下代码,代码中路径按照自己本地路径相应修改:

<configuration>

<property>

<name>fs.default.name</name>

<value>hdfs://localhost:8900</value>

</property>

<property>

<name>hadoop.tmp.dir</name>

<value>E:/soft/hadoop-3.1.0/tmp/${user.name}</value>

<description>A base for other temporary directories.</description>

</property>

</configuration>

(2)在hdfs-site.xml末尾加入如下代码,代码中路径按照自己本地路径相应修改:

<configuration>

<!-- 这个参数设置为1,因为是单机版hadoop -->

<property>

<name>dfs.replication</name>

<value>1</value>

</property>

<property>

<name>dfs.permissions</name>

<value>false</value>

</property>

<property>

<name>dfs.namenode.name.dir</name>

<value>/E:/soft/hadoop-3.1.0/data/namenode</value>

</property>

<property>

<name>fs.checkpoint.dir</name>

<value>/E:/soft/hadoop-3.1.0/data/snn</value>

</property>

<property>

<name>fs.checkpoint.edits.dir</name>

<value>/E:/soft/hadoop-3.1.0/data/snn</value>

</property>

<property>

<name>dfs.datanode.data.dir</name>

<value>/E:/soft/hadoop-3.1.0/data/datanode</value>

</property>

</configuration>

(3)在yarn-site.xml末尾添加如下代码:

<configuration>

<!-- Site specific YARN configuration properties -->

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

<property>

<name>yarn.nodemanager.auxservices.mapreduce.shuffle.class</name>

<value>org.apache.hadoop.mapred.ShuffleHandler</value>

</property>

</configuration>

(4)在mapred-site.xml末尾添加如下代码:

<configuration>

<property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>

</configuration>

(5)在hadoop-env.cmd配置以下2个地方:

5. 启动Hadoop

进入hadoop目录:E:\soft\hadoop-3.1.0\bin,打开cmd,执行命令:

.\hdfs namenode -format

进入目录:E:\soft\hadoop-3.1.0\sbin,找到start-all.cmd,右键以管理员身份运行。
运行完毕可以看到以下四个服务:

四 、配置Spark3.0.3

1. Spark下载

Spark3.0.3官网下载:

https://spark.apache.org/releases/spark-release-3-0-0.html

2. Spark环境配置

配置步骤同scala配置。

注意:需要把%SPARK_HOME%\bin与%SPARK_HOME%\sbin一同加入path中。

3. 配置验证

cmd命令:

spark-shell

Spark配置成功。

### 解决PyCharm无法加载Conda虚拟环境的方法 #### 配置设置 为了使 PyCharm 能够成功识别并使用 Conda 创建的虚拟环境,需确保 Anaconda 的路径已正确添加至系统的环境变量中[^1]。这一步骤至关重要,因为只有当 Python 解释器及其关联工具被加入 PATH 后,IDE 才能顺利找到它们。 对于 Windows 用户而言,在安装 Anaconda 时,默认情况下会询问是否将它添加到系统路径里;如果当时选择了否,则现在应该手动完成此操作。具体做法是在“高级系统设置”的“环境变量”选项内编辑 `Path` 变量,追加 Anaconda 安装目录下的 Scripts 文件夹位置。 另外,建议每次新建项目前都通过命令行先激活目标 conda env: ```bash conda activate myenvname ``` 接着再启动 IDE 进入工作区,这样有助于减少兼容性方面的问题发生概率。 #### 常见错误及修复方法 ##### 错误一:未发现任何解释器 症状表现为打开 PyCharm 新建工程向导页面找不到由 Conda 构建出来的 interpreter 列表项。此时应前往 Preferences/Settings -> Project:...->Python Interpreter 下方点击齿轮图标选择 Add...按钮来指定自定义的位置。按照提示浏览定位到对应版本 python.exe 的绝对地址即可解决问题。 ##### 错误二:权限不足导致 DLL 加载失败 有时即使指定了正确的解释器路径,仍可能遇到由于缺乏适当的操作系统级许可而引发的功能缺失现象。特别是涉及到调用某些特定类型的动态链接库 (Dynamic Link Library, .dll) 时尤为明显。因此拥有管理员身份执行相关动作显得尤为重要——无论是从终端还是图形界面触发创建新 venv 流程均如此处理能够有效规避此类隐患。 ##### 错误三:网络连接异常引起依赖下载超时 部分开发者反馈过因网速慢或者其他因素造成 pip install 操作中途断开进而影响整个项目的初始化进度条卡住的情况。对此可尝试调整镜像源加速获取速度或是离线模式预先准备好所需资源包后再继续后续步骤。 ---
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值