解决idea运行Spark报错Failed to locate the winutils binary in the hadoop binary path

在Windows环境下,为解决Spark运行时依赖Hadoop环境的报错,需要下载Hadoop3.3.0版本并解压至无中文和空格的路径。接着配置环境变量,确保bin目录下有hadoop.dll和winutils.exe。验证Hadoop版本后,重启IDEA即可正常运行Spark。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1. 报错原因:运行Spark时需要Hadoop的环境支持。

2. 解决方法:在windows上配置hadoop环境然后重启idea即可解决。

3. 解决步骤:

3.1 在官网上下载所需要的Hadoop的版本,然后解压到任意盘符下,路径不能有中文或者空格,下载链接:Index of /dist/hadoop/common/hadoop-3.3.0 (apache.org)

 3.2 配置hadoop环境变量

 3.3 将 hadoop.dll 和 winutils.exe 两个文件弄到bin目录下

对应文件请链接自取,找自己所对应的版本号,我的是版本是3.3.0,我用的是3.3.5版本的也可以,自行类比。

https://gitee.com/systemwjp/dll-and-exe-file.git

 3.4 cmd查看hadoop版本

hadoop version

 3.5 重启idea重新运行即可

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值