在idea下的spark编程 Failed to locate the winutils binary in the hadoop binary path 报错解决办法
在解决这个报错时,我尝试了很多网上的办法,但是到最后,还是经过了各种尝试,才解决的这个问题。
1,首先打开cmd,输入hadoop version 命令,看能否执行此命令,如果能执行,则直接看第二步,如果不能进行如下操作(我给出的正常结果如下)

(1)先右击我的电脑选择属性,选择高级环境变量
(2)选择高级,单击环境变量
(3)在系统变量里点击新建,添加两个环境变量
HADOOP_HOME 值为hadoop安装路径
HADOOP_USER_NAME 值为hadoop
(4)在path变量里,添加新的环境变量
%HADOOP_HOME%\bin
这里需要注意的是!!!!
我之前其实也配置过hadoop的环境,但是在cmd下直接打开hadoop以前能打开,配置完spark后就打不开了,可能是配置了spark后和以前的配置有冲突,所以如果cmd下打不开hadoop verison,并且你之前配置过了hadoop路径,那么请重新配置一次,就是把环境变量删了,重新输入一次!!!!
2,检查你的hadoop包下是否有winutils.exe文件,如果没有,请去下载对应的hadoop版本号的winutils.exe文件
3,当你完成了这些后,还有idea本身的设置没有完成,这一点被很多人忽略了
(1)点击头朝下的小三角,选择 edit configuration
(2)找到环境变量,单击右边目录形状的图标
老版本的idea需要把系统变量添加进去,这里不做解释。
新版本是自动读取系统变量的,如下图,可是如果还是报错的话,就把系统环境变量添加到用户环境变量中,就没有问题了,
添加完变量记得保存,save configuration