原因:没有给根目录授权
会默认以root身份去将作业写入hdfs文件系统中,对应的也就是 HDFS 上的/user/xxx , 我的为/user/root, 由于 root用户对hdfs目录并没有写入权限,所以导致异常的发生。而hdfs才有权限创建/user/root
解决方法:
1、第一种
在hdfs的配置文件中,将dfs.permissions修改为False(不推荐)
2、第二种
执行这样的操作,使用hdfs用户(最高权限)
hadoop dfs -mkdir -p /user/root(如果路径存在可不执行)
hadoop dfs -chown root:hdfs /user/root(如果所属用户一致可不执行)
hadoop dfs -chmod 777 /user/root(如果执行上面操作已解决可不执行,我没有走)
3.第三种
vim /etc/profile
添加:export HADOOP_USER_NAME=hdfs(hdfs为最高权限)
source /etc/profile(记得执行,以保证立即生效)
也可以执行 sed -i '$a export HADOOP_USER_NAME=hdfs' ,记得也要source一下
注意:root可以是其他的用户(路径),如报错是/user/xxx,将root换成xxx即可。
第二种与第三种区别
第二种 | 第三种 | |
host | 全集群的hosts都可以访问没有问题 | 只有做了环境变量配置的主机可用 |
root用户调用资源 | root用户可以调用hdfs资源 | root不能调用资源,如果计算是出现需要使用root用户调用的资源一样会报错 |
root执行hdfs命令 | 不能 | 能 |