HDFS ACL权限设置

HDFS版本:3.1.1

今天主要给大家说一下HDFS文件权限的问题。当一个普通用户去访问HDFS文件时,可能会报Permission denied的错误。那么你会怎么做呢?

像修改linux文件似的,可能的做法有:

  • 修改文件所有者
  • 直接将文件赋予全部的权限,即rwx权限。

上面的做法虽然可以达到目的,但是相对来说对权限的把握不是很精准,不适用于生产环境。

本文主要讲解HDFS的ACL(Access Control List)权限,通过hdfs超级用户,来为普通用户分配权限。

一、背景

如下图所示,我使用hue用户想创建一个简单的hive表。由于hue用户对/warehouse/tablespace/managed/hive目录没有权限,所以创建失败了。

这里就用到了HDFS的ACL权限设置。

二、前提条件

需要确定hdfs-site.xml文件的两个配置项为true

<property>
    <name>dfs.permissions.enabled</name>
    <value>true</value>
</property>
<property>
    <name>dfs.namenode.acls.enabled</name>
    <value>true</value>
</property>

三、语法

1. setfacl
Usage: hdfs dfs -setfacl -R|[--set <acl_spec> <path>]

设置文件和目录的访问控制列表(ACL)。

选项:

  • -b: 删除基本ACL条目以外的所有条目。保留用户,组和其他条目以与权限位兼容。
  • -k: 删除默认ACL。default
  • -R: 以递归方式将操作应用于所有文件和目录。常用。
  • -m: 修改ACL。新条目将添加到ACL,并保留现有条目。常用。
  • -x: 删除指定的ACL条目。保留其他ACL条目。常用。
  • –set: 完全替换ACL,丢弃所有现有条目。 acl_spec必须包含用户,组和其他条目,以便与权限位兼容。
  • acl_spec: 逗号分隔的ACL条目列表。
  • path: 要修改的文件或目录。

示例:

  • hdfs dfs -setfacl -m user:hadoop:rw- /file
  • hdfs dfs -setfacl -x user:hadoop /file
  • hdfs dfs -setfacl -b /file
  • hdfs dfs -setfacl -k /dir
  • hdfs dfs -setfacl --set user::rw-,user:hadoop:rw-,group::r–,other::r-- /file
  • hdfs dfs -setfacl -R -m user:hadoop:r-x /dir
  • hdfs dfs -setfacl -m default:user:hadoop:r-x /dir
2. getfacl
Usage: hdfs dfs -getfacl [-R] <path>

显示文件和目录的访问控制列表(ACL)。如果目录具有默认ACL,则getfacl还会显示默认ACL。

选项:

  • -R: 以递归方式列出所有文件和目录的ACL。
  • path: 要列出的文件或目录。

示例:

  • hdfs dfs -getfacl /file
  • hdfs dfs -getfacl -R /dir

四、为hue用户赋予权限

使用hdfs超级用户来设置acl:使用-m参数

sudo -u hdfs hdfs dfs -setfacl -m user:hue:rwx /warehouse/tablespace/managed/hive

查看文件目录的acl权限:

hdfs dfs -getfacl /warehouse/tablespace/managed/hive

文件acl权限如下图所示:

现在hue用户就对/warehouse/tablespace/managed/hive这个目录有了rwx全部权限了。

我们使用hue用户创建hive表试试,成功了,如下图所示:

备注:

不过是仅限于hive这个目录,对于里面不是hue用户创建的目录或文件,hue用户还是无权访问。

如果需要访问递归的子文件,可以使用-R参数,再次授权。

五、总结

其实这次分享的知识点很简单,但是却很实用。就安全的角度来看,比起chmod 777来说,也比较严谨。

还是希望大家多多练习本文讲述的两个命令:

  • setfacl
  • getfacl

看看这两个命令的其它参数具体什么意思。

关于HDFS shell命令,可以查看官网链接:http://hadoop.apache.org/docs/r2.6.5/hadoop-project-dist/hadoop-common/FileSystemShell.html


码字不易,如果您觉得文章写得不错,请扫码关注公众号支持作者~ 您的关注是我写作的最大动力?

<think>好的,用户想了解HDFS文件权限设置修改,以及解决相关的权限问题。我需要结合提供的引用内容,整理出一个清晰的回答结构。首先,HDFS权限机制类似于Linux,有rwx权限,用户、组和其他。可能需要先解释基本概念,然后讲如何查看权限,再讲如何修改权限,比如chmod、chown这些命令。用户可能还遇到权限不足的问题,需要给出解决方法,比如临时设置777权限,但要注意安全问题。引用中提到HDFS权限目的是防止好人做错事,所以权限管理更多是内部规范,而不是强安全措施。还要注意,HDFS客户端会根据当前系统用户来设置owner,所以如果用户和namenode上的用户不一致,可能会有问题,需要添加相同用户。另外,引用里提到HDFS不支持setuid/setgid,这点可能需要提到。最后生成相关问题,比如权限机制与Linux的区别,权限不足的解决办法,安全建议等。需要确保步骤清晰,命令示例正确,并且引用对应的参考资料。</think>### HDFS文件权限设置修改指南 HDFS文件权限机制采用与Linux相似的POSIX模型,通过用户(user)、组(group)和其他用户(others)三个维度进行权限控制[^1]。以下是具体操作步骤: #### 一、权限查看与基本概念 1. **查看文件权限**: ```bash hdfs dfs -ls /path ``` 输出示例:`drwxrwx--- - lisa supergroup 0 2023-08-01 10:00 /input` - 第一位`d`表示目录 - 后三组`rwx`分别对应用户、组、其他用户的权限 2. **权限符号说明**: - `r`:读取(查看文件/列表目录内容) - `w`:写入(创建/删除文件) - `x`:执行(访问子目录,对文件无意义) #### 二、权限修改操作 1. **修改权限值(chmod)**: ```bash # 设置目录所有用户可读可写 hdfs dfs -chmod -R 777 /testdata # 移除其他用户执行权限 hdfs dfs -chmod o-x /logs/access.log ``` - `-R`表示递归操作[^3] - 数字模式(777=rwxrwxrwx)或符号模式(u+rwx)均可使用[^2] 2. **修改文件所有者(chown)**: ```bash hdfs dfs -chown -R hadoopuser:devgroup /projects ``` - 需确保目标用户在NameNode服务器上存在[^4] #### 三、常见问题解决方案 1. **写入权限被拒绝**: ```bash # 临时解决方案(生产环境慎用) hdfs dfs -chmod -R 777 /targetdir ``` 更安全的做法是精准设置权限: ```bash hdfs dfs -chmod -R 750 /sensitive_data # 所有者读写执行,同组用户读执行 ``` 2. **跨节点用户同步**: - 在**所有NameNode节点**创建相同用户: ```bash useradd hadoopuser && usermod -g devgroup hadoopuser ``` - 确保客户端执行用户与HDFS用户一致[^4] #### 四、特殊限制说明 1. HDFS不支持`setuid/setgid`权限位 2. 默认未启用POSIX ACL(需手动配置) 3. 权限验证基于客户端声明的用户身份[^1]
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

create17

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值