16、Hadoop组件审计日志详解

Hadoop组件审计日志详解

1. Hadoop组件审计概述

Hadoop不同组件根据其用途对审计的处理方式有所不同。像HDFS和HBase这类数据存储系统,可审计事件主要集中在数据的读写和访问操作上。而MapReduce、Hive和Impala等查询引擎和处理框架,可审计事件则侧重于终端用户的查询和作业。

2. HDFS审计日志

HDFS提供了两种不同用途的审计日志:
- hdfs-audit.log :用于审计一般用户活动,如用户创建新文件、更改文件权限、请求目录列表等。
- SecurityAuth-hdfs.audit :用于审计服务级别的授权活动。

设置这些日志文件需要配置log4j属性,示例如下:

# other logging settings omitted
hdfs.audit.logger=${log.threshold},RFAAUDIT
hdfs.audit.log.maxfilesize=256MB
hdfs.audit.log.maxbackupindex=20
log4j.logger.org.apache.hadoop.hdfs.server.namenode.FSNamesystem.audit=
  ${hdfs.audit.logger}
log4j.additivity.org.apache.hadoop.hdfs.server.namenode.FSNamesystem.audit=false
log4j.appender.RFAAUDIT=org
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值