Ambari之hadoop auditlong整挂了我的平台

本文讲述了作者遇到Hadoop集群NAMENODE因/hadoop-audit.log日志文件过大导致的宕机问题。日志文件占用了170GB空间,详细分析了Ambari中hadoop auditlog的配置,并提醒读者注意日志级别可能导致的日志量过大问题,特别是当设置为INFO级别时。解决方案涉及到检查和调整审计日志配置,避免类似情况发生。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

关注我的微信公众号:pythonislover,领取python,大数据,SQL优化相关视频资料!~

Python大数据与SQL优化笔 QQ群:771686295

 

 

 

今天平台出现了NAMENODE的down机

 

重启namenode出现错误:

500 status code received on PUT method for API: /api/v1/clusters/xxxxx/hosts/xxxxx/host

 

登录到服务器上,发现主节点的/目录满了,what? 200G的空间怎么说满了就满了。

 

查查查。 发现是hadoop auditlong的日志文件占用了170G空间。

 

所以去查看了下Ambari里面的hadoop auditlong的设置:

Advanced hdfs-log4j

 

# hdfs audit logging

#

hdfs.audit.logger=INFO,console  --默认日志级别

log4j.logger.org.apache.hadoop.hdfs.server.namenode.FSNamesystem.audit=${hdfs.audit.logger}

log4j.additivity.or

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值