关注我的微信公众号:pythonislover,领取python,大数据,SQL优化相关视频资料!~
Python大数据与SQL优化笔 QQ群:771686295
今天平台出现了NAMENODE的down机
重启namenode出现错误:
500 status code received on PUT method for API: /api/v1/clusters/xxxxx/hosts/xxxxx/host
登录到服务器上,发现主节点的/目录满了,what? 200G的空间怎么说满了就满了。
查查查。 发现是hadoop auditlong的日志文件占用了170G空间。
所以去查看了下Ambari里面的hadoop auditlong的设置:
Advanced hdfs-log4j
# hdfs audit logging
#
hdfs.audit.logger=INFO,console --默认日志级别
log4j.logger.org.apache.hadoop.hdfs.server.namenode.FSNamesystem.audit=${hdfs.audit.logger}
log4j.additivity.or