1、现象
HDFS查询yarn日志目录,报错:Exception in thread “main” java.lang.OutOfMemoryError: GC overhead limit exceeded
2、解决问题
检测发现这个目录下有大量文件,hdfs dfs -ls命令以递归方式搜索目标文件夹中的所有文件,这导致GC OOM错误。
将hdfs客户端的heap大小调大,执行成功:
HADOOP_CLIENT_OPTS="-Xmx10240m" hdfs dfs -ls /app-logs/ocdp/logs | wc -l

HDFS 查询目录报错 OutOfMemoryError: GC overhead limit exceeded
最新推荐文章于 2024-12-27 22:11:16 发布
当尝试使用hdfs dfs -ls命令遍历包含大量文件的日志目录时,遇到了`java.lang.OutOfMemoryError: GC overhead limit exceeded`错误。为了解决这个问题,调整了HDFS客户端的堆大小,通过设置HADOOP_CLIENT_OPTS为-Xmx10240m,成功执行了命令并避免了内存溢出。
1273

被折叠的 条评论
为什么被折叠?



