执行hadoop fs -ls / 时出现 java.lang.OutOfMemoryError:java heap space
原因 :
目录下小文件过多,猜测可能是因为文件数据多大使得元数据过大导致加载到client客户端时会引起内存不足
解决方案:
修改/etc/hadoop/conf/hadoop-env.sh
加大HADOOP_CLIENT_OPTS的配置
HADOOP_CLIENT_OPTS="-Xmx2048m"
执行hadoop fs -ls / 时出现 java.lang.OutOfMemoryError:java heap space
原因 :
目录下小文件过多,猜测可能是因为文件数据多大使得元数据过大导致加载到client客户端时会引起内存不足
解决方案:
修改/etc/hadoop/conf/hadoop-env.sh
加大HADOOP_CLIENT_OPTS的配置
HADOOP_CLIENT_OPTS="-Xmx2048m"