1.hadoop hdfs启动:
Initialization failed for Block pool
Too many failed volumes - current valid volumes:
原因:hdfs的data目录 没有对应磁盘,或是磁盘坏了;
修改磁盘配置目录,或增加配置
<property>
<name>dfs.datanode.failed.volumes.tolerated</name>
<value>2</value>
</property>
2. java.lang.OutOfMemoryError: unable to create new native thread
这是系统配置:ulimit -u问题
vi /etc/security/limits.conf
* soft nofile 655350
* hard nofile 655350
* soft nproc 65535000
* hard nproc 65535000
vi /etc/security/limits.d/90-nproc.conf
root soft nproc unlimited
* soft nproc 655350
* hard nproc 655350
* soft nofile 655350
* hard nofile 655350
本文介绍了Hadoop HDFS启动过程中可能遇到的问题及解决方案,包括因DataNode磁盘配置导致的初始化失败,以及由于系统配置不足引发的内存错误。提供了具体的配置修改示例。
2349

被折叠的 条评论
为什么被折叠?



