搭建hadoop伪集群时遇到的datanode不启动的问题

在搭建Hadoop伪集群时遇到DataNode无法启动的问题,通过检查配置文件、日志和主机映射,发现是/etc/hosts中缺少本地主机IP与localhost映射。修复映射后,虽然启动无误,但在hadoop-root-datanode-node1.log中出现错误。分析原因包括:未正确配置hosts、多次格式化HDFS导致的clusterID不匹配。需要进一步测试以确定确切原因。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

搭建hadoop伪集群过程中出现一个奇怪的问题:其他进程启动OK,但是DataNode木有启动,终于找到了原因,特此记录留作纪念偷笑

各个配置文件内容如下:

/etc/profile:

########## jdk ################
export JAVA_HOME=/opt/package/jdk1.7.0_76

########### hadoop ############
export HADOOP_HOME=/opt/package/hadoop-2.7.2
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native

export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sin:$JAVA_HOME/bin
export CLASSPATH=.:$JAVA_HOME/lib:$HADOOP_HOME/lib:$CLASSPATH


hadoop-env.sh:

export JAVA_HOME=/opt/package/jdk1.7.0_76


hdfs-site.xml:

    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>


    <property>
        <name>dfs.permissions.enabled</name>
        <value>false</value>
    </property>


core-site.xml:

    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://node1:9000</value>
    </property>

    <property>
	<name>hadoop.tmp.dir</name>
	<value>/opt/data/hadoop_tmp_dir</value>
    </property>


mapred-site.xml:


                
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值