配置namenode多目录

该博客主要介绍了Hadoop集群HDFS的配置与文件上传操作。先删除集群数据和日志,接着修改并分发hdfs - site.xml,格式化namenode,然后启动dfs和yarn,最后上传文件,查看name1和name2内容相同,还提及namenode本地目录多配置可增加可靠性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一、首先把集群上的数据和日志删除掉 

二、修改hdfs-site.xml 

  

1)namenode的本地目录可以配置成多个,且每个目录存放内容相同,增加了可靠性。

2)具体配置如下:

hdfs-site.xml

<property>

    <name>dfs.namenode.name.dir</name>

<value>file:///${hadoop.tmp.dir}/dfs/name1,file:///${hadoop.tmp.dir}/dfs/name2</value>

</property>

三、分发hdfs-site.xml 

 

四、格式化namenode 

五、启动dfs 

六、启动yarn 

七、上传文件

八、查看name1和name2的内容,发现内容是一样的 

上传之前

 

上传之后

 

配置namenode,需要执行以下步骤: 1. 安装Hadoop:首先需要从Hadoop官网下载并安装Hadoop。 2. 配置hadoop-env.sh:在Hadoop的安装目录下,找到hadoop-env.sh文件并打开。在此文件中,找到JAVA_HOME变量,并将其设置为Java安装的路径。例如: export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64/ 3. 配置core-site.xml:在Hadoop的安装目录下,找到core-site.xml文件并打开。在此文件中,添加以下配置: <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> 其中,localhost是namenode的主机名,9000是Hadoop默认使用的端口。 4. 配置hdfs-site.xml:在Hadoop的安装目录下,找到hdfs-site.xml文件并打开。在此文件中,添加以下配置: <property> <name>dfs.replication</name> <value>1</value> </property> 其中,dfs.replication表示副本数,这里设置为1。 5. 配置mapred-site.xml:在Hadoop的安装目录下,找到mapred-site.xml文件并打开。在此文件中,添加以下配置: <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> 其中,mapreduce.framework.name表示使用的MapReduce框架,这里设置为yarn。 6. 启动Hadoop:在命令行中,输入以下命令来启动Hadoop: $HADOOP_HOME/sbin/start-dfs.sh $HADOOP_HOME/sbin/start-yarn.sh 7. 检查是否正常启动:在浏览器中输入http://localhost:50070/,可以看到Hadoop的Web界面。在此界面中,可以查看namenode的状态和HDFS的文件系统信息。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值