ambari增加journalnode服务节点

本文详细介绍了如何在已有的Hadoop集群中使用Ambari方式增加JournalNode节点,包括角色分配、安装、配置、同步数据、启动服务等关键步骤,以及操作前的注意事项和环境配置细节。

原生态方式:

以hadoop用户执行以下操作:
1.修改etc/hadoop/hdfs-site.xml,在dfs.namenode.shared.edits.dir 配置项中增加相应的新的journal的地址和端口.
2.把etc/hadoop/hdfs-site.xml分发到集群中各服务器.
3.把现有journal中的数据目录拷贝到新journal服务器.
4.在新journal服务器中执行hadoop-daemon.sh start journalnode 来启动journal node.
5.在standby namenode服务器执行 hadoop-daemon.sh stop namenode 来停止namenode服务.
6.在standby namenode服务器执行 hadoop-daemon.sh start namenode 来启动namenode服务.可能在网页上看到journalnode增加.
7.使用hdfs haadmin -failover nn1 nn2 切换namenode
8.在原active namenode上执行以下语句来重启namenode
    hadoop-daemon.sh stop namenode  
    hadoop-daemon.sh start namenode  

如果用户手动安装的Hadoop集群,可以用上面的方法,如果是通过ambari安装的集群,手动增加JournalNode后,还想在ambari界面上看到,可以用以下方法

ambari方式:

ambari默认3个journalnode节点,但是如果一个节点出现问题,需要增加补充,ambari界面没有操作的选项,所以只能通过其他命令方式操作,

看到之前有个文章是 将HA降级,之后重新做HA,这样的风险太高了,操作复杂,从网上找到了其他方式,分享给需要的朋友,也希望ambari新版本可以将这个增加journalnode功能,添加进去。

操作前提示:如果你对ambari这些操作一点都不熟悉,建议不要进行操作,以免ambari管理界面异常,导致无法管理。
可以先在测试环境操作练习,确认无误后,再进行正式环境操作。


增加journalnode

1、分配角色:
curl -u admin:admin -H 'X-Requested-By: Ambari' -X POST http://localhost:8080/api/v1/clusters/CLUSTER_NAME/hosts/NEW_JN_NODE/host_components/JOURNALNODE

我的环境:
curl -u admin:admin -H "X-Requested-By: Ambari" -X POST http://10.11.32.50:8080/api/v1/clusters/testhadoop/hosts/testserver2.bj/host_components/JOURNALNODE

查看下内容:
curl -u admin:admin -H "X-Requested-By: ambari" -X GET http://10.11.32.50:8080/api/v1/clusters/testhadoop/hosts/testserver2.bj/host_components/JOURNALNODE


2、安装Journalnode:
curl -u admin:admin -H 'X-Requested-By: Ambari' -X PUT -d ‘{“RequestInfo”:{“context”:”Install JournalNode”},”Body”:{“HostRoles”:{“state”:”INSTALLED”}}}’ http://10.11.32.50:8080/api/v1/clusters/CLUSTER_NAME/hosts/NEW_JN_NODE/host_components/JOURNALNODE

我的环境:
curl -u admin:admin -H 'X-Requested-By: Ambari' -X PUT -d '{"RequestInfo":{"context":"Install JournalNode"},"Body":{"HostRoles":{"state":"INSTALLED"}}}'
http://10.11.32.50:8080/api/v1/clusters/testhadoop/hosts/testserver2.bj/host_components/JOURNALNODE
链接网址与上边是一行,中间有个空格

3、更新HDFS配置
Login to Ambari Web UI and modify the HDFS Configuration. Search for dfs.namenode.shared.edits.dir and add the new JournalNode. Make sure you don’t mess up the format for the journalnode list provided. The following is a format of a typical 3 JournalNode shared edits definition.

qjournal://my-jn-node-1.host.com:8485;my-jn-node-1.host.com:8485;my-jn-node-1.host.com:8485/MyLAB

我的环境配置:
qjournal://testserver4.bj:8485;testserver1.bj:8485;testserver2.bj:8485;testserver3.bj:8485/testcluster


4、创建journalnode目录

Time to create the required directory structure on the new Journalnode. You have to create this directory structure based on your cluster installation. If unsure, you
can find this value from $HADOOP_CONF/hdfs-site.xml file. Look for the parameter value for dfs.journalnode.edits.dir. In my case, it happens to be /hadoop/qjournal/namenode/.

我的环境:
dfs.journalnode.edits.dir /hadoop/hdfs/journal
ll -d /hadoop/hdfs/journal
drwxr-xr-x 3 hdfs hadoop 4096 Feb  2 10:56 /hadoop/hdfs/journal

Make sure you add the HDFS Nameservice directory. You can find this value from $HADOOP_CONF/hdfs-site.xml file. The value can be found for parameter dfs.nameservices.

In my example, I have “MyLab”. So I will create the directory structure as /hadoop/qjournal/namenode/MyLab.

我的环境:
dfs.nameservices testcluster

ll -d /hadoop/hdfs/journal/testcluster/
drwxr-xr-x 3 hdfs hadoop 4096 Mar 16 18:40 /hadoop/hdfs/journal/testcluster/

mkdir -p /hadoop/hdfs/journal/testcluster/
chown hdfs:hadoop -R /hadoop/hdfs/journal/


5、同步数据
Copy or Sync the directory ‘current’ under the ‘shared edits’ location from an existing JournalNode. Make sure that the ownership for all these newly created directories and sync’ed files is right.

我的环境:
scp -r /hadoop/hdfs/journal/testcluster/* 10.11.32.51:/hadoop/hdfs/journal/testcluster/
chown hdfs:hadoop -R /hadoop/hdfs/journal/
ambari中journalnode文件存储的路径/hadoop/hdfs/journal

ll /hadoop/hdfs/journal/testcluster/

-rw-r--r--. 1 hdfs hadoop 1048576 Mar 27 11:39 edits_inprogress_0000000000000014177
-rw-r--r--. 1 hdfs hadoop 1048576 Mar 27 11:39 edits_inprogress_0000000000000021001
-rw-r--r--. 1 hdfs hadoop 1048576 Mar 27 13:44 edits_inprogress_0000000000000021215
-rw-r--r--. 1 hdfs hadoop 1048576 Mar 27 14:30 edits_inprogress_0000000000000021306

查看新的节点时可能会出现4个edits_inprogress,时间早的应该是scp过来的,启动后会生成2个新的edits_inprogress文件,旧的没用可以删除,也可以留着。

6、启动服务查看日志

从ambari界面启动journalnode服务

2016-03-17 11:48:27,644 INFO  server.Journal (Journal.java:scanStorageForLatestEdits(187)) - Scanning storage FileJournalManager(root=/hadoop/hdfs/journal/testcluster)
2016-03-17 11:48:27,791 INFO  server.Journal (Journal.java:scanStorageForLatestEdits(193)) - Latest log is EditLogFile
(file=/hadoop/hdfs/journal/testcluster/current/edits_inprogress_0000000000000010224,first=0000000000000010224,last=0000000000000010232,inProgress=true,hasCorruptHeader=
false)
2016-03-17 11:49:37,304 INFO  namenode.FileJournalManager (FileJournalManager.java:finalizeLogSegment(133)) - Finalizing edits file
/hadoop/hdfs/journal/testcluster/current/edits_inprogress_0000000000000010238 -> /hadoop/hdfs/journal/testcluster/current/edits_0000000000000010238-0000000000000010251


参考:
http://gaganonthenet.com/2015/09/14/add-journalnode-to-ambari-managed-hadoop-cluster/
### 构建Hadoop三节点高可用集群 构建一个具有三个节点的高可用(HA) Hadoop集群涉及多个步骤,从下载软件到配置文件调整以及启动服务。对于获取Hadoop分发版而言,应当从Apache官方镜像站点下载最近稳定版本的发布包[^1]。 安装前需确认已部署必要的前置条件,这通常意味着要先安装Java环境(至少为Java 6),而分布式运行还需要SSH客户端和服务端的支持;针对Windows平台,则额外需要cygwin来模拟类Unix操作系统的命令行工具集[^4]。 为了实现NameNode的HA特性,在准备阶段除了常规设置外还需特别关注JournalNodes组件的规划与安置。一般建议在不同物理机上分别设立两个NameNode实例加上奇数个(通常是3个或以上)JournalNode节点用于维护元数据变更日志的一致性副本。这种架构能够有效防止单点故障并提升整体可靠性。 完成上述准备工作之后,接下来就是编辑核心配置文档如`core-site.xml`, `hdfs-site.xml`等以适应新的拓扑结构,并按照指示格式化初次使用的NameNode存储位置[^3]: ```xml <!-- hdfs-site.xml --> <configuration> <!-- Other properties --> <property> <name>dfs.nameservices</name> <value>mycluster</value> </property> <property> <name>dfs.ha.namenodes.mycluster</name> <value>nn1,nn2</value> </property> <property> <name>dfs.namenode.rpc-address.mycluster.nn1</name> <value>node1.example.com:8020</value> </property> <property> <name>dfs.namenode.rpc-address.mycluster.nn2</name> <value>node2.example.com:8020</value> </property> <property> <name>dfs.namenode.http-address.mycluster.nn1</name> <value>node1.example.com:50070</value> </property> <property> <name>dfs.namenode.http-address.mycluster.nn2</name> <value>node2.example.com:50070</value> </property> <property> <name>dfs.client.failover.proxy.provider.mycluster</name> <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value> </property> <property> <name>dfs.ha.fencing.methods</name> <value>sshfence</value> </property> <property> <name>dfs.journalnode.edits.dir</name> <value>/path/to/journal/node/data</value> </property> <!-- Ensure all nodes have SSH access without password prompts between each other --> </configuration> ``` 最后一步则是通过执行特定脚本来初始化共享编辑目录,并确保所有参与成员都能无密码访问其他机器上的资源以便顺利完成整个过程。此外还应考虑自动化运维管理方案的选择,比如利用Ambari或者Cloudera Manager这样的工具来进行更高效的日常管理和监控工作。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值