hadoop SecondaryNameNode 配置
昨天遇到一个问题,hadoop集群跑着的时候突然间 停止了 namenode 也没有down掉,也没有任何错误.jvm直接跳出了,我怀疑是 内存的问题 suo所以想把SecondaryNameNode 移到其他的机器上去、
下面这两句话是 亮点:
将所有想要运行secondarynamenode进程的机器写到masters文件中,一行一台。
修改在masters文件中配置了的机器上的conf/hadoop-site.xml文件,加上如下选项:
注意: 只在 想要成为SecondaryNameNode 的机器上 配置 dfs.http.address 即可.不要所有的机器都配置,那样会报错
master:一般的安装手册都是说写上namenode机器的IP或是名称。这里要说明一下,这个master不决定哪个是namenode,而决定的是secondarynamenode(决定谁是namenode的关键配置是core-site.xml中的fs.default.name这个参数)。所以,这里直接写上你的datanode的IP或机器名称就可以了。一行一个。
hdfs-site.xml:这个配置文件要改1个参数:
0.0.0.0改为你的namenode的IP地址。
<property>
<name>dfs.http.address</name>
<value>0.0.0.0:50070</value>
<description>
The address and the base port where the dfs namenode web ui will listen on.
If the port is 0 then the server will start on a free port.
</description>
</property>
详情 摘自:http://a280606790.iteye.com/blog/870123
昨天遇到一个问题,hadoop集群跑着的时候突然间 停止了 namenode 也没有down掉,也没有任何错误.jvm直接跳出了,我怀疑是 内存的问题 suo所以想把SecondaryNameNode 移到其他的机器上去、
下面这两句话是 亮点:
将所有想要运行secondarynamenode进程的机器写到masters文件中,一行一台。
修改在masters文件中配置了的机器上的conf/hadoop-site.xml文件,加上如下选项:
注意: 只在 想要成为SecondaryNameNode 的机器上 配置 dfs.http.address 即可.不要所有的机器都配置,那样会报错
master:一般的安装手册都是说写上namenode机器的IP或是名称。这里要说明一下,这个master不决定哪个是namenode,而决定的是secondarynamenode(决定谁是namenode的关键配置是core-site.xml中的fs.default.name这个参数)。所以,这里直接写上你的datanode的IP或机器名称就可以了。一行一个。
hdfs-site.xml:这个配置文件要改1个参数:
0.0.0.0改为你的namenode的IP地址。
<property>
<name>dfs.http.address</name>
<value>0.0.0.0:50070</value>
<description>
The address and the base port where the dfs namenode web ui will listen on.
If the port is 0 then the server will start on a free port.
</description>
</property>
详情 摘自:http://a280606790.iteye.com/blog/870123