前提条件:创建节点之间的无秘钥访问,安装了jdk。
1、修改hadoop-env.sh
2、vim etc/hadoop/core-site.xml
3、etc/hadoop/hdfs-site.xml
4、格式化文件系统(注意,该操作不能做多次,容易导致clusterID不一致)
5、开启 namenode、datanode
浏览器访问 http://IP:50070 查看
6、vim etc/hadoop/mapred-site.xml
7、vim etc/hadoop/yarn-site.xml
8、开启
访问:http://IP:8088
1、修改hadoop-env.sh
export JAVA_HOME=/usr/elk/jdk1.8.0_131
2、vim etc/hadoop/core-site.xml
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://hostname:9000</value>
</property>
</configuration>
3、etc/hadoop/hdfs-site.xml
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
4、格式化文件系统(注意,该操作不能做多次,容易导致clusterID不一致)
bin/hdfs namenode -format
5、开启 namenode、datanode
sbin/start-dfs.sh
浏览器访问 http://IP:50070 查看
6、vim etc/hadoop/mapred-site.xml
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
7、vim etc/hadoop/yarn-site.xml
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>
8、开启
sbin/start-yarn.sh
访问:http://IP:8088