关闭防火墙
systemctl stop firewalld
关闭防火墙自启动
systemctl disable firewalld
检查防火墙
systemctl status firewalld
关闭 selinux防火墙
vi /etc/sysconfig/selinux
把 SELINUX=enforcing 变为 SELINUX=disabled
6.映射主机名和IP地址
vi /etc/hosts
192.168.136.150 master1-1
7.安装 rz,使用rz上传所需文件
yum -y install lrzsz
8.解压JDK 安装包到‘/usr/local/src’路径,并配置环境变量
tar -zxvf *.tar -C /usr/local/src
配置环境变量
vi /etc/profile
exportJAVA_HOME=/usr/local/src/jdk1.8
exportPATH=$PATH:$JAVA_HOME/bin
刷新环境变量
source /etc/profile
查看是否配置jdk成功
java -version
9.解压hadoop安装包到 ‘/usr/local/src’ 路径,并配置环境变量
tar -zxvf *.tar -C /usr/local/src
配置环境变量
vi /etc/profile
exportJAVA_HOME=/usr/local/src/jdk1.8
exportHADOOP_HOME=/usr/local/src/hadoop-2.7.2
exportPATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
刷新环境变量
source /etc/profile
查看是否配置jdk成功
hadoop version
10.修改Hadoop目录下的配置文件
vi hadoop-env.sh
export JAVA_HOME=/usr/local/src/jdk1.8
vi core-site.xml
<configuration><property><name>fs.defaultFS</name><value>hdfs://node:9000</value><description>HDFS的URI,设定namenode的主机名及端口</description></property><property><name>hadoop.tmp.dir</name><value>/usr/local/src/hadoop-2.7.2/tmp</value><description>节点上本地的hadoop临时文件夹,之前一定要先建立好</description></property></configuration>
vi hdfs-site.xml
<configuration><property><name>dfs.replication</name><value>1</value><description>副本个数,默认是3,应小于datanode机器数量</description></property><property><name>dfs.http.address</name><value>master:50070</value><description>这个是主节点的地址与端口</description></property><property><name>dfs.namenode.secondary.http-address</name><value>slave1:50090</value><description>这个是SecondNameNode的地址与通信端口</description></property>
mv mapred-site.xml.template mapred-site.xml
vi mapred-site.xml
<configuration><property><name>mapreduce.framework.name</name><value>yarn</value><description>指定mapreduce使用yarn框架</description></property></configuration>
vi yarn-site.xml
<configuration><property><name>yarn.resourcemanager.hostname</name><value>master1-1</value><description>指定resourcemanager所在的hostname,即指定yarn的老大即ResourceManger的地址</description></property><property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value><description>NodeManager上运行的附属服务。指定NodeManager获取数据的方式是shuffle需配置成mapreduce_shuffle,才可运行MapReduce程序</description></property></configuration>