移除已有jdk(最小化安装没有自带jdk,可略过此步骤)
关闭防火墙(不同版本方法不一样)
所有机器同步时间
配置主机名hostname和hosts
配置密钥验证免密码登录[全部免密]
ssh-keygen -t rsa
cp id_rsa.pub authorized_keys
chmod 700 ~/.ssh/
chmod 600 ~/.ssh/authorized_keys
创建并分发备用目录
mkdir -pv /usr/hadoop/storage/zookeeper/{data,logs}
for ip in `seq 140 145`;do scp -r /usr/hadoop/storage slave$ip:/usr/hadoop/;done
配置hadoop环境变量
vi /etc/profile
export JAVA_HOME=/usr/hadoop/jdk
export JRE_HOME=$JAVA_HOME/jre
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib/rt.jar
export PATH=$PATH:$JAVA_HOME/bin
##############java############################
export HADOOP_HOME=/usr/hadoop/hadoop
export HBASE_HOME=/usr/hadoop/hbase
export SPARK_HOME=/usr/hadoop/spark
##############hadoop-hbase-hive###############
export HADOOP_MAPRED_HOME=${HADOOP_HOME}
export HADOOP_COMMON_HOME=${HADOOP_HOME}
export HADOOP_HDFS_HOME=${HADOOP_HOME}
export YARN_HOME=${HADOOP_HOME}
export HADOOP_YARN_HOME=${HADOOP_HOME}
export HADOOP_CONF_DIR=${HADOOP_HOME}/etc/hadoop
export HDFS_CONF_DIR=${HADOOP_HOME}/etc/hadoop
export YARN_CONF_DIR=${HADOOP_HOME}/etc/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$HBASE_HOME/bin:$SPARK_HOME/bin:$SPARK_HOME/sbin
分发配置文件
for ip in `seq 140 145`;do scp /etc/profile slave$ip:/etc/profile;done
启用配置文件
source /etc/profile
安装并验证jdk
本文详细介绍了Hadoop集群的搭建过程,包括移除已有的JDK、关闭防火墙、同步时间、配置主机名和hosts文件、设置SSH密钥实现免密码登录、创建和分发存储目录、配置环境变量及分发配置文件等关键步骤。
2万+

被折叠的 条评论
为什么被折叠?



