HADOOP3.x入门之集群安装

本文档详细介绍了如何在Linux环境下安装配置Hadoop3.x集群,包括创建用户、关闭防火墙、设置免密登录、配置主机名和IP绑定、安装JDK与Hadoop、配置环境变量以及修改Hadoop相关配置文件,最终成功启动Hadoop集群。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1. 创建用户:

root用户登录linux系统,增加hadoop账户
#添加hadoop账号
sudo adduser hadoop
#允许hadoop账号在不输入密码的情况下使用所有命令
sudo vim /etc/sudoers
#增加内容如下:
hadoop ALL = (ALL)ALL
#给hadoop用户创建目录,并添加到sudo用户组中,命令如下:
sudo chown hadoop /home/hadoop
#添加到sudo用户组
sudo adduser hadoop sudo
#passwd hadoop 设置密码

2.关闭防火墙

systemctl stop firewalld.service 关闭 防火墙
systemctl disable firewalld.service 禁止防火墙开机自启

3.配置linux免密登陆:

#生成.ssh相关秘钥文件
ssh-keygen -t rsa
#进入秘钥文件夹
cd ~/.ssh
#拷贝公钥到远程服务器,之后就可以免密登陆了
ssh-copy-id -i ~/.ssh/id_rsa.pub 192.168.10.152
或是 scp -p ~/.ssh/id_rsa.pub hadoop@192.168.10.152:/root/.ssh/authorized_keys

4.配置主机名,ip和主机名绑定:

#配置主机名
vi /etc/sysconfig/network
#增加如下内容:
HOSTNAME=master
#修改内容生效
source /etc/sysconfig/network
#ip与主机名绑定
vi /etc/hosts
增加 如下内容
192.168.10.151 master
192.168.10.153 slave1
192.168.10.152 slave2
#修改内容生效
source /etc/hosts

克隆主机的ip配置:
ifconfig ens33:0 192.168.10.153 netmask 255.255.255.0  up

安装jdk、hadoop,此处省略

6.配置环境变量

vi /etc/profile
#添加如下信息
export JAVA_HOME=jdkpath
export PATH=$JAVA_HOME/bin:$PATH
export HADOOP_HOME=$hadooppath
export PATH=$HADOOP_HOME/bin:$PATH

#文件生效
source /etc/profile

7.修改hadoop环境变量:

#hadoop配置java_home
vi $HADOOP_HOME/etc/hadoop/hadoop-env.sh
export JAVA_HOME=$jdkpath

#修改core-site.xml:
vi $HADOOP_HOME/etc/hadoop/core-site.xml

<property>
        <name>fs.defaultFS</name>
        <value>hdfs://master:9000</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/home/hadoop/hadoopdata</value>
    </property>
	<property>
	    <name>hadoop.proxyuser.hadoop.hosts</name>
	    <value>*</value>
	</property>
	<property>
	    <name>hadoop.proxyuser.hadoop.groups</name>
	    <value>*</value>
	</property>

#修改hdfs-site.xml
vi $HADOOP_HOME/etc/hadoop/hdfs-site.xml

<property>  
    <name>dfs.permissions</name>  
    <value>false</value>  
  </property>
  <property>
    <name>dfs.relication</name>
    <value>3</value>
  </property>

#修改mapred-site.xml
vi $HADOOP_HOME/etc/hadoop/mapred-site.xml

<property>  
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>

#修改yarn-site.xml
vi $HADOOP_HOME/etc/hadoop/yarn-site.xml

<property>
        <name>yarn.resourcemanger.hostname</name>
        <value>master</value>
    </property>
    <property>
        <name>yarn.resourcemanger.address</name>
        <value>master:8032</value>
    </property>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>

#修改works文件,配置hadoop集群
vi $HADOOP_HOME/etc/hadoop/workers
#增加hadoop集群主机名
master
slave1
slave2

执行完1-7的所有步骤之后,再克隆虚拟机到另外两个192.168.10.152、192.168.10.153,之后更改后两个虚拟机的主机名、ip、互相拷贝免密登陆的公钥,整个集群即搭建完成

启动hadoop

#格式化namenode
hadoop namenode -format
#启动hadoop
cd $HADOOP_HOME/sbin/
start-all.sh
#查看进程是否正常
jps

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值