hadoop环境配置

本文介绍如何在CentOS系统上安装配置Hadoop集群,包括JDK的上传与环境配置、SSH免密码验证设置、Hadoop各配置文件的详细调整、集群启动及验证等步骤。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

下载jdk后上传到centOS

然后进入到

/etc/profile.d/java.sh

添加路径:

JAVA_HOME=/usr/java/jdk1.7.0_79
CLASSPATH=$JAVA_HOME/lib;$CLASSPATH
PATH=$JAVA_HOME/bin;$PATH
export JAVA_HOME CLASSPATH PATH


source /etc/profile.d/java.sh


查看java环境变量是否配置成功:   

java -version

 关闭防火墙:
永久性生效:
chkconfig iptables off
临时性生效:
service iptables stop
查看防火墙状态:
service iptables status


安装ssh插件
yum -y install openssh-clients


配置ssh无密码验证
mkdir .ssh
生成密钥:
ssh-keygen -t rsa -P ""
生成私钥:
cat id_rsa.pub >> authorized_keys
cp id_rsa.pub authorized_keys


访问:
ssh xiaobai
第一次需要yes确认


可能需要安装wget:
yum -y install wget


安装64位hadoop:
wget http://hadoop.f.dajiangtai.com/hadoop2.2/hadoop-2.2.0-x64.tar.gz


解压压缩包
tar -zvxf hadoop-2.2.0-x64.tar.gz


改名:mv hadoop-2.2.0 hadoop


更改所有者:chown -R hadoop:hadoop hadoop


创建目录:
mkdir -p /data/dfs/name
mkdir -p /data/dfs/data
mkdir -p /data/tmp


更改目录权限:
chown -R hadoop:hadoop /data


进入到hadoop目录下:
cd hadoop/etc/hadoop


进入core-site.xml:
vi core-site.xml


添加属性在末尾:
<configuration>
        <property>
                <name>fs.defaultFS</name>
                <value>hdfs://xiaobai:8888</value>
        </property>
        <property>
                <name>hadoop.tmp.dir</name>
                <value>file:/data/tmp</value>
        </property>
        <property>
                <name>hadoop.proxyuser.hadoop.hosts</name>
                <value>*</value>
        </property>
        <property>
                <name>hadoop.proxyuser.hadoop.groups</name>
                <value>*</value>
        </property>
</configuration> 


进入hdfs-site.xml:
vi hdfs-site.xml


在文件末尾加入属性:
<configuration>
        <property>
                <name>dfs.namenode.name.dir</name>
                <value>/data/dfs/name</value>
                <final>true</final>
        </property>
        <property>
                <name>dfs.datanode.data.dir</name>
                <value>/data/dfs/data</value>
                <final>true</final>
        </property>
        <property>
                <name>dfs.replication</name>
                <value>1</value>
        </property>
        <property>
                <name>dfs.permission</name>
                <value>false</value>
        </property>
</configuration>


进入到mapred-site.xml:
vi mapred-site.xml


在文件末尾加入属性:
<configuration>
        <property>
                <name>mapreduce.framework.name</name>
                <value>yarn</value>
        </property>
</configuration>


进入到yarn-site.xml
vi yarn-site.xml 


在文件末尾加入属性:
为nodemanager启动加载shuffle
<configuration>
<!-- Site specific YARN configuration properties -->
        <property>
                <name>yarn.nodemanager.aux-services</name>
                <value>mapreduce_shuffle</value>
        </property>
</configuration>


修改slaves:
vi slaves


修改内容为:指定机器(我的为xiaobai)


进入到/etc/profile:
vi /etc/profile


在文件末尾添加hadoop环境变量路径:
HADOOP_HOME=/usr/java/hadoop
PATH=$HADOOP_HOME/bin:$PATH
export HADOOP_HAME PATH


执行命令是配置文件生效:
source /etc/profile


进入到hadoop目录下: cd ../..


格式化namenode:
bin/hadoop namenode -format


启动集群: sbin/start-all.sh


查看进程:jps
1987 Jps
1778 NodeManager
1324 NameNode
1561 SecondaryNameNode
1428 DataNode
1689 ResourceManager


以管理员身份打开记事本,并打开hosts文件:
在最后加入你的ip地址
可以以webui访问文件系统






评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值