hadoop_安装_伪集群

本文介绍如何在CentOS7环境中搭建Hadoop集群,包括虚拟机配置、SSH免密码登录、JDK安装及环境配置、Hadoop安装与配置、HDFS格式化等步骤。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1. 装一台新虚拟机

1) 机器准备

安装centos7

ip192.168.75.108

密码:root123

 

2) 修改hosts

Vi /etc/hosts

192.168.75.108 centos8

 

3) 关闭访火墙

#查看firewall

systemctl status firewalld.service

#启动firewall

systemctl start firewalld.service

#停止firewall

systemctl stop firewalld.service

#禁止firewall开机启动

systemctl disable firewalld.service

 

4) 修改主机名

hostnamectl set-hostname centos8

 

2. 无密码访问

ssh-keygen

ssh-copy-id root@centos8

 

3. jdk

安装命令:

rpm -ivh jdk-8u11-linux-x64.rpm

环境变量如下:

vi /etc/profile

export JAVA_HOME=/usr/java/jdk1.8.0_11

export PATH=$PATH:$JAVA_HOME/bin

source /etc/profile

 

4. hadoop

1) 准备安装包

创建目录/opt/hadoop,将包放进去:

 

解压:

tar -zxvf hadoop-2.6.0.tar.gz

 

2) 修改环境变量

vi /etc/profile

export HADOOP_HOME=/opt/hadoop/hadoop-2.6.0

export PATH=.:$HADOOP_HOME/bin::$HADOOP_HOME/sbin:$PATH

source /etc/profile

验证:hadoop version

 

3) 修改配置文件

① hadoop-env.sh

vi $HADOOP_HOME/etc/hadoop/hadoop-env.sh

在文件中修改JAVA_HOME参数

export JAVA_HOME=/usr/java/jdk1.8.0_11

 

② hdfs-site.xml

vi $HADOOP_HOME/etc/hadoop/hdfs-site.xml

<!--配置数据块的冗余度-->

<property>

    <name>dfs.replication</name>

    <value>1</value>

</property>

  <property>

<!-- NameNode的元数据,以逗号分隔,HDFS会把元数据冗余复制到这些目录下-->

    <name>dfs.namenode.name.dir</name>

    <value>file:/opt/hadoop/dfs/name</value>

  </property>

  <property>

<!-- DataNode的数据目录,以逗号分隔 -->

    <name>dfs.datanode.data.dir</name>

    <value>file:/opt/hadoop/dfs/data</value>

  </property>

 

③ core-site.xml

vi $HADOOP_HOME/etc/hadoop/core-site.xml

<configuration>节点中添加如下property

<!--配置NameNode地址-->

<property>

   <name>fs.defaultFS</name>

   <value>hdfs://centos8:19000</value>

</property>

 

<!--配置数据在Linux上保存的位置-->

<property>

   <name>hadoop.tmp.dir</name>

   <value>file:/opt/hadoop/hadoop_tmp</value>

</property>

19000rpc的端口号,默认为9000

④ mapred-site.xml

vi $HADOOP_HOME/etc/hadoop/mapred-site.xml

<configuration>节点中添加如下property

<!--Mapreduce运行的框架-->

  <property>

    <name>mapreduce.framework.name</name>

    <value>yarn</value>

  </property>

注:上面的包中并没有mapred-site.xml文件,只有mapred-site.xml.template文件。

其内容就是它,拷贝一份再改。

cp mapred-site.xml.template mapred-site.xml

 

⑤ yarn-site.xml

vi $HADOOP_HOME/etc/hadoop/yarn-site.xml

<configuration>节点中添加如下property

<!--yarn的主节点 RM-->

<property>

   <name>yarn.resouremanager.hostname</name>

   <value>centos8</value>

</property>

 

<!--NodeManager运行MR程序方式-->

<property>

   <name>yarn.nodemanager.aux-services</name>

   <value>mapreduce_shuffle</value>

</property>

<!--主节点web对应的端口号-->

  <property>

    <name>yarn.resourcemanager.webapp.address</name>

    <value>centos8:18088</value>

  </property>


4) 格式化hdfs

① 创建配置文件中指定的各目录:

core-site.xmlhadoop.tmp.dir目录

cd /opt/hadoop/

mkdir hadoop_tmp

mkdir dfs dfs/data dfs/name

② 格式化hdfs

    hdfs namenode -format

 

5. 启动hadoop

start-all.sh

 

6. 检查启动结果

Jps查看进程,有五个:


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值