hadoop hdfs分布式部署

一.准备3台机器和环境
配置/etc/hosts

10.1.1.161 ubuntu1   (master)
10.1.1.17 ubuntu2    (slave)
10.1.1.94 ubuntu3    (slave)

ubuntu1部署 NameNode
ubuntu2部署 SecondaryNameNode,DataNode
ubuntu3部署 DataNode

3台机器已安装jdk1.8,hadoop-2.7.7

配置环境变量:

JAVA_HOME=/app/jdk1.8.0_171
export PATH=$PATH:$JAVA_HOME/bin
HADOOP_HOME=/app/hadoop-2.7.7
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

二.配置免密码登录
3台机器安装
apt install rsync

1.在master机器执行

ssh-keygen -t rsa -P ''

2.把公钥 id_rsa.pub追加到授权的key里面去

cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

3.修改文件"authorized_keys"权限

chmod 600 ~/.ssh/authorized_keys

4.用root用户登录服务器修改SSH配置文件
vi /etc/ssh/sshd_config
把文件中的下面几条信息的注释去掉:

  RSAAuthentication yes # 启用 RSA 认证
  PubkeyAuthentication yes # 启用公钥私钥配对认证方式
  AuthorizedKeysFile .ssh/authorized_keys # 公钥文件路径(和上面生成的文件同)

重启服务

service sshd restart

5.把公钥复制所有的 slave 机器上

scp ~/.ssh/id_rsa.pub hecj@ubuntu2:~/
scp ~/.ssh/id_rsa.pub hecj@ubuntu3:~/

6.登录2台slave机器

mkdir ~/.ssh      #创建 .ssh 的文件夹
chmod 700 ~/.ssh    #给 .ssh 文件夹权限

7.将 master 的公钥追加到 slave1 的授权文件 “authorized_keys” 中

cat ~/id_rsa.pub >> ~/.ssh/authorized_keys
chmod 600 ~/.ssh/authorized_keys
rm -rf ~/id_rsa.pub

8.2台slave机器重复上述4步骤

vi /etc/ssh/sshd_config
service sshd restart

9.完毕,在ubuntu1机器登录ubuntu2,ubuntu3,验证是否已无需密码登录

ssh ubuntu2 -l hecj
ssh ubuntu3 -l hecj

三.配置 hadoop 文件中相应的文件
需要配置的文件如下,hadoop-env.sh,core-site.xml,hdfs-site.xml,slaves,所有的文件配置均位于hadoop2.7.7/etc/hadoop下

1.core-site.xml修改

<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://ubuntu1:9000</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/app/tmp</value>
    </property>
</configuration>

2.hdfs-site.xml修改

<configuration>
    <property>
        <name>dfs.replication</name>
        <value>2</value>
    </property>
    <property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>ubuntu2:50090</value>
    </property>
</configuration>

3.hadoop-env.sh修改JAVA_HOME环境

export JAVA_HOME=/app/jdk1.8.0_171

4.slaves修改:

ubuntu2
ubuntu3

5.etc/hadoop 目录下手动创建一个masters 文件

ubuntu2

6.将配置好的hadoop配置文件复制到slave节点

scp -r etc/hadoop/* hecj@ubuntu2:/app/hadoop-2.7.7/etc/hadoop/
scp -r etc/hadoop/* hecj@ubuntu3:/app/hadoop-2.7.7/etc/hadoop/

7.初始化hadoop

bin/hdfs namenode -format

8.启动hdfs 命令

sbin/start-dfs.sh

停止hdfs命令

sbin/stop-dfs.sh

9.打开浏览器

http://ubuntu1:50070

搭建一套Hadoop HDFS分布式文件系统涉及以下步骤: 1. 安装Java:Hadoop是用Java编写的,因此首先需要在所有节点上安装Java运行环境。 2. 下载Hadoop:从Apache Hadoop官网(https://hadoop.apache.org/)下载所需版本的Hadoop软件包。 3. 配置Hadoop集群:编辑Hadoop配置文件,包括core-site.xml、hdfs-site.xml和mapred-site.xml。这些文件定义了Hadoop集群的各种参数,如文件系统的URI、数据存储路径、副本数量、作业调度器等。 4. 配置SSH免密码登录:为了方便管理和操作Hadoop集群,需要配置节点间的SSH免密码登录。这可以通过生成SSH密钥对,并将公钥分发到所有节点上来实现。 5. 配置主节点(NameNode):选择一个节点作为主节点,配置core-site.xml和hdfs-site.xml文件,指定NameNode的地址、数据存储路径等信息。 6. 配置从节点(DataNode):在所有从节点上配置core-site.xml和hdfs-site.xml文件,指定DataNode的地址、数据存储路径等信息。 7. 格式化文件系统:在主节点上执行`hdfs namenode -format`命令,初始化文件系统的元数据。 8. 启动Hadoop集群:在主节点上执行`start-all.sh`脚本或分别启动各个组件的命令,启动Hadoop集群。 9. 验证HDFS:使用Hadoop提供的命令行工具,如`hadoop fs -ls /`来验证HDFS是否正常工作。可以上传、下载和删除文件来测试文件系统的功能。 以上是搭建Hadoop HDFS分布式文件系统的基本步骤。在实际部署过程中,还需要注意网络配置、防火墙设置、节点管理等方面的细节。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值