HDFS完全分布式集群搭建与配置

本文详细介绍了如何搭建HDFS完全分布式集群,包括HDFS的基本概念、集群准备、配置过程、启动与测试,以及操作命令和注意事项。通过在三台虚拟机上配置HDFS,实现文件的分块存储和高可用性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

介绍

HDFS的组成架构
在这里插入图片描述
架构介绍 :
1> NameNode(nn):就是Master,它是一个主管、管理者
(1)管理HDFS的名称空间;
(2)配置副本策略;
(3)管理数据块(block)映射信息;
(4)处理客户端读写请求
2> DataNode:就是Slave。NameNode下达命令,DateNode执行实际操作。
(1)储存实际的数据块;
(2)执行数据块的写/读操作
3> Client:就是客户端
(1)文件切分。文件上传HDFS的时候。Client将文件切分成一个个的Block,然后进行上传;
(2)与NameNode交互,获取文件的位置信息;
(3)与DataNode交互,读取或者写入数据;
(4)Client提供一些命令来管理HDFS;
(5)Client 可以通过一些命令来访问HDFS;
4> Secondary NameNode:并非NameNode的热备。当NameNode挂掉的时候,它并不能马上替换NameNode并提供服务。
(1)辅助NameNode,分担其工作量;
(2)在紧急情况下,可以辅助恢复NameNode

HDFS前言

设计思想:
分而治之:将大文件、大批量文件,分布式存放在大量服务器上,以便于采取分而治之的方式对海量数据进行运算分析;
在大数据系统中作用:
为各类分布式运算框架(如:mapreduce,spark,tez,……)提供数据存储服务
重点概念:文件切块,副本存放,元数据

HDFS的概念和特性

首先,它是一个文件系统,用于存储文件,通过统一的命名空间——目录树来定位文件
其次,它是分布式的,由很多服务器联合起来实现其功能,集群中的服务器有各自的角色;
重要特性如下:

HDFS中的文件在物理上是分块存储(block),块的大小可以通过配置参数( dfs.blocksize)来规定,默认大小在hadoop2.x版本中是128M,老版本中是64M

HDFS文件系统会给客户端提供一个统一的抽象目录树,客户端通过路径来访问文件,形如:hdfs://namenode:port/dir-a/dir-b/dir-c/file.data

目录结构及文件分块信息(元数据)的管理由namenode节点承担
——namenode是HDFS集群主节点,负责维护整个hdfs文件系统的目录树,以及每一个路径(文件)所对应的block块信息(block的id,及所在的datanode服务器)

文件的各个block的存储管理由datanode节点承担
---- datanode是HDFS集群从节点,每一个block都可以在多个datanode上存储多个副本(副本数量也可以通过参数设置dfs.replication)

HDFS是设计成适应一次写入,多次读出的场景,且不支持文件的修改
(注:适合用来做数据分析,并不适合用来做网盘应用,因为,不便修改,延迟大,网络开销大,成本太高)

整体思路

1.准备三台虚拟机(以完成网络配置,主机名配置,主机域名映射,防火墙关闭并关闭重启,ssh免密,安装JDK等等

2.在node01上安装Hadoop,配置环境变量(修改和配置一些文件,修改时一定小心错一个字母就会失败。

3.同步配置信息(把在node01上修改的配置文件同步到node02和node03上

4.在node01上格式化,并启动集群。

5.用jps查看启动情况,并测试上传下载是否能成功。在web端查看。

准备工作

1.检查三台虚拟机网络是否能ping通,主机名是否正确,主机映射是否正确等等准备工作是否做好。
ping百度
主机映射
主机名node01
主机名node02
主机名node03
2.创建安装目录

cd /opt
mkdir software
cd software/
mkdir hadoop
cd hadoop/
mkdir hdfs
cd hdfs/
mkdir data
mkdir name
mkdir tmp

输入yum -y install lrzsz代码下载插件,可以直接将压缩包(hadoop-2.9.2.tar.gz)上传到指定文件夹。

回到hadoop目录上传文件

cd /opt/software/hadoop/
rz

可以输入rz上传文件,也可以直接将文件拖到提前cd 到的路径下面就可以上传了。
解压文件

tar -xvzf hadoop-2.9.2.tar.gz

配置过程

三台虚拟机都已经完成的步骤

–网络配置
–主机名配置
–主机域名映射
–防火墙和selinux关闭
–ssh免密
–安装jdk

hadoop-env.sh

此处无需配置,只需修改JAVA_HOME值和HADOOP_CONF的值
hadoop-env.sh
配置值:

export JAVA_HOME=/usr/local/java/jdk1.8
export HADOOP_CONF_DIR=/opt/software/hadoop/hadoop-2.9.2/etc/hadoop

yarn-env.sh

配置yarn-sev.sh时需要新增JAVA_HOME的值。
在# export JAVA_HOME=/home/y/libexec/jdk1.6.0/,在此行下添加JAVA_HOME的值
yarn-env.sh
配置值:

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值