HDFS集群环境部署

下载hadoop

去Apach下载3.3.4版本
(国外网站,下载速度慢)

安装部署hadoop(node1节点 root身份)

  1. 将安装包上传到node1节点上
  2. 解压缩安装包到 /export/server/ 中
    指令如下
    tar -zxvf hadoop-3.3.4.tar.gz -C /export/server
  3. 构建软连接
    cd /export/server
    ln -s /export/server/hadoop-3.3.4 hadoop
  4. 进入hadoop 安装包内
    cd hadoop

配置workers文件

进入
cd etc/hadoop
编辑workers
vim workers
如果里面有local删除就可以,如果没有就直接追加
node1
node2
`node3
然后保存就好

配置hadoop使用时候用到的一些环境变量

指令vim hadoop-env.sh
在最上面进行追加 就可以
在这里插入图片描述

export JAVA_HOME=/export/server/jdk
export HADOOP_HOME=/export/server/hadoop
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export HADOOP_LOG_DIR=$HADOOP_HOME/logs

要进入这个路径下后在进行配置哈
路径为/export/server/hadoop/etc/hadoop
配置我们的core-site.xml文件
输入以下指令进行编辑
vim core-site.xml
在最后插入以下内容即可
在这里插入图片描述
然后



编辑文件

在node1执行如下指令
在这里插入图片描述
在这里插入图片描述
在node2node3执行
在这里插入图片描述
然后在node1执行 注意你的Hadoop是什么版本你就修改成什么版本。
在这里插入图片描述
在这里插入图片描述

scp -r hadoop-3.3.4 node3:`pwd`/

在这里插入图片描述

在node2执行

ln -s /export/server/hadoop-3.3.4 /export/server/hadoop
在node3执行

ln -s /export/server/hadoop-3.3.4 /export/server/hadoop

配置环境变量
执行
vim /etc/profile

在/etc/profile文件底部追加如下内容

export HADOOP_HOME=/export/server/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

在node123均执行以下指令



chown -R hadoop:hadoop /data

chown -R hadoop:hadoop /export


然后在node1格式化namenode
确保以Hadoop用户执行

# 确保以hadoop用户执行
su - hadoop
# 格式化namenode
hadoop namenode -format

启动hdfs

# 一键启动hdfs集群
start-dfs.sh
# 一键关闭hdfs集群
stop-dfs.sh

# 如果遇到命令未找到的错误,表明环境变量未配置好,可以以绝对路径执行
/export/server/hadoop/sbin/start-dfs.sh
/export/server/hadoop/sbin/stop-dfs.sh

启动完成后,可以在浏览器打开:
http://node1:9870,即可查看到hdfs文件系统的管理网页

### HDFS集群安装部署教程最佳实践 #### 准备工作 为了确保HDFS高可用(HA)集群的成功部署,硬件配置至关重要。要使用基于仲裁的存储来部署HA集群,需准备好必要的服务器节点,这些节点用于运行NameNode、DataNode和其他辅助组件[^1]。 #### 环境搭建 环境设置阶段涉及操作系统的选择以及Java开发包(JDK)的安装。建议采用稳定版本的操作系统并保持JDK更新至最新安全补丁级别。此外,还需考虑防火墙规则设定以允许各节点间的通信。 #### 配置文件调整 编辑`hdfs-site.xml`和`core-site.xml`等核心配置文件,指定诸如fs.defaultFS参数指向主名称节点地址,并为Secondary NameNode或JournalNodes定义相应的属性值。对于启用了联邦特性的场景,则需要额外配置多个命名空间的相关选项。 ```xml <property> <name>dfs.nameservices</name> <value>mycluster</value> </property> <!-- Other properties --> ``` #### 初始化与格式化 执行命令初始化共享日志目录(如果适用),并对新的NameNode实例进行格式化操作: ```bash hdfs namenode -format ``` 此过程会清除任何现存元数据并将新状态写入磁盘。 #### 启动服务 按照顺序启动ZooKeeper(如果是依赖于它实现自动故障转移),接着依次开启所有DataNodes最后才是Active/Standby模式下的两个NameNodes: ```bash start-dfs.sh zkfc -formatZK # Only once when setting up ZK Failover Controller hadoop-daemon.sh start journalnode ``` #### 测试验证 完成上述步骤之后,可以通过Web UI查看集群健康状况或者利用简单的读写测试案例确认基本功能正常运作。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值