搭建完全分布式hadoop集群

本文详细介绍Hadoop集群的搭建过程,包括创建主机、配置SSH免密登录、用户权限设置、JDK与Hadoop安装、核心配置文件调整,以及集群启动与测试。通过具体步骤指导读者实现从零开始构建Hadoop集群。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1. 创建master和3个slave

创建4个host,分别定义hostname为master、slave1、slave2、slave3,检查4个host的ip地址,确保所有主机均处于1个网关,在hosts中配置4个主机的ip地址和hostname,并确保能够相互ping通

127.0.0.1       localhost

192.168.1.100   master
192.168.1.101   slave1
192.168.1.102   slave2
192.168.1.103   slave3

2. 关闭防火墙

关闭防火墙

sudo systemctl stop firewalld.service 

禁用防火墙

sudo systemctl disable firewalld.service

查看防火墙状态

firewall-cmd --state

重启主机

3. 定义ssh免密登录

在root用户下修改 /etc/ssh/sshd_config,设置以下三项后执行 service sshd restart

RSAAuthentication yes
PubkeyAuthentication yes
AuthorizedKeysFile      .ssh/authorized_keys

确保每台主机均安装并启动了ssh服务,在master主机上生成ssh秘钥对,并将其的公钥导入到每台主机的authorized_keys中。并且在centos下,需要将authorized_keys文件的权限改为644。

4. 3台主机均创建haddoop用户,并给这个用户添加sudo权限

sudo su
useradd -m hadoop
passwd hadoop
#添加sudo权限
visudo
#在改行root ALL=(ALL)ALL下添加hadoop ALL=(ALL)ALL 保存并退出,并且换到hadoop用户
su hadoop

5. jdk及hadoop安装

安装步骤及环境变量配置同伪分布式,每台主机均需执行

6. 配置hadoop文件

先在master上配置,配置完成后再拷贝至其他主机

core-site.xml    不配置端口时默认为8020

<configuration>
  <property>
    <name>fs.default.name</name>
    <value>hdfs://master:9000</value>
  </property>
  <property>
    <name>hadoop.tmp.dir</name>
    <value>file:/home/hadoop/hadoop/tmp</value>
  </property>
</configuration>

hdfs-site.xml

注意配置的路径是否拥有读写权限,当路径配置在根目录下的文件夹时(如 /usr),需要更改该文件夹的读写权限

sudo chmod -R a+w /usr
<configuration>
  <property>
    <name>dfs.replication</name>
    <value>2</value>
  </property>
  <property>
    <name>dfs.namenode.name.dir</name>
    <value>file:/home/hadoop/hadoop/tmp/dfs/name</value>
  </property>
  <property>
    <name>dfs.datanode.data.dir</name>
    <value>file:/home/hadoop/hadoop/tmp/dfs/data</value>
  </property>
  <property>
    <name>dfs.namenode.secondary.http-address</name>
    <value>master:9001</value>
  </property>
</configuration>

mapred-site.xml

<configuration>
  <property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
  </property>
</configuration>

yarn-site.xml

<configuration>
  <property>
    <name>yarn.resourcemanager.hostname</name>
    <value>master</value>
  </property>
  <property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
  </property>
  <property>
    <name>yarn.log-aggregation-enable</name>
    <value>true</value>
  </property>
  <property>
    <name>yarn.log-aggregation.retain-seconds</name>
    <value>604800</value>
  </property>
</configuration>

配置slaves

slave1
slave2

7. hadoop启动

同伪分布式操作

hadoop namenode -format
start-dfs.sh
start-yarn.sh

如果报permission denied,将hadoop目录权限改为 a+w

sudo chmod -R a+w /soft/hadoop

如果出现ssh连接慢或警告

Are you sure you want to continue connecting (yes/no)? The authenticity of host 's204 (192.168.242.131)' can't be established.

可以在master上对每台主机运行

ssh -o "StrictHostKeyChecking no" user@host

并修改配置文件 /etc/ssh/ssh_config

Host *
   StrictHostKeyChecking no
   UserKnownHostsFile=/dev/null

8. hadoop集群测试

运行wordcount测试hadoop集群

在当前目录下创建文件README.txt,在其中随意粘贴一段英文。

在hdfs中创建一个工作目录

hdfs dfs -mkdir -p /data/input

将当前目录下的README.txt推送到hdfs文件系统中

hdfs dfs -put README.txt /data/input

查看是否推送成功

hdfs dfs -ls /data/input

运行hadoop自带的例子

hadoop jar /soft/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.7.jar wordcount /data/input /data/output/result

查看运行结果

hdfs dfs -cat /data/output/result/part-r-00000

 

内容概要:本文深入解析了扣子COZE AI编程及其详细应用代码案例,旨在帮助读者理解新一代低门槛智能体开发范式。文章从五个维度展开:关键概念、核心技巧、典型应用场景、详细代码案例分析以及未来发展趋势。首先介绍了扣子COZE的核心概念,如Bot、Workflow、Plugin、Memory和Knowledge。接着分享了意图识别、函数调用链、动态Prompt、渐进式发布及监控可观测等核心技巧。然后列举了企业内部智能客服、电商导购助手、教育领域AI助教和金融行业合规质检等应用场景。最后,通过构建“会议纪要智能助手”的详细代码案例,展示了从需求描述、技术方案、Workflow节点拆解到调试与上线的全过程,并展望了多智能体协作、本地私有部署、Agent2Agent协议、边缘计算插件和实时RAG等未来发展方向。; 适合人群:对AI编程感兴趣的开发者,尤其是希望快速落地AI产品的技术人员。; 使用场景及目标:①学习如何使用扣子COZE构建生产级智能体;②掌握智能体实例、自动化流程、扩展能力和知识库的使用方法;③通过实际案例理解如何实现会议纪要智能助手的功能,包括触发器设置、下载节点、LLM节点Prompt设计、Code节点处理和邮件节点配置。; 阅读建议:本文不仅提供了理论知识,还包含了详细的代码案例,建议读者结合实际业务需求进行实践,逐步掌握扣子COZE的各项功能,并关注其未来的发展趋势。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值