搭建Hadoop集群中遇到的坑

在工作中搭建Hadoop集群时,遇到了一些问题。在Hadoop Core篇中,配置失误导致NameNode和SecondaryNameNode启动异常,通过调试发现应在NameNode节点运行dfs-start.sh。此外,未配置DataNode时需屏蔽slaves文件中的额外节点。在Hive篇的内容未给出,可能包含Hive在集群中的部署和使用注意事项。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

工作需要搭建个Hadoop集群,找了几台机器,配置如下:

IP 角色
10.128.84.20 ResourceManager
10.128.84.21 NameNode &
SecondaryNameNode
10.128.84.22 DataNode & NodeManager
10.128.84.24 DataNode & NodeManager
10.128.84.25 DataNode & NodeManager
10.128.84.27 DataNode & NodeManager

Hadoop Core篇

然后网上找了一下教程,参考了这篇博客hadoop 2.6全分布安装

其中有几点需要注意:

测试dfs的时候是在NameNode所在的节点运行dfs-start.sh,因为我的环境是ResourceManager和NameNode节点分开的,我开始没注意这点,直接在20上跑,结果每次NameNode都起在20

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值