Hadoop 完全分布式 Fully-Distributed Mode

本文详细介绍了一个包含三台虚拟机的Hadoop集群搭建过程,包括环境准备、NTP服务配置、SSH免密钥登录配置、Hadoop安装及核心配置等关键步骤。

本文使用3台虚拟机进行 hadoop 的集群基本配置,zookeeper 和 HA 的配置再另做描述。

集群规划

考虑将 namenode、secondarynamenode、resourcemanager 分开在不同节点上

组件        PC1         PC2                 PC3
HDFS        namenode    secondarynamenode   
            datanode    datanode            datanode
YARN                                        resourcemanager
            nodemanager nodemanager         nodemanager
History     historyserver

基本环境

将伪分布式环境克隆两份,修改网络驱动、主机名,确认基本设置

  • vi /etc/udev/rules.d/70-persistent-net.rules 删除克隆来的驱动信息 eth0,将新的 eth1 修改为 eth0,并记录下物理地址
  • vi /etc/sysconfig/network-scripts/ifcfg-eth0 更新物理地址、IP地址
  • vi /etc/sysconfig/network 修改 hostname
  • vi /etc/hosts 相应修改主机映射,此处每台机器都需要将所有机器的映射都添加
  • 检查3台机器网络服务可连接、防火墙及安全子系统关闭、具有相同用户名和密码的普通用户、jdk安装正确

主机映射参考如下:

192.168.7.7 oldecho01.domain
192.168.7.8 oldecho02.domain
192.168.7.9 oldecho03.domain

配置 NTP 服务

把 PC1 作为整个集群的时间同步服务器,集群中所有其他服务器都来这台服务器 PC1 同步时间

检查每台服务器所在的时区 date -R,以上海为例应为+0800,如果不对如下调整

rm -rf /etc/localtime
ln -s /usr/share/zoneinfo/Asia/Shanghai /etc/localtime

安装 ntp 服务,查看ntp软件包是否已安装,如果没有那就需要安装ntp

rpm -qa | grep ntp
ntp-4.2.6p5-1.el6.centos.x86_64
ntpdate-4.2.6p5-1.el6.centos.x86_64

yum  -y install ntp

修改 ntp 配置文件 vi /etc/ntp.conf,去掉第18行的# 修改成自己的网段,并注释“server…”那几行(22行),去掉注释(35、36行)或手动添加如下内容

restrict 192.168.7.0 mask 255.255.255.0 nomodify notrap

#server 0.centos.pool.ntp.org iburst
#server 1.centos.pool.ntp.org iburst
#server 2.centos.pool.ntp.org iburst
#server 3.centos.pool.ntp.org iburst

server 127.127.1.0     #local clock
fudge 127.127.1.0  stratum 10

PC1:同步服务器的时间,启动 ntp 服务

service ntpd stop
ntpdate cn.pool.ntp.org

service ntpd start
chkconfig ntopd on

PC2/3:关闭 ntp 进程,向 PC1 同步时间

service ntpd stop
chkconfig ntpd off

ntpdate oldecho01.domain

制定周期性时间同步计划任务(PC2、PC3定时向PC1同步时间,如每10min)

crontab -e
*/10 * * * * /usr/sbin/ntpdate oldecho01.domain

如果确实无法向第一台同步时间,请在交互窗口(可以同时设置3台时间)执行手动设置时间 date -s "11:48:00 2017/3/23"

配置SSH免密钥登录

3台服务器相互无秘钥登录

cd ~/.ssh/
ssh-keygen
ssh-copy-id oldecho01.domain
ssh-copy-id oldecho02.domain
ssh-copy-id oldecho03.domain

克隆过来的机器如果已经生成过 SSH 秘钥,先删除文件 rm -f ~/.ssh/*

安装 Hadoop

解压安装及 *-env.sh 中java环境支持与伪分布式相同

在 PC1 上进行一下配置

slaves

添加集群中所有主机

oldecho01.domain
oldecho02.domain
oldecho03.domain

core-site.xml

<!--指定第一台作为NameNode-->
<property>
    <name>fs.defaultFS</name>
    <value>hdfs://oldecho01.domain:8020</value>
</property>

<property>
    <name>hadoop.tmp.dir</name>
    <value>/opt/modules/hadoop-2.5.0/data</value>
</property>

hdfs-site.xml

<!-- 分布式副本数设置为3 -->
<property>
    <name>dfs.replication</name>
    <value>3</value>
</property>

<!-- secondarynamenode主机名 -->
<property>
    <name>dfs.namenode.secondary.http-address</name>
    <value>oldecho02.domain:50090</value>
</property>

<!-- namenode的web访问主机名:端口号 -->
<property>
    <name>dfs.namenode.http-address</name>
    <value>oldecho01.domain:50070</value>
</property>

<!-- 关闭权限检查用户或用户组 -->
<property>
    <name>dfs.permissions.enabled</name>
    <value>false</value>
</property>

mapred-site.xml

<property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
</property>

<property>
    <name>mapreduce.jobhistory.address</name>
    <value>oldecho01.domain:10020</value>
</property>

<property>
    <name>mapreduce.jobhistory.webapp.address</name>
    <value>oldecho01.domain:19888</value>
</property>

yarn-site.xml

<property>
    <name>yarn.resourcemanager.hostname</name>
    <value>oldecho03.domain</value>
</property>

<property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
</property>

<property>
    <name>yarn.log-aggregation-enable</name>
    <value>true</value>
</property>

<property>
    <name>yarn.log-aggregation.retain-seconds</name>
    <value>86400</value>
</property>

将 PC1 配置好的 Hadoop 分发到 PC2/3 上

scp -r /opt/modules/hadoop-2.5.0/ oldecho02.domain:/opt/modules/
scp -r /opt/modules/hadoop-2.5.0/ oldecho03.domain:/opt/modules/

注意先删除原先残留的 data、logs 等(如果有的话)

格式化 namenode

在 PC1(namenode 所在服务器) 上进行 bin/hdfs namendoe -format

启动服务

PC1:sbin/start-dfs.sh

PC3:sbin/start-yarn.sh

停止进程相同

【事件触发一致性】研究多智能体网络如何通过分布式事件驱动控制实现有限时间内的共识(Matlab代码实现)内容概要:本文围绕多智能体网络中的事件触发一致性问题,研究如何通过分布式事件驱动控制实现有限时间内的共识,并提供了相应的Matlab代码实现方案。文中探讨了事件触发机制在降低通信负担、提升系统效率方面的优势,重点分析了多智能体系统在有限时间收敛的一致性控制策略,涉及系统模型构建、触发条件设计、稳定性与收敛性分析等核心技术环节。此外,文档还展示了该技术在航空航天、电力系统、机器人协同、无人机编队等多个前沿领域的潜在应用,体现了其跨学科的研究价值和工程实用性。; 适合人群:具备一定控制理论基础和Matlab编程能力的研究生、科研人员及从事自动化、智能系统、多智能体协同控制等相关领域的工程技术人员。; 使用场景及目标:①用于理解和实现多智能体系统在有限时间内达成一致的分布式控制方法;②为事件触发控制、分布式优化、协同控制等课题提供算法设计与仿真验证的技术参考;③支撑科研项目开发、学术论文复现及工程原型系统搭建; 阅读建议:建议结合文中提供的Matlab代码进行实践操作,重点关注事件触发条件的设计逻辑与系统收敛性证明之间的关系,同时可延伸至其他应用场景进行二次开发与性能优化。
【四旋翼无人机】具备螺旋桨倾斜机构的全驱动四旋翼无人机:建模与控制研究(Matlab代码、Simulink仿真实现)内容概要:本文围绕具备螺旋桨倾斜机构的全驱动四旋翼无人机展开,重点研究其动力学建模与控制系统设计。通过Matlab代码与Simulink仿真实现,详细阐述了该类无人机的运动学与动力学模型构建过程,分析了螺旋桨倾斜机构如何提升无人机的全向机动能力与姿态控制性能,并设计相应的控制策略以实现稳定飞行与精确轨迹跟踪。文中涵盖了从系统建模、控制器设计到仿真验证的完整流程,突出了全驱动结构相较于传统四旋翼在欠驱动问题上的优势。; 适合人群:具备一定控制理论基础和Matlab/Simulink使用经验的自动化、航空航天及相关专业的研究生、科研人员或无人机开发工程师。; 使用场景及目标:①学习全驱动四旋翼无人机的动力学建模方法;②掌握基于Matlab/Simulink的无人机控制系统设计与仿真技术;③深入理解螺旋桨倾斜机构对飞行性能的影响及其控制实现;④为相关课题研究或工程开发提供可复现的技术参考与代码支持。; 阅读建议:建议读者结合提供的Matlab代码与Simulink模型,逐步跟进文档中的建模与控制设计步骤,动手实践仿真过程,以加深对全驱动无人机控制原理的理解,并可根据实际需求对模型与控制器进行修改与优化。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值