Hadoop2.2.0集群的搭建

本文详细介绍了如何从零开始搭建Hadoop2.2.0高可用集群,包括虚拟机配置、SSH免密码登录设置、JDK与Zookeeper安装配置、Hadoop集群配置与启动等关键步骤。

Hadoop集群的搭建

一、         搭建虚拟机

1.     环境准备:

VMware10[红帽企业Linux.6.4.服务器版].rhel-server-6.4-x86_64-dvd.iso

2.     虚拟机搭建步骤:

a)     傻瓜式安装略

二、         更改主机名和映射

1.     切换到root帐户 su root

2.     执行vi /etc/sysconfig/network

3.     将里面的hostname修改为master

4.     Vi /etc/hosts 内容:IP+空格+主机名

5.     需要重新登陆

6.     特别注意将配置文件里的127.0.0.1loclhost相关配置全部删掉,影响集群访问。

三、         配置ssh免密码登陆

1.     执行命令$ssh-keygen -t rsa 穿件公钥和私钥

2.     执行命令$ssh-copy-id i 指定主机IP或者主机名(建议使用主机名)

3.     注意:配置好后第一次登陆还是需要输入密码的,另外一定要保证全部测试通过。

四、         配置JDK

1.     准备JDK jdk-7u25-linux-x64.tar

2.     执行命令$ tar zxvf jdk-7u25-linux-x64.tar 指定目录

3.     执行命令$vi /etc/profile编辑环境变量,在最后面添加内容:

JAVA_HOME=/root/hadoop/java/jdk1.7.0_25

PATH=$PATH:/root/hadoop/java/jdk1.7.0_25/bin

CLASSPATH=.:/root/hadoop/java/jdk1.7.0_25/jre/lib/dt.jar

export JAVA_HOME PATH CLASSPATH

4.     执行命令$ source /etc/profile 立即生效

5.     执行命令$scp r 文件夹 主机名:~/目录下,输入密码后拷贝开始。

五、         安装及配置zookeeper

1.     首先建议关闭防火墙

2.     准备zookeeper-3.4.5.tar.gz 并上传

3.     执行命令$ tar -zxvf zookeeper-3.4.5.tar.gz 目录,进行解压缩

4.     修改配置

cd /hadoop/zookeeper-3.4.5/conf/

cp zoo_sample.cfg zoo.cfg

vim zoo.cfg

修改:dataDir=/hadoop/zookeeper-3.4.5/tmp

在最后添加:

server.1=hadoop04:2888:3888

server.2=hadoop05:2888:3888

server.3=hadoop06:2888:3888

保存退出

然后创建一个tmp文件夹

mkdir /hadoop/zookeeper-3.4.5/tmp

再创建一个空文件

touch /hadoop/zookeeper-3.4.5/tmp/myid

最后向该文件写入ID

echo 1 > /hadoop/zookeeper-3.4.5/tmp/myid

5.     将配置好的zookeeper拷贝到其他节点(首先分别在hadoop05hadoop06根目录下创建一个hadoop目录:mkdir /hadoop)

scp -r /hadoop/zookeeper-3.4.5/ hadoop05:/hadoop/

scp -r /hadoop/zookeeper-3.4.5/ hadoop06:/hadoop/

 

注意:修改hadoop05hadoop06对应/hadoop/zookeeper-3.4.5/tmp/myid内容

hadoop05

echo 2 > /hadoop/zookeeper-3.4.5/tmp/myid

hadoop06

echo 3 > /hadoop/zookeeper-3.4.5/tmp/myid

六、         安装配置hadoop集群

1.     准备hadoop-2.2.0.tar.gz 注意是用32还是64位编译的

2.     执行命令$ tar -zxvf hadoop-2.2.0.tar.gz 目录,进行解压

3.     配置HDFShadoop2.0所有的配置文件都在$HADOOP_HOME/etc/hadoop目录下)

hadoop添加到环境变量中

vim /etc/profile

export JAVA_HOME=/root/hadoop/java/jdk1.7.0_25

export HADOOP_HOME=/hadoop/hadoop-2.2.0

export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin

4.     修改hadoo-env.sh

export JAVA_HOME=/root/hadoop/java/jdk1.7.0_25

5.     修改core-site.xml

<configuration>

         <!-- 指定hdfsnameservicens1 -->

         <property>

                  <name>fs.defaultFS</name>

                  <value>hdfs://ns1</value>

         </property>

         <!-- 指定hadoop临时目录 -->

         <property>

                  <name>hadoop.tmp.dir</name>

                  <value>/hadoop/hadoop-2.2.0/tmp</value>

         </property>

         <!-- 指定zookeeper地址 -->

         <property>

                  <name>ha.zookeeper.quorum</name>

                  <value>hadoop04:2181,hadoop05:2181,hadoop06:2181</value>

         </property>

</configuration>

 

 

6.     修改hdfs-site.xml

<configuration>

         <!--指定hdfsnameservicens1,需要和core-site.xml中的保持一致 -->

         <property>

                  <name>dfs.nameservices</name>

                  <value>ns1</value>

         </property>

         <!-- ns1下面有两个NameNode,分别是nn1nn2 -->

         <property>

                  <name>dfs.ha.namenodes.ns1</name>

                  <value>nn1,nn2</value>

         </property>

         <!-- nn1RPC通信地址 -->

         <property>

                  <name>dfs.namenode.rpc-address.ns1.nn1</name>

                  <value>hadoop01:9000</value>

         </property>

         <!-- nn1http通信地址 -->

         <property>

                  <name>dfs.namenode.http-address.ns1.nn1</name>

                  <value>hadoop01:50070</value>

         </property>

         <!-- nn2RPC通信地址 -->

         <property>

                  <name>dfs.namenode.rpc-address.ns1.nn2</name>

                  <value>hadoop02:9000</value>

         </property>

         <!-- nn2http通信地址 -->

         <property>

                  <name>dfs.namenode.http-address.ns1.nn2</name>

                  <value>hadoop02:50070</value>

         </property>

         <!-- 指定NameNode的元数据在JournalNode上的存放位置 -->

         <property>

                  <name>dfs.namenode.shared.edits.dir</name>

                  <value>qjournal://hadoop04:8485;hadoop05:8485;hadoop06:8485/ns1</value>

         </property>

         <!-- 指定JournalNode在本地磁盘存放数据的位置 -->

         <property>

                  <name>dfs.journalnode.edits.dir</name>

                  <value>/hadoop/hadoop-2.2.0/journal</value>

         </property>

         <!-- 开启NameNode失败自动切换 -->

         <property>

                  <name>dfs.ha.automatic-failover.enabled</name>

                  <value>true</value>

         </property>

         <!-- 配置失败自动切换实现方式 -->

         <property>

                  <name>dfs.client.failover.proxy.provider.ns1</name>

                  <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>

         </property>

         <!-- 配置隔离机制 -->

         <property>

                  <name>dfs.ha.fencing.methods</name>

                  <value>sshfence</value>

         </property>

         <!-- 使用隔离机制时需要ssh免登陆 -->

         <property>

                  <name>dfs.ha.fencing.ssh.private-key-files</name>

                  <value>/root/.ssh/id_rsa</value>

         </property>

</configuration>

7.     修改slaves

hadoop04

hadoop05

hadoop06

8.     修改yarn-site.xml

<configuration>

         <!-- 指定resourcemanager地址 -->

         <property>

                  <name>yarn.resourcemanager.hostname</name>

                  <value>hadoop03</value>

         </property>

         <!-- 指定nodemanager启动时加载server的方式为shuffle server -->

         <property>

                  <name>yarn.nodemanager.aux-services</name>

                  <value>mapreduce_shuffle</value>

         </property>

</configuration>

9.     修改mapred-site.xml

<configuration>

         <!-- 指定mr框架为yarn方式 -->

         <property>

                  <name>mapreduce.framework.name</name>

                  <value>yarn</value>

         </property>

</configuration>

10.   将配置好的hadoop拷贝到其他节点

七、         启动zookeeper集群(分别在hadoop04hadoop05hadoop06上启动zk

启动zookeeper集群:

$cd /hadoop/zookeeper-3.4.5/bin/

$./zkServer.sh start

查看状态:

$./zkServer.sh status

(一个leader,两个follower

八、         启动journalnode(在hadoop01上启动所有journalnode

cd /hadoop/hadoop-2.2.0

sbin/hadoop-daemons.sh start journalnode

(运行jps命令检验,多了JournalNode进程)

九、         格式化HDFS

hadoop01上执行命令:

hadoop namenode -format

格式化后会在根据core-site.xml中的hadoop.tmp.dir配置生成个文件,这里我配置的是/hadoop/hadoop-2.2.0/tmp,然后将/hadoop/hadoop-2.2.0/tmp拷贝到hadoop02/hadoop/hadoop-2.2.0/下。

$scp -r tmp/ hadoop02:/hadoop/hadoop-2.2.0/

十、         格式化ZK(hadoop01上执行即可)

$hdfs zkfc -formatZK

十一、    启动HDFS(hadoop01上执行)

$sbin/start-dfs.sh

十二、    启动YARN(hadoop01上执行)

$sbin/start-yarn.sh

十三、    So ga 完成了

到此,hadoop2.2.0配置完毕,可以统计浏览器访问:

         http://192.168.0.2:50070

         NameNode 'hadoop01:9000' (active)

         http://192.168.1.202:50070

         NameNode 'hadoop02:9000' (standby)

        

验证HDFS HA

         首先向hdfs上传一个文件

         hadoop fs -put /etc/profile /profile

         hadoop fs -ls /

         然后再killactiveNameNode

         kill -9 <pid of NN>

         通过浏览器访问:http://192.168.0.2:50070

         NameNode 'hadoop02:9000' (active)

         这个时候hadoop02上的NameNode变成了active

         在执行命令:

         hadoop fs -ls /

         -rw-r--r--   3 root supergroup       1926 2014-02-06 15:36 /profile

         刚才上传的文件依然存在!!!

         手动启动那个挂掉的NameNode

         sbin/hadoop-daemon.sh start namenode

         通过浏览器访问:http://192.168.0.2:50070

         NameNode 'hadoop01:9000' (standby)

十四、    最后来张快照,记录我第一次搭建成功。耗时一天半,此时特别激动。

 

 

集群规划:

         主机名             IP                                安装的软件                                       运行的进程

         hadoop01        192.168.0.2                               jdkhadoop                                      NameNodeDFSZKFailoverController

         hadoop02        192.168.0.3                               jdkhadoop                                      NameNodeDFSZKFailoverController

         hadoop03        192.168.0.4                               jdkhadoop                                      ResourceManager

         hadoop04        192.168.0.5             jdkhadoopzookeeper              DataNodeNodeManagerJournalNodeQuorumPeerMain

         hadoop05        192.168.0.6             jdkhadoopzookeeper              DataNodeNodeManagerJournalNodeQuorumPeerMain

         hadoop06        192.168.0.7             jdkhadoopzookeeper              DataNodeNodeManagerJournalNodeQuorumPeerMain

        

说明:

         hadoop2.0中通常由两个NameNode组成,一个处于active状态,另一个处于standby状态。Active NameNode对外提供服务,而Standby NameNode则不对外提供服务,仅同步active namenode的状态,以便能够在它失败时快速进行切换。

         hadoop2.0官方提供了两种HDFS HA的解决方案,一种是NFS,另一种是QJM。这里我们使用简单的QJM。在该方案中,主备NameNode之间通过一组JournalNode同步元数据信息,一条数据只要成功写入多数JournalNode即认为写入成功。通常配置奇数个JournalNode

 

         这里还配置了一个zookeeper集群,用于ZKFCDFSZKFailoverController)故障转移,当Active NameNode挂掉了,会自动切换Standby NameNodestandby状态

 

内容概要:本文围绕EKF SLAM(扩展卡尔曼滤波同步定位与地图构建)的性能展开多项对比实验研究,重点分析在稀疏与稠密landmark环境下、预测与更新步骤同时进行与非同时进行的情况下的系统性能差异,并进一步探讨EKF SLAM在有色噪声干扰下的鲁棒性表现。实验考虑了不确定性因素的影响,旨在评估不同条件下算法的定位精度与地图构建质量,为实际应用中EKF SLAM的优化提供依据。文档还提及多智能体系统在遭受DoS攻击下的弹性控制研究,但核心内容聚焦于SLAM算法的性能测试与分析。; 适合人群:具备一定机器人学、状态估计或自动驾驶基础知识的科研人员及工程技术人员,尤其是从事SLAM算法研究或应用开发的硕士、博士研究生和相关领域研发人员。; 使用场景及目标:①用于比较EKF SLAM在不同landmark密度下的性能表现;②分析预测与更新机制同步与否对滤波器稳定性与精度的影响;③评估系统在有色噪声等非理想观测条件下的适应能力,提升实际部署中的可靠性。; 阅读建议:建议结合MATLAB仿真代码进行实验复现,重点关注状态协方差传播、观测更新频率与噪声模型设置等关键环节,深入理解EKF SLAM在复杂环境下的行为特性。稀疏 landmark 与稠密 landmark 下 EKF SLAM 性能对比实验,预测更新同时进行与非同时进行对比 EKF SLAM 性能对比实验,EKF SLAM 在有色噪声下性能实验
内容概要:本文围绕“基于主从博弈的售电商多元零售套餐设计与多级市场购电策略”展开,结合Matlab代码实现,提出了一种适用于电力市场化环境下的售电商优化决策模型。该模型采用主从博弈(Stackelberg Game)理论构建售电商与用户之间的互动关系,售电商作为领导者制定电价套餐策略,用户作为跟随者响应电价并调整用电行为。同时,模型综合考虑售电商在多级电力市场(如日前市场、实时市场)中的【顶级EI复现】基于主从博弈的售电商多元零售套餐设计与多级市场购电策略(Matlab代码实现)购电组合优化,兼顾成本最小化与收益最大化,并引入不确定性因素(如负荷波动、可再生能源出力变化)进行鲁棒或随机优化处理。文中提供了完整的Matlab仿真代码,涵盖博弈建模、优化求解(可能结合YALMIP+CPLEX/Gurobi等工具)、结果可视化等环节,具有较强的可复现性和工程应用价值。; 适合人群:具备一定电力系统基础知识、博弈论初步认知和Matlab编程能力的研究生、科研人员及电力市场从业人员,尤其适合从事电力市场运营、需求响应、售电策略研究的相关人员。; 使用场景及目标:① 掌握主从博弈在电力市场中的建模方法;② 学习售电商如何设计差异化零售套餐以引导用户用电行为;③ 实现多级市场购电成本与风险的协同优化;④ 借助Matlab代码快速复现顶级EI期刊论文成果,支撑科研项目或实际系统开发。; 阅读建议:建议读者结合提供的网盘资源下载完整代码与案例数据,按照文档目录顺序逐步学习,重点关注博弈模型的数学表达与Matlab实现逻辑,同时尝试对目标函数或约束条件进行扩展改进,以深化理解并提升科研创新能力。
内容概要:本文介绍了基于粒子群优化算法(PSO)的p-Hub选址优化问基于粒子群优化算法的p-Hub选址优化(Matlab代码实现)题的Matlab代码实现,旨在解决物流与交通网络中枢纽节点的最优选址问题。通过构建数学模型,结合粒子群算法的全局寻优能力,优化枢纽位置及分配策略,提升网络传输效率并降低运营成本。文中详细阐述了算法的设计思路、实现步骤以及关键参数设置,并提供了完整的Matlab仿真代码,便于读者复现和进一步改进。该方法适用于复杂的组合优化问题,尤其在大规模网络选址中展现出良好的收敛性和实用性。; 适合人群:具备一定Matlab编程基础,从事物流优化、智能算法研究或交通运输系统设计的研究生、科研人员及工程技术人员;熟悉优化算法基本原理并对实际应用场景感兴趣的从业者。; 使用场景及目标:①应用于物流中心、航空枢纽、快递分拣中心等p-Hub选址问题;②帮助理解粒子群算法在离散优化问题中的编码与迭代机制;③为复杂网络优化提供可扩展的算法框架,支持进一步融合约束条件或改进算法性能。; 阅读建议:建议读者结合文中提供的Matlab代码逐段调试运行,理解算法流程与模型构建逻辑,重点关注粒子编码方式、适应度函数设计及约束处理策略。可尝试替换数据集或引入其他智能算法进行对比实验,以深化对优化效果和算法差异的理解。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值