hadoop2.4.0 [自动HA]搭建

hadoop2.4.0自动的HA

                   

注明:前提是自己已经编译好的hadoop版本或者cloudrea公司的cdh版本!          大数据讨论群:288396468


1、 core-site.xml
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://mycluster</value>
</property>


<property>
<name>hadoop.tmp.dir</name>
<value>/usr/local/hadoop-2.4.0/tmp</value>
</property>


<property>
<name>ha.zookeeper.quorum</name>
<value>itr-mastertest01:2181,itr-mastertest02:2181,itr-nodetest01:2181</value>
</property>


<property>
<name>fs.trash.interval</name>
<value>2000</value>
</property>
</configuration>


2、hdfs-site.xml
<configuration>
<property>
<name>dfs.replication</name>
<value>2</value>
</property>


<property>
<name>dfs.nameservices</name>
<value>mycluster</value>
</property>


<property>
<name>dfs.ha.namenodes.mycluster</name>
<value>nn1,nn2</value>
</property>


<property>
<name>dfs.namenode.rpc-address.mycluster.nn1</name>
<value>itr-mastertest01:9000</value>
</property>


<property>
<name>dfs.namenode.http-address.mycluster.nn1</name>
<value>itr-mastertest01:50070</value>
</property>


<property>
<name>dfs.namenode.rpc-address.mycluster.nn2</name>
<value>itr-mastertest02:9000</value>
</property>


<property>
<name>dfs.namenode.http-address.mycluster.nn2</name>
<value>itr-mastertest02:50070</value>
</property>


<property>
<name>dfs.ha.automatic-failover.enabled.mycluster</name>
<value>true</value>
</property>


<property>
<name>dfs.namenode.shared.edits.dir</name>
<value>qjournal://itr-mastertest01:8485;itr-mastertest02:8485;itr-nodetest01:8485/mycluster</value>
</property>


<property>
<name>dfs.journalnode.edits.dir</name>
<value>/usr/local/hadoop-2.4.0/tmp/journal</value>
</property>


<property>
<name>dfs.ha.fencing.methods</name>
<value>sshfence</value>
</property>


<property>
<name>dfs.ha.fencing.ssh.private-key-files</name>
<value>/root/.ssh/id_rsa</value>
</property>


<property>
<name>dfs.client.failover.proxy.provider.mycluster</name>
<value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
</property>
</configuration>


3、yarn-site.xml
<configuration>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>itr-mastertest01</value>
</property>
<property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
</property>
</configuration>


4、mapred-site.xml
<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>


5、slaves 
itr-nodetest01
itr-nodetest02


6、hadoop-env.sh修改
JAVA_HOME指定为jdk安装目录,JAVA_HOME=/usr/local/jdk1.7.0_45


7、scp hadoop-2.4.0
[root@itr-mastertest01 local]# scp -rq hadoop-2.4.0 itr-mastertest02:/usr/local/
[root@itr-mastertest01 local]# scp -rq hadoop-2.4.0 itr-nodetest01:/usr/local/
[root@itr-mastertest01 local]# scp -rq hadoop-2.4.0 itr-nodetest02:/usr/local/


8、启动journalnode
[root@itr-mastertest01 local]# hadoop-daemon.sh start journalnode
[root@itr-mastertest02 local]# hadoop-daemon.sh start journalnode
[root@itr-nodetest01 local]# hadoop-daemon.sh start journalnode


9、格式化zkfc集群
[root@itr-mastertest01 local]# hdfs zkfc -formatZK


10、格式化hdfs文件系统[格式化namenode,接着启动namenode]
[root@itr-mastertest01 tmp]# hdfs namenode -format -clusterId mycluster
[root@itr-mastertest01 tmp]# hadoop-daemon.sh start namenode
[root@itr-mastertest02 tmp]# hdfs namenode -bootstrapStandby
[root@itr-mastertest02 tmp]# hadoop-daemon.sh start namenode


9、启动datanode
[root@itr-mastertest01 local]# hadoop-daemons.sh start datanode


10、启动zkfc [DFSZKFailoverController]
[root@itr-mastertest01 local]# hadoop-daemon.sh start zkfc
[root@itr-mastertest02 tmp]# hadoop-daemon.sh start zkfc


11、启动yarn
[root@itr-mastertest01 local]# yarn-daemon.sh start resourcemanager
[root@itr-mastertest01 local]# yarn-daemons.sh start nodemanager


12、测试hdfs+Yarn+MR
hadoop fs -put /hadoop-env.sh /testdata
hadoop jar hadoop-mapreduce-examples-2.4.0.jar wordcount /testdata /output


13、启动historyserver [查询作业执行的详细情况]

[root@itr-mastertest01 local]# mr-jobhistory-daemon.sh start historyserver 


转载请注明出处:http://blog.youkuaiyun.com/sparkjvm

【四旋翼无人机】具备螺旋桨倾斜机构的全驱动四旋翼无人机:建模与控制研究(Matlab代码、Simulink仿真实现)内容概要:本文围绕具备螺旋桨倾斜机构的全驱动四旋翼无人机展开研究,重点探讨其系统建模与控制策略,结合Matlab代码与Simulink仿真实现。文章详细分析了无人机的动力学模型,特别是引入螺旋桨倾斜机构后带来的全驱动特性,使其在姿态与位置控制上具备更强的机动性与自由度。研究涵盖了非线性系统建模、控制器设计(如PID、MPC、非线性控制等)、仿真验证及动态响应分析,旨在提升无人机在复杂环境下的稳定性和控制精度。同时,文中提供的Matlab/Simulink资源便于读者复现实验并进一步优化控制算法。; 适合人群:具备一定控制理论基础和Matlab/Simulink仿真经验的研究生、科研人员及无人机控制系统开发工程师,尤其适合从事飞行器建模与先进控制算法研究的专业人员。; 使用场景及目标:①用于全驱动四旋翼无人机的动力学建模与仿真平台搭建;②研究先进控制算法(如模型预测控制、非线性控制)在无人机系统中的应用;③支持科研论文复现、课程设计或毕业课题开发,推动无人机高机动控制技术的研究进展。; 阅读建议:建议读者结合文档提供的Matlab代码与Simulink模型,逐步实现建模与控制算法,重点关注坐标系定义、力矩分配逻辑及控制闭环的设计细节,同时可通过修改参数和添加扰动来验证系统的鲁棒性与适应性。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值