hadoop 多节点安装 ubuntu 11

本文详细介绍了一个包含四个节点的Hadoop集群的搭建过程。集群由一台NameNode和三台DataNode组成,采用Hadoop版本0.20.203.0。文章涵盖了Java安装、Hadoop安装与配置、环境变量设置及集群启动等关键步骤。


hadoop 多节点安装

建立一个4台服务器的hadoop集群,4台服务器ip和对应的主机名分别为:

192.168.40.240:dm1

192.168.10.147:dm2

192.168.40.242:dm3

192.168.40.239:dm4

其中dm1为namenode,另外3台为datanode。


版本: hadoop-0.20.203.0

准备:
一、安装JAVA
下载:jdk-6u27-linux-i586.bin

分别在4台机器下安装:

1、在usr下面新建一个文件夹Java,然后将jdk复制过来
sudo mkdir /usr/Java
sudo cp jdk的路径 /usr/Java

2、进入到Java目录下,改变文件权限为可执行
cd /usr/Java
sudo chmod u+x jdk1.6.0_23.bin

3、执行安装
sudo ./jdk1.6.0_23.bin
(现象为Unpacking....加一连串解压信息)

4、配置环境变量
vim /etc/profile
增加内容
export JAVA_HOME=/usr/java/jdk1.6.0_27
export PATH=$JAVA_HOME/bin:$PATH
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar


5、验证需要重新登陆
java -version
java version "1.6.0_27"
Java(TM) SE Runtime Environment (build 1.6.0_27-b07)
Java HotSpot(TM) Client VM (build 20.2-b06, mixed mode, sharing)



二、 创建一个名为hadoop的用户和用户组
分别在4台机器下面操作:

1、创建一个名为hadoop的用户组
addgroup hadoop

2、创建一个名为hadoop的用户,归到hadoop用户组下
adduser --ingroup hadoop hadoop

3、修改sudo文件
vim /etc/sudoers

在 root   ALL=(ALL)  ALL 下面添加
hadoop  ALL=(ALL)  ALL

目的:让 hadoop用户可使用sudo命令

4、配置dm1  namenode 的/etc/hosts增加

192.168.40.240    dm1
192.168.10.147    dm2
192.168.40.242    dm3
192.168.40.239    dm4


5、其他机器的/etc/hosts同样增加(有文档说只要slave识别master即可。不管了,都配)
192.168.40.240    dm1
192.168.10.147    dm2
192.168.40.242    dm3
192.168.40.239    dm4

 

三,安装hadoop

1、在DM1  namenode上安装hadoop,配置完配置文件后直接把目录COPY到其他3台就OK,


将下载的压缩包解压到安装目录下即可,把hadoop 的安装路径添加到环境变量/etc/profile 中

export HADOOP_HOME=/usr/hadoop/hadoop-0.20.203.0
export PATH=$HADOOP_HOME/bin:$PATH

2、编辑3个重要的配置文件:

 

root@dm1:/usr/hadoop/hadoop-0.20.203.0/conf# cat core-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->

<configuration>
    <property>
           <name>fs.default.name</name>
           <value>
hdfs://192.168.40.240:9000 </value> 
    </property>
       
    <property> 
           <name>hadoop.tmp.dir</name>
           <value>
/home/hadoop/tmp/hadoop-${user.name} </value> 
    </property>
</configuration>

 

 

root@dm1:/usr/hadoop/hadoop-0.20.203.0/conf# cat hdfs-site.xml

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<!-- Put site-specific property overrides in this file. -->

<configuration>
        <property>
                <name>dfs.name.dir</name>
                <value>/home/hadoop/name </value>
        </property>
        <property>
                <name>dfs.data.dir</name>
                <value>/home/hadoop/data </value>
        </property>
        <property>
                <name>dfs.replication</name>
                <value>2 </value>
        </property>
</configuration>

 


root@dm1:/usr/hadoop/hadoop-0.20.203.0/conf# cat mapred-site.xml

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<!-- Put site-specific property overrides in this file. -->

<configuration>
    <property> 
          <name>mapred.job.tracker</name> 
          <value>192.168.40.240:9001 </value>
     </property> 
</configuration>


3、配置namenode的conf/masters 和conf/slaves 文件
masters:
dm1

slaves:  

dm2
dm3
dm4


至此,hadoop的配置已经完成
,COPY到其他机器即可

4、将在namenode机器上配置好的hadoop部署到datanode机器上


scp -r /usr/hadoop/hadoop-0.20.203.0/ root@dm2:/usr/hadoop/
scp -r /usr/hadoop/hadoop-0.20.203.0/ root@dm3:/usr/hadoop/
scp -r /usr/hadoop/hadoop-0.20.203.0/ root@dm4:/usr/hadoop/


四、启动hadoop

1、回到DM1格式化和启动(后面的操作都在OS 的hadoop用户下):

hadoop@dm1:/usr/hadoop/hadoop-0.20.203.0$ bin/hadoop namenode -format 

hadoop@dm1:/usr/hadoop/hadoop-0.20.203.0$ bin/start-all.sh

 


2、dm1检查启动进程:

hadoop@dm1:/usr/hadoop/hadoop-0.20.203.0$ jps
5944 Jps
5477 NameNode
5744 JobTracker
5665 SecondaryNameNode


其他机器:
hadoop@dm2:~$ jps
4986 DataNode
5125 TaskTracker
5203 Jps



注意事项:

/etc/hosts 不要使用127.0.1.1或localhost

启动和维护在hadoop用户下


用ssh-keygen打通四台机器的无密登录.


参考

 

http://hadoop.apache.org/common/docs/r0.19.2/cn/cluster_setup.html
http://vampire1126.iteye.com/blog/891693
http://hi.baidu.com/jadmin/blog/item/80a590eceaac693c63d09f31.html
http://shirley-ren.iteye.com/blog/1174622

【评估多目标跟踪方法】9个高度敏捷目标在编队中的轨迹和测量研究(Matlab代码实现)内容概要:本文围绕“评估多目标跟踪方法”,重点研究9个高度敏捷目标在编队飞行中的轨迹生成与测量过程,并提供完整的Matlab代码实现。文中详细模拟了目标的动态行为、运动约束及编队结构,通过仿真获取目标的状态信息与观测数据,用于验证和比较不同多目标跟踪算法的性能。研究内容涵盖轨迹建模、噪声处理、传感器测量模拟以及数据可视化等关键技术环节,旨在为雷达、无人机编队、自动驾驶等领域的多目标跟踪系统提供可复现的测试基准。; 适合人群:具备一定Matlab编程基础,从事控制工程、自动化、航空航天、智能交通或人工智能等相关领域的研究生、科研人员及工程技术人员。; 使用场景及目标:①用于多目标跟踪算法(如卡尔曼滤波、粒子滤波、GM-CPHD等)的性能评估与对比实验;②作为无人机编队、空中交通监控等应用场景下的轨迹仿真与传感器数据分析的教学与研究平台;③支持对高度机动目标在复杂编队下的可观测性与跟踪精度进行深入分析。; 阅读建议:建议读者结合提供的Matlab代码进行实践操作,重点关注轨迹生成逻辑与测量模型构建部分,可通过修改目标数量、运动参数或噪声水平来拓展实验场景,进一步提升对多目标跟踪系统设计与评估的理解。
本软件实现了一种基于时域有限差分法结合时间反转算法的微波成像技术,旨在应用于乳腺癌的早期筛查。其核心流程分为三个主要步骤:数据采集、信号处理与三维可视化。 首先,用户需分别执行“WithTumor.m”与“WithoutTumor.m”两个脚本。这两个程序将在模拟生成的三维生物组织环境中进行电磁仿真,分别采集包含肿瘤模型与不包含肿瘤模型的场景下的原始场数据。所获取的数据将自动存储为“withtumor.mat”与“withouttumor.mat”两个数据文件。 随后,运行主算法脚本“TR.m”。该程序将加载上述两组数据,并实施时间反转算法。算法的具体过程是:提取两组仿真信号之间的差异成分,通过一组专门设计的数字滤波器对差异信号进行增强与净化处理,随后在数值模拟的同一组织环境中进行时间反向的电磁波传播计算。 在算法迭代计算过程中,系统会按预设的周期(每n次迭代)自动生成并显示三维模拟空间内特定二维切面的电场强度分布图。通过对比观察这些动态更新的二维场分布图像,用户有望直观地识别出由肿瘤组织引起的异常电磁散射特征,从而实现病灶的视觉定位。 关于软件的具体配置要求、参数设置方法以及更深入的技术细节,请参阅软件包内附的说明文档。 资源来源于网络分享,仅用于学习交流使用,请勿用于商业,如有侵权请联系我删除!
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值