hadoop单机安装

1.解压hadoop-1.0.3-bin.tar.gz放到指定目录下。

2.安装java环境,参照文档

3.Ssh无密登录

4.修改conf下四个文件

Hadoop-env.sh:

exportJAVA_HOME=/usr/local/jdk.....

Core-site.xml

1<?xmlversion="1.0"?>

2<?xml-stylesheettype="text/xsl"href="configuration.xsl"?>

3

4<!--Putsite-specificpropertyoverridesinthisfile.-->

5

6<configuration>

7<property>

8<name>fs.default.name</name>

9<value>hdfs://localhost:9000</value>

10</property>

11</configuration>

Mapred-site.xml

12<?xmlversion="1.0"?>

13<?xml-stylesheettype="text/xsl"href="configuration.xsl"?>

14

15<!--Putsite-specificpropertyoverridesinthisfile.-->

16

17<configuration>

18<property>

19<name>mapred.job.tracker</name>

20<value>localhost:9001</value>

21</property>

22</configuration>

Hdfs-site.xml

23<configuration>

24<property>

25<name>dfs.name.dir</name>

26<value>/usr/local/hadoop/datalog1,/usr/local/hadoop/datalog2</value>

27</property>

28<property>

29<name>dfs.data.dir</name>

30<value>/usr/local/hadoop/data1,/usr/local/hadoop/data2</value>

31</property>

32<property>

33<name>dfs.replication</name>

34<value>2</value>

35</property>

36</configuration>

打开conf/masters文件,添加作为secondarynamenode的主机名,作为单机版环境,这里只需填写localhost就Ok了。

打开conf/slaves文件,添加作为slave的主机名,一行一个。作为单机版,这里也只需填写localhost就Ok了。

5.格式化

./bin/hadoopnamenode-format

./start-all.sh

6.http://weixiaolu.iteye.com/blog/1401931

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值