1:格式化namenode
hadoop namenode -format
2:启动
start-all.sh
3:验证
jps
查看当前hadoop进程
正确启动后
master
namenode
secondarynamenode
tasktracker
jps
slave
datanode
jobtracker
jps
4:启动不成功的问题(自己遇到的)
首先要关闭防火墙
第一个是namenode没有启动成功,原因是没有格式化namenode
解决方法:handoop namenode -format 格式化后重新start-all.sh
第二个是datanode没有启动成功,原因不太清楚,不过在网上找到了解决办法,类似于缓存一样的原因
解决办法:删除slave中的tmp目录,然后重新建立tmp目录
mkdir tmp
cd tmp
mkdir data
mkdir name
5:启动成功后可以登录网页查看
http://master:50030/jobtracker.jsp
http://master:50070
6:wordcount实例
hadoop自带的实例hadoop-examples-1.1.2.jar里面包含Wordcount程序
创建两个文件test1.txt和test2.txt,内容分别问hello world和hello hadoop
hadoop fs -mkdir ./input
hadoop fs -mkdir ./out
hadoop fs -put test1.txt ./input
hadoop fs -put test2.txt ./input
hadoop jar hadoop-examples-1.1.2.jar Wordcount input out
hadoop fs -ls ./out
hadoop fs -cat ./out/*
可以看到结果
2:启动
3:验证
4:启动不成功的问题(自己遇到的)
首先要关闭防火墙
第一个是namenode没有启动成功,原因是没有格式化namenode
解决方法:handoop namenode -format 格式化后重新start-all.sh
第二个是datanode没有启动成功,原因不太清楚,不过在网上找到了解决办法,类似于缓存一样的原因
解决办法:删除slave中的tmp目录,然后重新建立tmp目录
mkdir tmp
cd tmp
mkdir data
mkdir name
5:启动成功后可以登录网页查看
http://master:50030/jobtracker.jsp
http://master:50070
6:wordcount实例
hadoop自带的实例hadoop-examples-1.1.2.jar里面包含Wordcount程序
创建两个文件test1.txt和test2.txt,内容分别问hello world和hello hadoop
hadoop fs -mkdir ./input
hadoop fs -mkdir ./out
hadoop fs -put test1.txt ./input
hadoop fs -put test2.txt ./input
hadoop jar hadoop-examples-1.1.2.jar Wordcount input out
hadoop fs -ls ./out
hadoop fs -cat ./out/*
可以看到结果