1 搭建过程中常用Hadoop指令:
1)启动Hadoop指令:
- 1
- 2
启动成功过程log输出:
2)查看DataNode是否正常启动命令:
- 1
shell输出:
注:也可以通过web页面(http://master:50070)查看具体状态
3)创建HDFS上的用户输入输出目录:
- 1
- 2
4)将文件作为输入文件复制到分布式文件系统中:
以hadoop中配置文件作为输入数据源
- 1
注:复制后可通过web页面查看DataNode的Block pool used是否有变化
5)MapReduce作业:
以wordCount为例
- 1
注意:在此之前,必须手动新建output目录,目录不能重复!
- 1
6)停止Hadoop指令:
- 1
- 2
2 配置集群以及执行mapreduce中遇到的问题及解决方案分享:
1)SSH无密码登陆子节点失败:
原因:主节点和子节点编码格式不一致
解决:统一编码格式,具体如何实现SSH无密码登陆,参照上一篇博文
2)Hadoop安装包共享问题:
解决:Windows和Linux之间文件传输可使用secureCRT软件,在linux上安装”lrzsz”即可,使用命令rz,即可实现windows上传到linux;sz则反之,具体网上有资料~
3)是否需要手动配置三次?
答案:不需要!
怎么做:先配置安装主节点的hadoop,然后压缩打包成xxx.tar.gz文件,通过指令copy到从节点上:
- 1
这份文件即会出现在从节点的用户根目录下,解压配置hadoop环境变量即可
4)最蛋疼的问题!!!:执行mapreduce时,hadoop卡在Running job上,即hadoop stuck at running job
题外话:这个问题卡了我快两天的时间!各种google,参考了国内外各大神的帖子博文,最后还是得看hadoop的输出日志才对症下药,finish掉这个问题
问题现象:
网上盗的图,自己那个没记录下来。。。现象是一致的!
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
然后打开(http://master:8088)查看Applications,发现刚提交的job一直卡在Accepted状态,并没有Running,等待许久也如此!
我碰到的原因有二:
一、内存不足引起
需要更改yarn-site.xml和mapred-site.xml的内存配置,我参考了国外的博文(http://zh.hortonworks.com/blog/how-to-plan-and-configure-yarn-in-hdp-2-0/)
具体修改如下:
1)yarn-site.xml
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
- 19
- 20
- 21
- 22
2)mapred-site.xml
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
- 19
- 20
- 21
- 22
- 23
- 24
- 25
- 26
- 27
- 28
- 29
- 30
然而,我是这么做了,可是问题依旧!
二、节点/etc/hostname配置摆乌龙
于是乎,我查看了hadoop的输出日志,我查看了“yarn-用户名-resourcemanager-主机名.log”,里面的内容相当多………………
然后,我发现了问题!
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
- 19
- 20
- 21
- 22
这下问题就清楚了,如何解决?很简单,配置每个节点的/etc/hostname(在ubuntu中),将Master、Slave1、Slave2分别配置在各自对应主机的/etc/hostname文件第一行,如:
- 1
- 2
- 3
- 4
然后三个主机全部重启!
激动人心的时候终于要到来啦!再次执行
- 1
执行过程及结果:
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
- 19
- 20
- 21
- 22
- 23
- 24
- 25
- 26
- 27
- 28
- 29
- 30
- 31
- 32
- 33
- 34
- 35
- 36
- 37
- 38
- 39
- 40
- 41
- 42
- 43
- 44
- 45
- 46
- 47
- 48
- 49
- 50
- 51
- 52
- 53
- 54
- 55
- 56
- 57
- 58
- 59
- 60
- 61
- 62
- 63
- 64
- 65
- 66
- 67
- 68
- 69
- 70
- 71
再看看web页面
希望对大家有一点点作用~