Hadoop自带MapReduce测试

Hadoop自带wordcount测试

创建一个文档words.txt
hdfs下新建文件夹input

hdfs dfs -mkdir /input

复制文件

hdfs dfs -put /usr/hadoop/hadoop-2.8.5/data/words.txt /input/wordcount

查看txt中内容

hdfs dfs -cat /input/wordcount/words.txt

找到jar包
cd $HADOOP_HOME/share/hadoop/mapreduce
在这里插入图片描述
执行

hadoop jar hadoop-mapreduce-examples-2.8.5.jar wordcount /input/wordcount /output/wordcount

运行成功
在这里插入图片描述
查看输出结果
hadoop fs -text /output/test/part-r-00000

遇到的问题

1.namenode处于安全模式
关闭安全模式即可

hadoop dfsadmin -safemode leave

2.put: File /input/words.txt.COPYING could only be replicated to 0 nodes instead of minReplication (=1). There are 0 datanode(s) running and no node(s) are excluded in this operation.
原因可能是使用hadoop namenode -format格式化时格式化了多次造成那么spaceID不一致。
解决方法:停止集群并删除core-site.xml文件中hadoop.tmp.dir对应文件夹,重新格式化namenode再启动。

hdfs namenode -format
start-all.sh
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值