Ubuntu+eclipse,进行Hadoop集群操作实例(数据去重+数据排序)

      

       跑完WordCount程序后,想在Hadoop集群上在熟练几个程序,毕竟辛苦搭建好的集群,选择了简单的两个例子:数据去重+数据排序。这里记录下程序及运行中发生的一些问题及解决方案。


       前提准备:1、Ubuntu16.0系统+eclipse;

                         2、Ubuntu server版本搭建的分布式集群系统(1台master,2台slaves);

                   3、eclipse所在的Ubuntu系统应该和集群系统配置SSH免密登录。

参考例程序:    点击打开链接   

实例1:数据去重

描述:在原始数据中出现次数超过一次的数据在输出文件中只出现一次

方法:哪个不能重复哪个设置成Key

原始数据:

1、原始数据

file1

2012-3-1 a

2012-3-2 b

2012-3-3 c

2012-3-4 d

2012-3-5 a

2012-3-6 b

2012-3-7 c

2012-3-3 c

 

file2

2012-3-1 b

2012-3-2 a

2012-3-3 b

2012-3-4 d

2012-3-5 a<

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值