大数据系列2:建立开发环境编写HDFS和Map Reduce程序

本文详细介绍如何在Eclipse中配置Hadoop插件,并通过图文步骤指导用户完成MapReduce环境设置,实现对HDFS的操作及MapReduce工程的创建。

1、在eclipse中配置hadoop插件

       hadoop-eclipse-plugin-1.2.1.jar 复制到eclipse/plugins目录下,重启eclipse

2、打开MapReduce视图

       Window-> Open Perspective -> Other 选择Map/Reduce,图标是个蓝色的象。

3、添加一个MapReduce环境

      eclipse下端,控制台旁边会多一个Tab,叫“Map/ReduceLocations”,在下面空白的地方点右键,选择“NewHadoop location...”,在弹出的对话框中填写如下内容:

Location name(取个名字)
Map/Reduce MasterJob TrackerIP和端口,根据mapred-site.xml中配置的mapred.job.tracker来填写)
DFS MasterName NodeIP和端口,根据core-site.xml中配置的fs.default.name来填写)

4、使用eclipse对HDFS内容进行操作

    经过上一步骤,左侧“Project Explorer”中应该会出现配置好的HDFS,点击右键,可以进行新建文件夹、删除文件夹、上传文件、下载文件、删除文件等操作。

    注意:每一次操作完在eclipse中不能马上显示变化,必须得刷新一下。 

5、创建MapReduce工程

5.1配置Hadoop路径

      Window-> Preferences 选择 “Hadoop Map/Reduce”,点击“Browse...”选择Hadoop文件夹的路径。这个步骤与运行环境无关,只是在新建工程的时候能将hadoop根目录和lib目录下的所有jar包自动导入。

      5.2创建工程

      File ->New -> Project 选择“Map/ReduceProject”,然后输入项目名称,创建项目。插件会自动把hadoop根目录和lib目录下的所有jar包导入。

      5.3创建Mapper或者Reducer

      File ->New -> Mapper 创建Mapper,自动继承mapred包里面的MapReduceBase并实现Mapper接口。注意:这个插件自动继承的是mapred包里旧版的类和接口,新版的Mapper得自己写。Reducer同理。

 

 

 

 

APDPlat旗下十大开源项目

 

 

 

 

 

转载于:https://my.oschina.net/apdplat/blog/396580

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值