在linux中使用eclipse开发mapreduce

本文详细介绍如何在Eclipse中配置Hadoop环境,包括下载并安装必要的组件、配置Hadoop和JDK环境变量、以及在Eclipse中设置Hadoop位置等步骤。同时,还提供了常见问题的解决方案。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

参考 http://www.powerxing.com/hadoop-build-project-using-eclipse/


hadoop-eclipse-plugin下载地址

 
eclipse直接在Ubuntu software center下载安装
默认安装路径为/usr/lib/eclipse
 
jdk版本需要1.7的
java -version检查版本,如果不是1.7的执行以下命令
sudo apt-get install openjdk-7-jre openjdk-7-jdk
(默认安装在/usr/lib/jvm/java-7-openjdk-amd64下)
vim ~/.bashrc 添加一行
export PATH=$PATH:/usr/lib/jvm/java-7-openjdk-amd64/bin
保存
source ~/.bashrc
 
在eclipse根目录执行 ./eclipse -clean
重启eclipse看到DFS Locations
 
启动hadoop
HADOOP_HOME/sbin/start-dfs.sh
 
再建立连接

第一步:选择 Window 菜单下的 Preference。

打开Preference

此时会弹出一个窗体,窗体的左侧会多出 Hadoop Map/Reduce 选项,点击此选项,选择 Hadoop 的安装目录(如/usr/local/hadoop,Ubuntu不好选择目录,直接输入就行)。

选择 Hadoop 的安装目录

第二步:切换 Map/Reduce 工作目录,选择 Window 菜单下选择 Open Perspective -> Other,弹出一个窗体,从中选择 Map/Reduce 选项即可进行切换。

切换 Map/Reduce 工作目录

第三步:建立与 Hadoop 集群的连接,点击 Eclipse软件右下角的 Map/Reduce Locations 面板,在面板中单击右键,选择 New Hadoop Location。

建立与 Hadoop 集群的连接

在弹出来的 General 选项面板中进行 Master 的设置,设置要要 Hadoop 的配置一致,如我使用的Hadoop伪分布式配置,设置了 fs.defaultFS 为 hdfs://localhost:9000,则 DFS Master 那的 Post 也应改为 9000。

Location Name 随意填写,Map/Reduce Master 的 Host 就填写你本机的IP(localhost 也行),Port 默认就是 50020。最后的设置如下:

Hadoop Location 的设置

接着再切换到 Advanced parameters 选项面板,这边有详细的配置,切记需要与 Hadoop 的配置(/usr/local/hadoop/etc/hadoop中的配置文件)一致,如我配置了 hadoop.tmp.dir ,就要进行修改。

Hadoop Location 的设置

最后点击 finish,Map/Reduce Location 就创建好了。

这样配置就完成了。

 

在 Eclipse 中运行 MapReduce 项目会遇到的问题

更换jdk1.8之后无法运行mapreduce程序,报错找不到map$Entry什么的:
官网重新下一个eclipse juno 。解压缩之后把原eclipse删掉,并把新的挪过去。记得把hadoop-eclipse插件复制到eclipse的plugin下。
 
 
问题:不出现DFS Locations或者preferrence中 hadoop map reduce报错51
原因:eclipse中用的jdk和编译插件用的jdk不匹配
解决办法:
统一jdk为1.7  配置linux的jdk和eclipse中的jdk为1.7 ,
将环境变量添加在~/.bashrc中
#set java environment
export JAVA_HOME=/usr/lib/jvm/java-7-openjdk-amd64
export JRE_HOME=/usr/lib/jvm/java-7-openjdk-amd64/jre
export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
#set hadoop environment
export HADOOP_HOME=/usr/local/hadoop
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
#set scala environment
export SCALA_HOME=/usr/local/scala-2.10.4
export PATH=$PATH:$SCALA_HOME/bin
#set spark environment
export SPARK_HOME=/usr/local/spark-1.5.2
export PATH=$PATH:$SPARK_HOME
 
保存后更新环境变量。source .bashrc
 
重启虚拟机
 
 
 
 
再次打开虚拟机之后又有问题了:
在终端打开eclipse
/usr/lib/eclipse/eclipse -clean
 
 
-clean都不行了,重新拷贝jar包,重新导入

 
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值