Eclipse 安装 Hadoop 插件

Eclipse 安装 Hadoop 插件

1、首先下载对应版本的hadoop插件
这里写图片描述
2、进入Eclipse的目录,找到Plugins文件夹,讲刚才下载的插件拷贝进去(注意,Eclipse最好要处于关闭状态)
这里写图片描述
3、打开,Eclipse,会发现左侧多了一个DFS Location,说明已经安装成功
这里写图片描述
4、打开Windows–Show View
这里写图片描述
5、选择Other
这里写图片描述
6、选择Map/Reduce Location
这里写图片描述
7、这是,下面应该会出现
这里写图片描述
8、空白部分,右键,New Hadoop Location,然后双击,编辑
这里写图片描述

如果出现 ,
这里写图片描述
请检查 hdfs 里面是否有input和output目录

新建hdfs input目录:
hdfs dfs -mkdir /user
hdfs dfs -mkdir /user/root
hdfs dfs -mkdir /user/root/input

9、安装到这里,还缺少一个一个小插件

到网上搜索下载 hadoop-common-2.2.0-bin-master.jar
1、解压jar包
2、将jar包里面的 hadoop.dll 拷贝到系统盘目录 Windows/System32 下
3、将bin目录配置到环境变量中

###10、这些配置完成之后,就可以新建一个项目,然后导入jar包开始写mapreduce程序了,,,,但是要注意的是,,,,这个时候还需要加载一个配置文件,,,可以拷贝hadoop的配置文件 core-site.xml 到项目中(可以在main下面新建一个resource文件,放入即可)。。。
##附WordCount:

import java.io.IOException;
import java.util.StringTokenizer;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.Reducer;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

public class TestWordCount {
	public static class WcMap extends Mapper<LongWritable, Text, Text, IntWritable>{
		private final static IntWritable one = new IntWritable(1) ;
		private  Text word = new Text() ;
		@Override
		protected void map(LongWritable key, Text value, Context context)
				throws IOException, InterruptedException {
			StringTokenizer str = new StringTokenizer(value.toString()) ;
			while(str.hasMoreTokens()){
				String words = str.nextToken() ;
				word.set(words);
				context.write(word, one);
			}
		}
	}

	public static class WcReduce extends Reducer<Text, IntWritable, Text, IntWritable>{
		private IntWritable times = new IntWritable() ;
		@Override
		protected void reduce(Text key, Iterable<IntWritable> values,Context context) throws IOException, InterruptedException {
			int sum=0 ;
			for(IntWritable i :values){
				sum +=i.get() ;
			}
			times.set(sum);
			context.write(key, times);
		}
		
	}
	
	
	
	public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException {
		Configuration conf = new Configuration() ;
		Job job = Job.getInstance(conf) ;
		job.setJarByClass(TestWordCount.class);
		job.setMapperClass(WcMap.class);
		job.setReducerClass(WcReduce.class);
		job.setOutputKeyClass(Text.class);
		job.setOutputValueClass(IntWritable.class);
		FileInputFormat.addInputPath(job, new Path("/input"));
		FileOutputFormat.setOutputPath(job, new Path("/output"));
		System.exit(job.waitForCompletion(true)?0:1);
	}
}

<think>好的,用户的问题是在Ubuntu系统上安装EclipseHadoop插件。首先,我需要回忆之前提供的引用内容,特别是引用[1]和引用[2],因为这两个引用直接提到了插件安装步骤和环境变量的配置。 用户需要详细的步骤,所以应该分步骤说明。首先,根据引用[1],插件安装涉及到下载、解压、复制jar文件到Eclipseplugins目录,然后使用eclipse -clean命令启动。这应该是第一步,下载和解压插件。需要注意的是,用户可能不知道如何获取插件,可能需要指导他们从正确的来源下载,比如提供的hadoop2x-eclipse-plugin-master.zip。 接下来是复制jar文件到Eclipseplugins目录,这里要确保路径正确,比如/usr/lib/eclipse/plugins/,但可能用户的Eclipse安装路径不同,需要提醒他们根据实际情况调整。然后运行eclipse -clean,这一步很重要,否则插件可能不会生效。 然后,引用[2]提到配置环境变量,以便在任何位置启动Eclipse。这里需要编辑~/.bashrc文件,添加Eclipse安装路径到PATH中。用户可能不熟悉如何编辑bashrc文件,所以需要给出具体的命令,比如使用sudo vim ~/.bashrc,并说明添加的内容。 安装完成后,用户可能需要验证插件是否安装成功。这部分需要指导他们打开Eclipse,查看是否有Hadoop相关的选项出现,比如创建MapReduce项目,如引用[3]提到的创建MapReduce项目进行WordCount的例子。 同时,可能存在的常见问题包括插件版本与HadoopEclipse不兼容,这时候可能需要提醒用户检查版本匹配,或者重新解压插件文件。另外,环境变量配置后可能需要source ~/.bashrc或者重启终端才能生效,这也是需要注意的点。 用户可能还会遇到权限问题,比如复制jar文件时需要sudo权限,或者解压时路径不正确,需要确保每一步都有足够的权限和正确的路径。 最后,生成相关问题的时候,应该围绕插件的配置、环境变量设置、常见错误处理以及插件的使用场景,比如如何创建MapReduce项目,如何配置HDFS连接等,这些都是用户在安装插件后可能遇到的后续问题。</think>### 逐步解答:Ubuntu系统中为Eclipse安装Hadoop插件 #### **步骤1:下载Hadoop-Eclipse插件** 1. 从可靠来源获取插件压缩包(例如:`hadoop2x-eclipse-plugin-master.zip`)。可通过以下命令下载或手动下载后放置到指定目录: ```bash wget https://example.com/hadoop2x-eclipse-plugin-master.zip -P ~/下载 ``` #### **步骤2:解压插件文件** ```bash unzip -qo ~/下载/hadoop2x-eclipse-plugin-master.zip -d ~/下载 ``` 解压后会在`~/下载/hadoop2x-eclipse-plugin-master/release/`路径下找到`hadoop-eclipse-plugin-2.6.0.jar`[^1]。 #### **步骤3:复制插件Eclipse目录** ```bash sudo cp ~/下载/hadoop2x-eclipse-plugin-master/release/hadoop-eclipse-plugin-2.6.0.jar /usr/lib/eclipse/plugins/ ``` *若Eclipse安装在其他路径(如`/opt/eclipse/`),需调整目标目录*。 #### **步骤4:重启Eclipse以激活插件** ```bash /usr/lib/eclipse/eclipse -clean ``` 首次安装后需通过`-clean`参数启动以加载插件,后续正常启动即可[^1]。 #### **步骤5:配置环境变量(可选)** *若需在任意终端启动Eclipse,编辑`~/.bashrc`文件:* ```bash sudo vim ~/.bashrc ``` 在文件末尾添加: ```bash export PATH=$PATH:/usr/local/eclipse ``` 保存后执行`source ~/.bashrc`或重启终端生效[^2]。 #### **验证安装** 1. 打开Eclipse,在菜单栏选择 **Window > Perspective > Open Perspective > Other**,若出现 **Map/Reduce** 选项,表示插件安装成功。 2. 创建MapReduce项目测试(参考引用[3]中的WordCount示例)。 --- ### **常见问题解决** - **插件未显示**:检查JAR文件是否复制到正确的`plugins`目录,或尝试重新解压文件。 - **版本冲突**:确保插件版本与HadoopEclipse兼容(例如Hadoop 2.6.0对应插件2.6.0)。 ---
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值