adoop版本:hadoop-0.20.2 Eclipse版本:eclipse-java-helios-SR2-linux-gtk.tar.gz ========================安装eclipse======================= 1、首先下载eclipse,我下载的是:eclipse-java-helios-SR2-linux-gtk.tar.gz 2、安装eclipse (1)把eclipse-java-helios-SR2-linux-gtk.tar.gz解压到某个目录中,我解压到的是/home/wangxing/Development,得到eclipse目录 (2)在/usr/bin目录下创建一个启动脚本eclipse,执行下面的命令来创建: sudo gedit /usr/bin/eclipse 然后在该文件中添加以下内容: #!/bin/sh export MOZILLA_FIVE_HOME="/usr/lib/mozilla/" export ECLIPSE_HOME="/home/wangxing/Development/eclipse" $ECLIPSE_HOME/eclipse $* (3)修改该脚本的权限,让它变成可执行,执行下面的命令: sudo chmod +x /usr/bin/eclipse 3、在Applications(应用程序)菜单上添加一个图标 sudo gedit /usr/share/applications/eclipse.desktop 然后在文件中添加下列内容: [Desktop Entry] Encoding=UTF-8 Name=Eclipse Platform Comment=Eclipse IDE Exec=eclipse Icon=/home/wangxing/Development/eclipse/icon.xpm Terminal=false StartupNotify=true Type=Application Categories=Application;Development; ========================安装hadoop============================ 关于hadoop在Linux下伪分布式的安装详见:http://blog.sina.com.cn/s/blog_62186b4601011c6a.html ========================在eclipse配置hadoop==================== 1.在eclipse上安装hadoop插件 复制 hadoop安装目录/contrib/eclipse-plugin/hadoop-0.20.203.0-eclipse-plugin.jar 到eclipse安装目录/plugins/ 下 2.重启eclipse,配置hadoop installation directory。 如果安装插件成功,打开Window-->Preferens,你会发现Hadoop Map/Reduce选项,在这个选项里你需要配置Hadoop installation directory。配置完成后退出。  3.配置Map/Reduce Locations 在Window-->Show View中打开Map/Reduce Locations,在Map/Reduce Locations中新建一个Hadoop Location。在这个View中,右键-->New Hadoop Location。在弹出的对话框中你需要配置Location name,如Hadoop,还有Map/Reduce Master和DFS Master。这里面的Host、Port分别为你在mapred-site.xml、core-site.xml中配置的地址及端口。如:  本人hadoop的配置详见:http://www.oschina.net/code/snippet_176897_7976 4.新建项目。 File-->New-->Other-->Map/Reduce Project,项目名可以随便取,如WordCount。 复制 hadoop安装目录/src/example/org/apache/hadoop/examples/WordCount.java到刚才新建的项目WordCount下,删除WordCount.java首行package  5.在本地新建word.txt,内容为: java c++ python cjava c++ javascript helloworld hadoopmapreduce java hadoop hbase 6.通过hadoop的命令在HDFS上创建/tmp/workcount目录,命令如下: bin/hadoop fs -mkdir /tmp/wordcount 通过copyFromLocal命令把本地的word.txt复制到HDFS上,命令如下: bin/hadoop fs -copyFromLocal /home/wangxing/Development/eclipseWorkspace/word.txt /tmp/wordcount/word.txt 7.运行项目 (1).在新建的项目Hadoop,点击WordCount.java,右键-->Run As-->Run Configurations (2).在弹出的Run Configurations对话框中,点Java Application,右键-->New,这时会新建一个application名为WordCount (3).配置运行参数,点Arguments,在Program arguments中输入你要传给程序的输入文件夹和你要求程序将计算结果保存的文件夹,如: hdfs://localhost:9000/tmp/wordcount/word.txt hdfs://localhost:9000/tmp/wordcount/out (4)点击Run,运行程序 过段时间将运行完成,等运行结束后,查看例子的输出结果,使用命令: bin/hadoop fs -ls /tmp/wordcount/out 发现有两个文件夹和一个文件,使用命令查看part-r-00000里的运行结果: bin/hadoop fs -cat /tmp/wordcount/out/part-r-00000  参考: http://www.ylmf.net/ubuntu/guide/201009051389.html http://www.cnblogs.com/flyoung2008/archive/2011/12/09/2281400.html |