1 确保eclipse已经安装了hadoop-eclipse-plugin-1.0.2.jar插件
2 在eclipse中选择map/reduce
在Map/reduce locations点击右键新建new hadoop locations
注意:
Map/Reduce的port是hadoop配置文件中的mapred-site.xml
的 <name>mapred.job.tracker</name>
DFS Master的port是hadoop配置文件中的core-site.xml中
的<name>fs.default.name</name>值
提交后:在左侧有如下效果:
OK,成功,这样,通过eclipse就能查阅hdfs的文件信息了。
但是,只是如此,冒失不能通过eclipse上传文件,这是因为hadoop的配置hdfs-site.xml里面有一个字段未修改:
到服务器上修改hadoop的配置文件:conf/hdfs-core.xml, 找到 dfs.permissions 的配置项 , 将value值改为 false
<property>
<name>dfs.permissions</name>
<value>false</value>
<description>
重启hadoop
最后是执行eclipse上的hadoop程序,会碰到你的权限不够,这是hadoop的里面一个包导致的:解决办法如下
#bin/hadoop dfsadmin –safemode leave
http://www.blogjava.net/yongboy/archive/2012/04/26/376486.html
即修改/hadoop-1.0.2/src/core/org/apache/hadoop/fs/FileUtil.java里面的checkReturnValue,注释掉即可(有些粗暴,在Window下,可以不用检查)。