在eclipse中远程连接并读取数据

本文介绍如何在Eclipse中简单地连接Hadoop并读取HDFS数据,包括整理Hadoop的jar包、配置FileSystem及注意事项。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

如何在eclipse中远程连接并读取数据,在网上搜的代码,大部分说的都比较复杂,其实如果只想连接HDFS读取一些数据话,这个是非常简单的,如果还要在Eclipse上远程提交MapReduce作业,这个就比较麻烦了,需要改动几处hadoop的源码才可以,所以建议初学者,还是在eclipse中,写好MR的类,然后打包成一个jar包上传linux并执行。


下面进入正题,在eclipse上连接hadoop,为了方便建议大家把hadoop里面所有的jar包都整理成一份目录的jar包,默认的hadoop的jar中是分散在\hadoop-2.5.0\share\hadoop目录下的各个子文件夹里,这6个目录分别是common,hdfs,httpfs,mapreduce,tools,yarn,然后把集中起来的jar中,引入项目中。

接下来,我们便可以编写我们的工具类,来读取HDFS上的数据了,注意这里并不需要把hadoop的conf下的配置文件core-site.xml,hdfs-site.xml等拷贝到项目的根目录下,而在网上看到的大部分的文章都说把hadoop的配置文件拷贝下来,其实完全没必要,我们只需要在实例化出来的Configuration中加入HDFS的端口路径即可,其他的除了hadoop的jar包外,任何配置文件都不需要,核心代码如下:

Java代码 复制代码  收藏代码
  1. static Configuration conf=new  Configuration();  
  2. static FileSystem fs=null;  
  3. static{  
  4. try {  
  5.     //默认的hadoop的fs.defaultFS的端口号为8020,这里需要跟集群里面的配置一致  
  6.     conf.set("fs.defaultFS","hdfs://dnode1:8020/");    
  7.     fs=FileSystem.get(conf);  
  8. catch (IOException e) {  
  9.     log.error("初始化FileSystem失败!",e);  
  10. }  
  11. }  
	static Configuration conf=new  Configuration();
	static FileSystem fs=null;
	static{
	try {
		//默认的hadoop的fs.defaultFS的端口号为8020,这里需要跟集群里面的配置一致
    	conf.set("fs.defaultFS","hdfs://dnode1:8020/");  
		fs=FileSystem.get(conf);
	} catch (IOException e) {
		log.error("初始化FileSystem失败!",e);
	}
	}


OK,只需要这简单的一行,我们就可以读取HDFS上的数据了,另外如要注意的是,需要把hadoop的对应的host也配置在win上的host文件里,避免访问文件系统出错,只要上面这一步打通,下面的对于HDFS系统上文件和目录增删改查,以及对文件内容的读取和写入,散仙在这里就不多写了,这个很简单,大家看看FileSystem这个类的Api就能很容易掌握的。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值