Hadoop(二)——HDFS的 I/O 流操作

本文介绍了如何使用API进行HDFS的I/O流操作,包括文件上传、下载及大文件分块读取。通过代码示例展示了将本地文件上传到HDFS根目录,从HDFS下载文件到本地D盘,以及分块读取HDFS上大文件的实现过程。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

API操作的HDFS系统都是框架封装好的,可以采用 I/O 流的方式实现数据的上传和下载。

HDFS文件上传

1、需求:将本地D盘上的honglou.txt文件上传到HDFS根目录
2、代码块


@Test
public void putFileToHDFS() throws IOException,InterruptedException,URISyntaxException{
   
   
	//1、获取文件系统
	Configuration configuration = new Configuration();
	FileSystem fs = FileSystem.get(new URI("hdfs://hadoop101:9000"),configuration,"root");

	//2、创建输入流
	FileInputStream fis = new FileInputStream(new Path("d:/honglou.txt"));

	//3、获取输出流
	FSDataOutputStream fos = fs.create(new Path("/honglou.txt"));

	//4、流对拷
	IOUtils.closeStream(fos);
	IOUtils.closeStream(fis);
	fs
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值