HDFS的API

本文档展示了如何使用HDFS API进行文件系统操作,包括创建目录、检查文件存在、上传下载文件、读写HDFS文件以及管理文件系统。通过Demo01和Demo02,逐步介绍了配置、连接NameNode和执行常见任务。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

package com.shijia.HDFS;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;

import java.io.IOException;

public class Demo01TestAPI {
    public static void main(String[] args) throws IOException {
        //创建一个配置文件
        Configuration conf = new Configuration();
        //设置NameNode的地址
         conf.set("fs.defaultFS","hdfs://master:9000");
         //与NameNode建立连接
        FileSystem fs = FileSystem.get(conf);

        System.out.println(fs.exists(new Path("/data")));
        System.out.println(fs.exists(new Path("/data1")));
        //关闭连接
        fs.close();
    } 
}
package com.shijia.HDFS;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.*;
import org.apache.hadoop.yarn.webapp.hamlet.Hamlet;
import org.junit.After;
import org.junit.Before;
import org.junit.Test;

import java.io.*;

public class Demo02HDFSAPI {
    FileSystem fs;

   @Before
   public  void init() throws IOException {
       //创建一个配置文件
       Configuration conf = new Configuration();
       //设置NameNode的地址
       conf.set("fs.defaultFS", "hdfs://master:9000");
       //设置副本数量
       conf.set("dfs.replication","1");
       //与NameNode建立连接
       fs = FileSystem.get(conf);
   }

   @Test
   //判断路径存在不存在
   public void exists() throws IOException {
       Path path = new Path("/data");
       System.out.println(fs.exists(path));
   }

   @Test
   //创建一个TestAPI/test1目录
   public void mkdirs() throws IOException {
       fs.mkdirs(new Path("/TestAPI/test1"));
       fs.mkdirs(new Path("/TestAPI/test2"));
   }

   @Test
   public void delete() throws IOException {
       fs.delete(new Path("/TestAPI/test2"),true);
   }

   @Test
   //上传文件到TestAPI/test1
   public void copyFromLocalFile() throws IOException {
       fs.copyFromLocalFile(new Path("data/students.txt"),new Path("/TestAPI/test1"));
   }

   @Test
   //上传文件到/TestAPI/test1,并移除本地文件
   public void moveFromLocalFile() throws IOException {
       fs.moveFromLocalFile(new Path("data/students.txt"), new Path("/TestAPI/test1/students_new.txt"));
   }

   @Test
   //将HDFS上的文件下载到本地,并移除HdFS的文件
  public void moveToLocalFile() throws IOException {
       fs.moveToLocalFile(new Path("/TestAPI/test1/students.txt"),new Path("data/"));
   }

   @Test
   //读取HDFS文件
   public void readHDFSFile() throws IOException {
       FSDataInputStream fsDataInputStream = fs.open(new Path("/TestAPI/test1/students_new.txt"));
       BufferedReader br = new BufferedReader(new InputStreamReader(fsDataInputStream));
       String line;
       while((line=br.readLine())!=null){
           System.out.println(line);
       }
       br.close();
       fsDataInputStream.close();
   }

   @Test
   //将数据写入HDFS
   public void writeHDFSFlie() throws IOException {
       FSDataOutputStream fsDataOutputStream;
       //如果文件存在,追加
       //如果文件不存在,则创建
       Path path = new Path("/TestAPI/test1/newFile.txt");
       if(fs.exists(path)){
           System.out.println("文件已存在,进行追加");
            fsDataOutputStream= fs.append(path);
       }else{
           System.out.println("创建文件");
           fsDataOutputStream=fs.create(path);
       }
       //写入文件
       BufferedWriter bw = new BufferedWriter(new OutputStreamWriter(fsDataOutputStream));
       bw.write("hjm,2018110710");
       bw.newLine();
       bw.write("dxb,2018110702");
       bw.newLine();
       bw.write("zzj,2018110755");
       bw.newLine();
       bw.write("wyc,2018110734");
       bw.newLine();
       bw.write("yzw,2018110743");
       bw.newLine();
       bw.flush();
       bw.close();
       fsDataOutputStream.close();
   }

   @Test
   //查看/TestAPI/test1目录下的文件
   public void listStatus() throws IOException {
       FileStatus[] fileStatuses = fs.listStatus(new Path("/TestAPI/test1"));
       for (FileStatus fileStatus : fileStatuses) {
           System.out.println(fileStatus.getPath());
       }
   }

   @After
    public  void close() throws IOException {
       fs.close();
   }
}
03-26
### HDFS API 使用说明 HDFSHadoop Distributed File System)提供了丰富的API用于管理和操作分布式文件系统中的数据。以下是关于HDFS API的一些核心功能及其用法: #### 1. 客户端环境准备 为了能够使用HDFS API,首先需要配置好客户端开发环境。这通常包括设置Maven依赖以及指定Hadoop的配置文件路径[^3]。 ```xml <dependencies> <dependency> <groupId>org.apache.hadoop</groupId> <artifactId>hadoop-common</artifactId> <version>3.2.1</version> </dependency> <dependency> <groupId>org.apache.hadoop</groupId> <artifactId>hadoop-hdfs</artifactId> <version>3.2.1</version> </dependency> </dependencies> ``` #### 2. 初始化FileSystem对象 通过`Configuration`类加载Hadoop配置并初始化`FileSystem`实例来连接到HDFS集群[^1]。 ```java import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileSystem; public class FileSystemExample { public static void main(String[] args) throws Exception { Configuration conf = new Configuration(); conf.set("fs.defaultFS", "hdfs://namenode-host:port"); FileSystem fs = FileSystem.get(conf); // 执行其他操作... fs.close(); } } ``` #### 3. 基本操作示例 ##### (1) 创建目录 可以通过调用`mkdirs()`方法在HDFS上创建一个新的目录结构。 ```java Path path = new Path("/example/directory"); boolean isCreated = fs.mkdirs(path); System.out.println("Directory created? " + isCreated); ``` ##### (2) 上传文件 利用`copyFromLocalFile()`方法可以从本地文件系统向HDFS上传文件[^4]。 ```java Path localSrc = new Path("/path/to/local/file.txt"); Path hdfsDst = new Path("/path/in/hdfs/"); fs.copyFromLocalFile(localSrc, hdfsDst); ``` ##### (3) 下载文件 同样地,也可以通过`copyToLocalFile()`实现从HDFS下载文件至本地磁盘的操作。 ```java Path hdfsSrc = new Path("/path/in/hdfs/file.txt"); Path localDst = new Path("/local/path/"); fs.copyToLocalFile(hdfsSrc, localDst); ``` ##### (4) 删除文件/目录 要移除某个文件或者整个目录,则可采用`delete()`函数完成此任务。 ```java Path deleteTarget = new Path("/target/to/delete"); boolean recursiveDelete = true; // 是否递归删除子项 boolean result = fs.delete(deleteTarget, recursiveDelete); System.out.println("Deletion successful? " + result); ``` ##### (5) 更改名称或位置 对于已存在的资源,支持对其进行重新命名或是迁移至另一处位置。 ```java Path oldName = new Path("/old/name"); Path newName = new Path("/new/name"); boolean renameResult = fs.rename(oldName, newName); System.out.println("Rename success? " + renameResult); ``` #### 4. RESTful 风格访问——WebHDFS 除了传统的Java API之外,HDFS还提供了一种基于HTTP协议的标准接口形式即WebHDFS[^2]。它允许任何具备网络通信能力的应用程序无需额外部署JVM即可轻松存取存储于其中的数据集。 例如,如果想查看特定路径下的内容列表,可以直接发送GET请求给对应的URL地址: ``` http://<NAMENODE>:<PORT>/webhdfs/v1/<PATH>?op=LISTSTATUS ``` --- ###
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值