Hadoop HDFS JAVA API

本文介绍了如何在Windows环境下安装配置Hadoop,并通过IDEA进行Hadoop API的测试,包括文件上传、下载等功能。同时,文章还详细讲解了如何启用HDFS的回收站功能以及如何进行文件的恢复。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

windows环境要求

 

解压hadoop-2.6.0.tar.gz到D盘根目录,配置HADOOP_HOME环境变量

添加hadoop.dll、winutils.exe到hadoop的bin目录中

 

 重启IDEA

在windows配置主机名和IP的映射关系(win10为例)(shift+右键以管理员身份打开)

C:\Windows\System32\drivers\etc\hosts添加

192.168.199.128 CentOS

 

idea开发工具测试

 

maven依赖

<dependency>
    <groupId>org.apache.hadoop</groupId>
    <artifactId>hadoop-common</artifactId>
    <version>2.6.0</version>
</dependency>
<dependency>
    <groupId>org.apache.hadoop</groupId>
    <artifactId>hadoop-hdfs</artifactId>
    <version>2.6.0</version>
</dependency>

引入maven依赖报错

maven依赖中添加如下配置

<dependency>
    <groupId>jdk.tools</groupId>
    <artifactId>jdk.tools</artifactId>
    <version>1.6</version>
    <scope>system</scope>
      <!-- 本机jdk中的tools.jar-->
    <systemPath>C:/Java/jdk1.8.0_144/lib/tools.jar</systemPath>
</dependency>

此时依赖正常

测试

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IOUtils;
import org.junit.Before;
import org.junit.Test;

import java.io.FileInputStream;
import java.io.InputStream;
import java.io.OutputStream;

public class TestHadoopAPI {
    private FileSystem fileSystem;
    private Configuration configration;

    //初始化环境
    @Before
    public void before()throws Exception{
        configration = new Configuration();
        configration.set("fs.defaultFS","hdfs://CentOS:9000");
        fileSystem = FileSystem.get(configration);
    }

    @Test
    public void testUpload1() throws Exception{
        InputStream is = new FileInputStream("C:/Users/jeffery/Desktop/test.pdf");
        OutputStream os = fileSystem.create(new Path("/test.pdf"));
        //拷贝并关闭资源
        IOUtils.copyBytes(is, os, 1024,true);
    }
}

出现以下异常

该原因是由于我们在配置免密登陆时候设置的是root用户

此时需要我们设置jvm启动参数

-DHADOOP_USER_NAME=root

 

此时运行正常。可以查看

最终的测试代码

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.LocatedFileStatus;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.fs.RemoteIterator;
import org.apache.hadoop.io.IOUtils;
import org.junit.Before;
import org.junit.Test;

import java.io.*;

public class TestHadoopAPI {
    private FileSystem fileSystem;
    private Configuration configration;

    //初始化环境
    @Before
    public void before()throws Exception{
        configration = new Configuration();
        configration.set("fs.defaultFS","hdfs://CentOS:9000");
        fileSystem = FileSystem.get(configration);
    }

    /**
     * 上传文件1
     * @throws Exception
     */
    @Test
    public void testUpload1() throws Exception{
        InputStream is = new FileInputStream("C:/Users/jeffery/Desktop/test.pdf");
        OutputStream os = fileSystem.create(new Path("/test.pdf"));
        //拷贝并关闭资源
        IOUtils.copyBytes(is, os, 1024,true);
    }

    /**
     * 上传文件2
     * @throws Exception
     */
    @Test
    public void testUpload2()throws Exception{
        Path src = new Path("C:/Users/jeffery/Desktop/test.pdf");
        Path dst = new Path("/test02.pdf");
        fileSystem.copyFromLocalFile(src, dst);
    }

    /**
     * 递归创建文件夹
     * @throws IOException
     */
    @Test
    public void mkdir() throws IOException {
        fileSystem.mkdirs(new Path("/dir1/dir2/dir3"));
    }

    /**
     * 测试上传文件夹
     * @throws IOException
     */
    @Test
    public void testUpload3() throws IOException {
        Path src = new Path("C:/Users/jeffery/Desktop/测试");
        Path dst = new Path("/");
        fileSystem.copyFromLocalFile(src,dst );
    }

    /**
     * 删除文件或者文件夹
     * @throws IOException
     */
    @Test
    public void testRemove() throws IOException {
        fileSystem.delete(new Path("/test.pdf"), true);
    }

    /**
     * 显示文件列表
     */
    @Test
    public void listFiles() throws IOException {
        RemoteIterator<LocatedFileStatus> locatedFileStatusRemoteIterator = fileSystem.listFiles(new Path("/测试"), true);
        while (locatedFileStatusRemoteIterator.hasNext()) {
            LocatedFileStatus next = locatedFileStatusRemoteIterator.next();
            System.out.println(next.getPath().getName()+" "+next.getBlockLocations().length+" "+next.getLen());
        }
    }

    /**
     * 测试下载1
     */
    @Test
    public void testDownload1() throws IOException {
        fileSystem.copyToLocalFile(new Path("/test02.pdf"), new Path("C:/Users/jeffery/Desktop/demo/test02.pdf"));
    }

    /**
     * 测试下载2
     * @throws IOException
     */
    @Test
    public void testDownload2() throws IOException {
        InputStream is = fileSystem.open(new Path("/test02.pdf"));
        OutputStream os = new FileOutputStream("C:/Users/jeffery/Desktop/demo/test03.pdf");
        IOUtils.copyBytes(is, os, 1024, true);
    }
}

 

 

补充

 

在HDFS里,删除文件时,不会真正的删除,其实是放入回收站/trash
回收站里的文件可以快速恢复。
可以设置一个时间阈值,当回收站里文件的存放时间超过这个阈值或是回收站被清空时,文件才会被彻底删除,并且释放占用的数据块。

hadoop 的回收站trash功能默认是关闭的,所以需要在core-site.xml中手动开启

<configuration>
	<property>
		<name>fs.defaultFS</name>
		<value>hdfs://CentOS:9000</value>
	</property>
	<property>
		<name>hadoop.tmp.dir</name>
		<value>/usr/hadoop-2.6.0/hadoop-${user.name}</value>
	</property>
	<property>
		<name>fs.trash.interval</name>
		<value>30</value>
	</property>
</configuration><property>
		<name>fs.trash.interval</name>
		<value>30</value>
	</property>
</configuration>

注意:fs.trash.interval 参数的含义是文件删除后保留时长,默认为0,单位为分钟,这里设的是30分钟

HDFS 的回收站类似与window操作系统桌面上的回收站,删除文件之后会放入回收站中,当要恢复回文件时需要手动将文件从回收站中移出。

修改完毕以后重启Hadoop的服务

[root@CentOS hadoop]# stop-dfs.sh
[root@CentOS hadoop]# start-dfs.sh

命令行测试

删除

[root@CentOS hadoop]# hdfs dfs -rm -f /test02.pdf 
18/05/25 10:02:14 INFO fs.TrashPolicyDefault: Namenode trash configuration: Deletion interval = 30 minutes, Emptier interval = 0 minutes.
Moved: 'hdfs://CentOS:9000/test02.pdf' to trash at: hdfs://CentOS:9000/user/root/.Trash/Current

 

开启回收站之后,再删除文件,hdfs会将删除的文件移动至/user中

 

但是该目录默认权限为700

递归修改目录权限

[root@CentOS hadoop]# hdfs dfs -chmod -R 777 /user 

 

 

从回收站还原(从回收站中移回根目录)

[root@CentOS hadoop]# hdfs dfs -mv /user/root/.Trash/Current/test02.pdf /
[root@CentOS hadoop]# hdfs dfs -ls /
Found 3 items
-rwxrwxrwx   3 root supergroup     126326 2018-05-25 11:24 /test02.pdf
drwxrwxrwx   - root supergroup          0 2018-05-25 10:02 /user
drwxr-xr-x   - root supergroup          0 2018-05-25 09:27 /测试drwxr-xr-x   - root supergroup          0 2018-05-25 09:27 /测试

 

JAVA API 测试

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.*;
import org.junit.Before;
import org.junit.Test;

import java.io.IOException;

public class TestTrash {
    private FileSystem fileSystem;
    private Configuration conf;

    //初始化环境
    @Before
    public void before()throws Exception{
        conf = new Configuration();
        conf.set("fs.defaultFS","hdfs://CentOS:9000");
        //设置回收站自动清除文件时间
        conf.set("fs.trash.interval","30");
        fileSystem = FileSystem.get(conf);
    }

    @Test
    public void testTrashRemove() throws IOException {
        Trash trash = new Trash(conf);
        trash.moveToTrash(new Path("/test02.pdf"));
    }
}

 

资源下载链接为: https://pan.quark.cn/s/1bfadf00ae14 “STC单片机电压测量”是一个以STC系列单片机为基础的电压检测应用案例,它涵盖了硬件电路设计、软件编程以及数据处理等核心知识点。STC单片机凭借其低功耗、高性价比和丰富的I/O接口,在电子工程领域得到了广泛应用。 STC是Specialized Technology Corporation的缩写,该公司的单片机基于8051内核,具备内部振荡器、高速运算能力、ISP(在系统编程)和IAP(在应用编程)功能,非常适合用于各种嵌入式控制系统。 在源代码方面,“浅雪”风格的代码通常简洁易懂,非常适合初学者学习。其中,“main.c”文件是程序的入口,包含了电压测量的核心逻辑;“STARTUP.A51”是启动代码,负责初始化单片机的硬件环境;“电压测量_uvopt.bak”和“电压测量_uvproj.bak”可能是Keil编译器的配置文件备份,用于设置编译选项和项目配置。 对于3S锂电池电压测量,3S锂电池由三节锂离子电池串联而成,标称电压为11.1V。测量时需要考虑电池的串联特性,通过分压电路将高电压转换为单片机可接受的范围,并实时监控,防止过充或过放,以确保电池的安全和寿命。 在电压测量电路设计中,“电压测量.lnp”文件可能包含电路布局信息,而“.hex”文件是编译后的机器码,用于烧录到单片机中。电路中通常会使用ADC(模拟数字转换器)将模拟电压信号转换为数字信号供单片机处理。 在软件编程方面,“StringData.h”文件可能包含程序中使用的字符串常量和数据结构定义。处理电压数据时,可能涉及浮点数运算,需要了解STC单片机对浮点数的支持情况,以及如何高效地存储和显示电压值。 用户界面方面,“电压测量.uvgui.kidd”可能是用户界面的配置文件,用于显示测量结果。在嵌入式系统中,用
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值