Java 操作HDFS


    <dependencies>
        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-client</artifactId>
            <version>2.7.3</version>
        </dependency>
        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-common</artifactId>
            <version>2.7.3</version>
        </dependency>
        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-hdfs</artifactId>
            <version>2.7.3</version>
        </dependency>
        <dependency>
            <groupId>org.apache.hbase</groupId>
            <artifactId>hbase-client</artifactId>
            <version>0.96.1-hadoop2</version>
        </dependency>
    </dependencies>

Java:

public class HDFSUtil {

    /**
     * HDFS文件系统服务器的地址以及端口
     */
    public static final String HDFS_PATH = "hdfs://10.50.40.116:8020";
    /**
     * HDFS文件系统的操作对象
     */
    static FileSystem fileSystem = null;
    /**
     * 配置对象
     */
    static Configuration configuration = null;

    public static void main(String[] args) throws Exception {
        HDFSUtil.connection();
        HDFSUtil.fileList();
    }

    /**
     * 连接HDFS
     *
     * @throws Exception
     */
    public static void connection() throws Exception {
        configuration = new Configuration();
        // 第一参数是服务器的URI,第二个参数是配置对象,第三个参数是文件系统的用户名
        fileSystem = FileSystem.get(new URI(HDFS_PATH), configuration, "hadoop");
        System.out.println("hadoop已连接");
    }

    /**
     * 关闭连接
     *
     * @throws Exception
     */
    public static void shutDown() throws Exception {
        configuration = null;
        fileSystem = null;
    }

    /**
     * 创建文件
     *
     * @throws Exception
     */
    public static void createFile() throws Exception {
        // 创建文件
        FSDataOutputStream outputStream = fileSystem.create(new Path("/demo1/a.txt"));
        // 写入一些内容到文件中
        outputStream.write("hello hadoop".getBytes());
        outputStream.flush();
        outputStream.close();
    }

    /**
     * 查看文件内容
     *
     * @throws Exception
     */
    public static void readFile() throws Exception {
        // 读取文件
        FSDataInputStream in = fileSystem.open(new Path("/demo1/a.txt"));
        // 将文件内容输出到控制台上,第三个参数表示输出多少字节的内容
        IOUtils.copyBytes(in, System.out, 1024);
        in.close();
    }

    /**
     * 重命名
     *
     * @throws IOException
     */
    public static void reName() throws IOException {
        Path oldPath = new Path("/demo1/a.txt");
        Path newPath = new Path("/demo1/b.txt");
        // 第一个参数是原文件的名称,第二个则是新的名称
        fileSystem.rename(oldPath, newPath);
    }

    /**
     * 删除文件
     *
     * @throws Exception
     */
    public static void delete() throws Exception {
        // 删除文件,后面一个参数true代表如果这个目录是个文件夹,则删除文件夹和下面所有的文件,false代表只删除这个文件
        fileSystem.delete(new Path("/demo1/mysql-5.7.24-winx64.zip"), false);
    }

    /**
     * 上传一个本地文件到HDFS
     *
     * @throws IOException
     */
    public static void copyFileToHDFS() throws IOException {
        Path localPath = new Path("C:\\Users\\vcolco\\Desktop\\h.txt");
        Path hdfsPath = new Path("/demo1/");
        // 第一个参数是本地文件的路径,第二个则是HDFS的路径
        fileSystem.copyFromLocalFile(localPath, hdfsPath);
    }

    /**
     * 上传本地大文件,显示进度条
     *
     * @throws IOException
     */
    public static void copyFileWithProgressBar() throws IOException {
        InputStream in = new BufferedInputStream(new FileInputStream(new File("D:\\Setup\\mysql-5.7.24-winx64.zip")));
        FSDataOutputStream outputStream = fileSystem.create(new Path("/demo1/mysql-5.7.24-winx64.zip"), new Progressable() {
            public void progress() {
                // 进度条的输出
                System.out.print(".");
            }
        });
        IOUtils.copyBytes(in, outputStream, 4096);
        in.close();
        outputStream.close();
    }

    /**
     * 下载HDFS文件到本地,下载之后生成了一个crc的文件
     *
     * @throws IOException
     */
    public static void downloadFile() throws IOException {
        Path localPath = new Path("E:/b.txt");
        Path hdfsPath = new Path("/demo1/h.txt");
        fileSystem.copyToLocalFile(hdfsPath, localPath);
    }

    /**
     * windows环境推荐用这种方式下载
     *
     * @throws Exception
     */
    public static void downloadFile2() throws Exception {
        FSDataInputStream in = fileSystem.open(new Path("/demo1/h.txt"));
        OutputStream outputStream = new FileOutputStream(new File("E:/b.txt"));
        IOUtils.copyBytes(in, outputStream, 1024);
        in.close();
        outputStream.close();
    }

    /**
     * 获取文件列表
     *
     * @throws IOException
     */
    public static void fileList() throws IOException {
        FileStatus[] fileStatuses = fileSystem.listStatus(new Path("/demo1/"));
        for (FileStatus fileStatus : fileStatuses) {
            System.out.println("这是一个:" + (fileStatus.isDirectory() ? "文件夹" : "文件"));
            System.out.println("副本系数:" + fileStatus.getReplication());
            System.out.println("大小:" + fileStatus.getLen() + "字节");
            System.out.println("路径:" + fileStatus.getPath());
        }
    }
}

直接运行报错连接被拒绝:

java.net.ConnectException: Call From ** to *** failed on connection exception: java.net.ConnectException: Connection refused: no further information; For more details see:  http://wiki.apache.org/hadoop/ConnectionRefused

解决办法:

1、修改core-site.xml

<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://10.50.40.116:8020</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/data/tmp</value>
</property>

</configuration>
2、修改hdfs-site.xml

<configuration>

    <property>
       <name>dfs.replication</name>
       <value>1</value>
    </property>
 <property>
       <name>dfs.datanode.data.dir</name>
       <value>/opt/data</value>
    </property>
 <property>
       <name>dfs.permissions</name>
       <value>false</value>
    </property>

</configuration>

 

然后重启hadoop,运行java代码,到服务器上查看文件

[hadoop@localhost hadoop]$ hdfs dfs -ls /demo1
Found 1 items
-rw-r--r--   3 hadoop supergroup         12 2019-01-29 03:27 /demo1/a.txt
 

文件上传成功

Matlab基于粒子群优化算法及鲁棒MPPT控制器提高光伏并网的效率内容概要:本文围绕Matlab在电力系统优化与控制领域的应用展开,重点介绍了基于粒子群优化算法(PSO)和鲁棒MPPT控制器提升光伏并网效率的技术方案。通过Matlab代码实现,结合智能优化算法与先进控制策略,对光伏发电系统的最大功率点跟踪进行优化,有效提高了系统在不同光照条件下的能量转换效率和并网稳定性。同时,文档还涵盖了多种电力系统应用场景,如微电网调度、储能配置、鲁棒控制等,展示了Matlab在科研复现与工程仿真中的强大能力。; 适合人群:具备一定电力系统基础知识和Matlab编程能力的高校研究生、科研人员及从事新能源系统开发的工程师;尤其适合关注光伏并网技术、智能优化算法应用与MPPT控制策略研究的专业人士。; 使用场景及目标:①利用粒子群算法优化光伏系统MPPT控制器参数,提升动态响应速度与稳态精度;②研究鲁棒控制策略在光伏并网系统中的抗干扰能力;③复现已发表的高水平论文(如EI、SCI)中的仿真案例,支撑科研项目与学术写作。; 阅读建议:建议结合文中提供的Matlab代码与Simulink模型进行实践操作,重点关注算法实现细节与系统参数设置,同时参考链接中的完整资源下载以获取更多复现实例,加深对优化算法与控制系统设计的理解。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值