Java 操作HDFS


    <dependencies>
        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-client</artifactId>
            <version>2.7.3</version>
        </dependency>
        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-common</artifactId>
            <version>2.7.3</version>
        </dependency>
        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-hdfs</artifactId>
            <version>2.7.3</version>
        </dependency>
        <dependency>
            <groupId>org.apache.hbase</groupId>
            <artifactId>hbase-client</artifactId>
            <version>0.96.1-hadoop2</version>
        </dependency>
    </dependencies>

Java:

public class HDFSUtil {

    /**
     * HDFS文件系统服务器的地址以及端口
     */
    public static final String HDFS_PATH = "hdfs://10.50.40.116:8020";
    /**
     * HDFS文件系统的操作对象
     */
    static FileSystem fileSystem = null;
    /**
     * 配置对象
     */
    static Configuration configuration = null;

    public static void main(String[] args) throws Exception {
        HDFSUtil.connection();
        HDFSUtil.fileList();
    }

    /**
     * 连接HDFS
     *
     * @throws Exception
     */
    public static void connection() throws Exception {
        configuration = new Configuration();
        // 第一参数是服务器的URI,第二个参数是配置对象,第三个参数是文件系统的用户名
        fileSystem = FileSystem.get(new URI(HDFS_PATH), configuration, "hadoop");
        System.out.println("hadoop已连接");
    }

    /**
     * 关闭连接
     *
     * @throws Exception
     */
    public static void shutDown() throws Exception {
        configuration = null;
        fileSystem = null;
    }

    /**
     * 创建文件
     *
     * @throws Exception
     */
    public static void createFile() throws Exception {
        // 创建文件
        FSDataOutputStream outputStream = fileSystem.create(new Path("/demo1/a.txt"));
        // 写入一些内容到文件中
        outputStream.write("hello hadoop".getBytes());
        outputStream.flush();
        outputStream.close();
    }

    /**
     * 查看文件内容
     *
     * @throws Exception
     */
    public static void readFile() throws Exception {
        // 读取文件
        FSDataInputStream in = fileSystem.open(new Path("/demo1/a.txt"));
        // 将文件内容输出到控制台上,第三个参数表示输出多少字节的内容
        IOUtils.copyBytes(in, System.out, 1024);
        in.close();
    }

    /**
     * 重命名
     *
     * @throws IOException
     */
    public static void reName() throws IOException {
        Path oldPath = new Path("/demo1/a.txt");
        Path newPath = new Path("/demo1/b.txt");
        // 第一个参数是原文件的名称,第二个则是新的名称
        fileSystem.rename(oldPath, newPath);
    }

    /**
     * 删除文件
     *
     * @throws Exception
     */
    public static void delete() throws Exception {
        // 删除文件,后面一个参数true代表如果这个目录是个文件夹,则删除文件夹和下面所有的文件,false代表只删除这个文件
        fileSystem.delete(new Path("/demo1/mysql-5.7.24-winx64.zip"), false);
    }

    /**
     * 上传一个本地文件到HDFS
     *
     * @throws IOException
     */
    public static void copyFileToHDFS() throws IOException {
        Path localPath = new Path("C:\\Users\\vcolco\\Desktop\\h.txt");
        Path hdfsPath = new Path("/demo1/");
        // 第一个参数是本地文件的路径,第二个则是HDFS的路径
        fileSystem.copyFromLocalFile(localPath, hdfsPath);
    }

    /**
     * 上传本地大文件,显示进度条
     *
     * @throws IOException
     */
    public static void copyFileWithProgressBar() throws IOException {
        InputStream in = new BufferedInputStream(new FileInputStream(new File("D:\\Setup\\mysql-5.7.24-winx64.zip")));
        FSDataOutputStream outputStream = fileSystem.create(new Path("/demo1/mysql-5.7.24-winx64.zip"), new Progressable() {
            public void progress() {
                // 进度条的输出
                System.out.print(".");
            }
        });
        IOUtils.copyBytes(in, outputStream, 4096);
        in.close();
        outputStream.close();
    }

    /**
     * 下载HDFS文件到本地,下载之后生成了一个crc的文件
     *
     * @throws IOException
     */
    public static void downloadFile() throws IOException {
        Path localPath = new Path("E:/b.txt");
        Path hdfsPath = new Path("/demo1/h.txt");
        fileSystem.copyToLocalFile(hdfsPath, localPath);
    }

    /**
     * windows环境推荐用这种方式下载
     *
     * @throws Exception
     */
    public static void downloadFile2() throws Exception {
        FSDataInputStream in = fileSystem.open(new Path("/demo1/h.txt"));
        OutputStream outputStream = new FileOutputStream(new File("E:/b.txt"));
        IOUtils.copyBytes(in, outputStream, 1024);
        in.close();
        outputStream.close();
    }

    /**
     * 获取文件列表
     *
     * @throws IOException
     */
    public static void fileList() throws IOException {
        FileStatus[] fileStatuses = fileSystem.listStatus(new Path("/demo1/"));
        for (FileStatus fileStatus : fileStatuses) {
            System.out.println("这是一个:" + (fileStatus.isDirectory() ? "文件夹" : "文件"));
            System.out.println("副本系数:" + fileStatus.getReplication());
            System.out.println("大小:" + fileStatus.getLen() + "字节");
            System.out.println("路径:" + fileStatus.getPath());
        }
    }
}

直接运行报错连接被拒绝:

java.net.ConnectException: Call From ** to *** failed on connection exception: java.net.ConnectException: Connection refused: no further information; For more details see:  http://wiki.apache.org/hadoop/ConnectionRefused

解决办法:

1、修改core-site.xml

<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://10.50.40.116:8020</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/data/tmp</value>
</property>

</configuration>
2、修改hdfs-site.xml

<configuration>

    <property>
       <name>dfs.replication</name>
       <value>1</value>
    </property>
 <property>
       <name>dfs.datanode.data.dir</name>
       <value>/opt/data</value>
    </property>
 <property>
       <name>dfs.permissions</name>
       <value>false</value>
    </property>

</configuration>

 

然后重启hadoop,运行java代码,到服务器上查看文件

[hadoop@localhost hadoop]$ hdfs dfs -ls /demo1
Found 1 items
-rw-r--r--   3 hadoop supergroup         12 2019-01-29 03:27 /demo1/a.txt
 

文件上传成功

内容概要:本文是一份针对2025年中国企业品牌传播环境撰写的《全网媒体发稿白皮书》,聚焦企业媒体发稿的策略制定、渠道选择与效果评估难题。通过分析当前企业面临的资源分散、内容同质、效果难量化等核心痛点,系统性地介绍了新闻媒体、央媒、地方官媒和自媒体四大渠道的特点与适用场景,并深度融合“传声港”AI驱动的新媒体平台能力,提出“策略+工具+落地”的一体化解决方案。白皮书详细阐述了传声港在资源整合、AI智能匹配、舆情监测、合规审核及全链路效果追踪方面的技术优势,构建了涵盖曝光、互动、转化与品牌影响力的多维评估体系,并通过快消、科技、零售等行业的实战案例验证其有效性。最后,提出了按企业发展阶段和营销节点定制的媒体组合策略,强调本土化传播与政府关系协同的重要性,助力企业实现品牌声量与实际转化的双重增长。; 适合人群:企业市场部负责人、品牌方管理者、公关传播从业者及从事数字营销的相关人员,尤其适用于初创期至成熟期不同发展阶段的企业决策者。; 使用场景及目标:①帮助企业科学制定媒体发稿策略,优化预算分配;②解决渠道对接繁琐、投放不精准、效果不可衡量等问题;③指导企业在重大营销节点(如春节、双11)开展高效传播;④提升品牌权威性、区域渗透力与危机应对能力; 阅读建议:建议结合自身企业所处阶段和发展目标,参考文中提供的“传声港服务组合”与“预算分配建议”进行策略匹配,同时重视AI工具在投放、监测与优化中的实际应用,定期复盘数据以实现持续迭代。
先展示下效果 https://pan.quark.cn/s/987bb7a43dd9 VeighNa - By Traders, For Traders, AI-Powered. Want to read this in english ? Go here VeighNa是一套基于Python的开源量化交易系统开发框架,在开源社区持续不断的贡献下一步步成长为多功能量化交易平台,自发布以来已经积累了众多来自金融机构或相关领域的用户,包括私募基金、证券公司、期货公司等。 在使用VeighNa进行二次开发(策略、模块等)的过程中有任何疑问,请查看VeighNa项目文档,如果无法解决请前往官方社区论坛的【提问求助】板块寻求帮助,也欢迎在【经验分享】板块分享你的使用心得! 想要获取更多关于VeighNa的资讯信息? 请扫描下方二维码添加小助手加入【VeighNa社区交流微信群】: AI-Powered VeighNa发布十周年之际正式推出4.0版本,重磅新增面向AI量化策略的vnpy.alpha模块,为专业量化交易员提供一站式多因子机器学习(ML)策略开发、投研和实盘交易解决方案: :bar_chart: dataset:因子特征工程 * 专为ML算法训练优化设计,支持高效批量特征计算与处理 * 内置丰富的因子特征表达式计算引擎,实现快速一键生成训练数据 * Alpha 158:源于微软Qlib项目的股票市场特征集合,涵盖K线形态、价格趋势、时序波动等多维度量化因子 :bulb: model:预测模型训练 * 提供标准化的ML模型开发模板,大幅简化模型构建与训练流程 * 统一API接口设计,支持无缝切换不同算法进行性能对比测试 * 集成多种主流机器学习算法: * Lass...
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值