用java写数据存入HDFS中,采用追加模式

本文介绍如何使用Java代码将数据追加写入Hadoop的HDFS文件系统,主要涉及Hadoop相关API的使用,适用于大数据处理场景。

代码如下:::::

package com.postpony.bulkprint.BigData;

import com.cloudera.org.codehaus.jackson.map.ObjectMapper;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataOutputStream;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import java.io.IOException;

public class Input_HDFS {
    private static Configuration conf = new Configuration();
    static {
        conf.setBoolean("dfs.support.append", true);
        conf.set("fs.defaultFS","hdfs://node01:8020");
        conf.set("dfs.client.block.write.replace-datanode-on-failure.policy", "NEVER");
        conf.set("fe.hdfs.impl","org.apache.hadoop.hdfs.DistributedFileSystem");
        conf.setBoolean("dfs.client.block.write.replace-datanode-on-failure.enable", true);
    }
    public static void main(String[] args) {
        String a = "西安人的城墙下是西安人的火车";
        //JSONObject jo = JSONObject.parseObject(new String("123"));
        try {
            write2hdfs(a,"/test02/test005");
        } catch (IOException e) {
            e.printStackTrace();
        }
    }
    /**
     * json 存储
     *
     * @param
     * @param
     * @throws IOException
     */
    public static void write2hdfs(Object listContent, String filePath) throws IOException {
        ObjectMapper objectMapper = new ObjectMapper();
        FileSystem fs = null;
        Path path = new Path(filePath);
        FSDataOutputStream output = null;
        fs = path.getFileSystem(conf);
//如果此文件不存在则创建新文件
        if (!fs.exists(path)) {
            fs.createNewFile(path);
        }
        output = fs.append(new Path(filePath));
        //System.out.println(listContent.toString());
        output.write(objectMapper.writeValueAsString(listContent).getBytes("UTF-8"));
        output.write("\n".getBytes("UTF-8"));//换行
        fs.close();
        output.close();

    }
}

pom文件:

<repositories>
   <repository>
      <id>aliyun</id>
      <url>http://maven.aliyun.com/nexus/content/groups/public/</url>
   </repository>
   <repository>
      <id>cloudera</id>
      <url>https://repository.cloudera.com/artifactory/cloudera-repos/</url>
   </repository>
   <repository>
      <id>jboss</id>
      <url>http://repository.jboss.com/nexus/content/groups/public</url>
   </repository>
</repositories>
<properties>
   <hadoop.version>2.6.0-cdh5.14.0</hadoop.version>
</properties>
<dependency>
   <groupId> org.apache.cassandra</groupId>
   <artifactId>cassandra-all</artifactId>
   <version>0.8.1</version>

   <exclusions>
      <exclusion>
         <groupId>org.slf4j</groupId>
         <artifactId>slf4j-log4j12</artifactId>
      </exclusion>
      <exclusion>
         <groupId>log4j</groupId>
         <artifactId>log4j</artifactId>
      </exclusion>
   </exclusions>

</dependency>
<dependency>
   <groupId>org.apache.hadoop</groupId>
   <artifactId>hadoop-client</artifactId>
   <version>${hadoop.version}</version>
</dependency>

<dependency>
   <groupId>postpony</groupId>
   <artifactId>postpony-micro-service-starter</artifactId>
</dependency>
<think>嗯,用户想知道在Python中使用Spark将数据存入HDFS的方法。首先,我需要回忆一下Spark的基本操作和HDFS的集成步骤。记得Spark可以通过PySpark库在Python中使用,而HDFSHadoop的分布式文件系统,所以可能需要先配置Hadoop的环境。 首先,用户可能需要确保他们的环境已经正确安装了Spark和Hadoop,并且HDFS服务正在运行。这包括检查Hadoop的配置文件,比如core-site.xml和hdfs-site.xml,确保Spark能够访问HDFS的地址和端口。如果用户的环境没有正确配置,可能会遇到连接问题。 接下来,用户需要创建一个SparkSession,这是Spark 2.0之后的入口点。创建SparkSession时可能需要指定master URL,比如"local[*]"表示本地模式,或者连接到集群的地址。然后,用户需要生成或加载数据到DataFrame中,这可能涉及到读取CSV、JSON等文件,或者从其他数据源转换而来。 将数据HDFS时,通常使用DataFrame的write方法,指定格式(如CSV、Parquet)和保存路径。HDFS的路径通常是hdfs://<namenode-host>:<port>/path,例如hdfs://localhost:9000/data/output。需要注意的是,用户需要具有HDFS目标目录的权限,否则可能会抛出权限异常。 可能的异常情况包括HDFS服务未启动、路径不存在、权限不足或者资源不足。这时候应该提示用户检查HDFS的状态,使用hdfs dfs命令预先创建目录,或者修改目录权限。此外,如果用户是在本地测试,可能需要确认Hadoop的配置是否正确,特别是如果他们在Windows上运行,可能会遇到路径或依赖库的问题,比如需要winutils工具。 另外,用户可能希望了解不同的存储格式选项,比如Parquet和CSV的区别,以及如何设置分区、压缩等参数。例如,使用partitionBy进行分区存储,或者设置mode为overwrite来覆盖已有数据。这些都是在实际应用中常见的需求,应该涵盖在回答中。 最后,需要给出一个完整的示例代码,从创建SparkSession到HDFS,并附上注意事项,帮助用户避免常见错误。可能还需要提醒用户根据实际环境修改HDFS的地址和端口,以及处理可能的依赖冲突。</think>在 Python 中使用 Apache Spark 将数据存入 HDFS 的步骤如下: --- ### **1. 环境准备** - **安装 Hadoop**:确保 HDFS 集群已启动(`hdfs://<namenode>:<port>` 可访问) - **安装 PySpark**:通过 `pip install pyspark` 安装 Spark Python API - **配置 Hadoop 路径**(可选):如果本地测试,需设置 `HADOOP_HOME` 环境变量 --- ### **2. 核心代码示例** ```python from pyspark.sql import SparkSession # 创建 SparkSession(HDFS 配置自动继承 Hadoop 环境) spark = SparkSession.builder \ .appName("Write to HDFS") \ .master("local[*]") \ # 本地模式,生产环境替换为集群地址 .getOrCreate() # 生成示例数据(替换为你的实际数据源) data = [("Alice", 34), ("Bob", 45), ("Cathy", 29)] df = spark.createDataFrame(data, ["Name", "Age"]) # HDFS 的路径格式 hdfs_path = "hdfs://<namenode>:<port>/path/to/output" # 示例: hdfs://localhost:9000/data/output # 将数据HDFS(支持 Parquet/CSV/JSON 等格式) df.write \ .format("parquet") \ # 可选格式:csv, json, orc 等 .mode("overwrite") \ # 模式:append, overwrite, ignore .save(hdfs_path) # 关闭 SparkSession spark.stop() ``` --- ### **3. 关键参数说明** - **HDFS 地址格式**:`hdfs://<namenode-host>:<port>/path`(默认端口通常为 9820 或 9000) - **模式**: - `overwrite`:覆盖已有数据 - `append`:追加数据 - `ignore`:路径存在时跳过入 - **常用格式**: - **Parquet**(默认):列式存储,高效压缩 - **CSV**:文本格式,可读性好 - **JSON**:结构化存储 --- ### **4. 验证数据** 通过 Hadoop 命令检查 HDFS 文件: ```bash hdfs dfs -ls /path/to/output hdfs dfs -cat /path/to/output/part-*.parquet | head # 查看内容(Parquet 需工
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值