Spark使用Java读Hive写入HBase

该博客介绍了如何使用Spark的Java API读取Hive表的数据,并将这些数据写入到HBase中。通过创建`Put`对象,设置列族和列,然后使用HBaseWriter方法批量写入HBase。示例代码展示了如何处理行数据,包括处理空值情况。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Spark使用Java读Hive写入HBase

Spark读取Hive数据得方法在下面之前得一篇博客中有提及,在此就不重复提了,如果感兴趣得可以查阅如下连接中得博客

Spark使用Java读Hive得博客: https://blog.youkuaiyun.com/Aaron_ch/article/details/113151157

 

 

rowDataset.foreachPartition((ForeachPartitionFunction<Row>) t -> {
            String columnFamily="test";
            int i = 0;
            List<Put> putList = new ArrayList<>();
            Put put = null;  //rowkey
            Row row;
            while (t.hasNext()) {
                row = t.next();
                if (put == null) {
                    put = new Put(row.getString(0).getBytes());
                }
                put.addColumn(Bytes.toBytes(columnFamily), Bytes.toBytes("colName1"), Bytes.toBytes(row.getString(0)));
                put.addColumn(Bytes.toBytes(columnFamily), Bytes.toBytes("colName2"), Bytes.toBytes(row.getString(1)));
                
                if (row.getString(2) == null) {
                    put.addColumn(Bytes.toBytes(columnFamily), Bytes.toBytes("colName3"), null);
                } else {
                    put.addColumn(Bytes.toBytes(columnFamily), Bytes.toBytes("colName3"), Bytes.toBytes(row.getString(2)));
                }               
                putList.add(put);
                hBaseWriter(putList, zk);
                put = null;
                putList.clear();             
            }
        });

如下是写入得方法:

private static void hBaseWriter(List<Put> putList, String zk) {

        for (int y = 0; y < putList.size(); y++) {
            System.out.println(putList.get(y).toString());
        }

        System.out.println("start to write into hbase~");
        String tableName = "xxx:tableName";
        Configuration conf = HBaseConfiguration.create();
        conf.set("hbase.zookeeper.quorum", zk);
        conf.set("hbase.zookeeper.property.clientPort", "2181");
        Connection connection = null;
        Table table = null;
        try {
            connection = ConnectionFactory.createConnection(conf);
            table = connection.getTable(TableName.valueOf(tableName));

            if (putList.size() > 0) {
                table.put(putList);
                System.out.println("writer into hbase success!!!");
            }
        } catch (IOException e) {
            e.printStackTrace();
        } finally {
            if (table != null) {
                try {
                    table.close();
                } catch (IOException e) {
                    e.printStackTrace();
                }
            }
            if (connection != null) {
                try {
                    connection.close();
                } catch (IOException e) {
                    e.printStackTrace();
                }
            }
        }
    }

 

Spark SQL 或 Hive数据写入 HBase 可以通过两种方式实现使用 HBase API 或使用 HBase Connector。 1. 使用 HBase API:通过在 SparkHive 中编写 Java 代码,使用 HBase API 将数据写入 HBase。这种方法需要较多的编程工作,但可以使用 HBase 的高级功能。 2. 使用 HBase Connector:使用 SparkHiveHBase Connector,可以方便地将数据写入 HBase。这种方法不需要编写 Java 代码,但可能会受到 HBase Connector 的限制。 具体使用方法可以参考以下代码示例: 1. 使用 HBase API: ``` import org.apache.hadoop.hbase.client.{HBaseAdmin,HTable,Put} import org.apache.hadoop.hbase.{HBaseConfiguration,HTableDescriptor,HColumnDescriptor} import org.apache.hadoop.hbase.util.Bytes val conf = HBaseConfiguration.create() val admin = new HBaseAdmin(conf) // 创建表 val tableDescriptor = new HTableDescriptor(tableName) tableDescriptor.addFamily(new HColumnDescriptor(columnFamily)) admin.createTable(tableDescriptor) // 写入数据 val table = new HTable(conf, tableName) val put = new Put(Bytes.toBytes(rowKey)) put.add(Bytes.toBytes(columnFamily), Bytes.toBytes(column), Bytes.toBytes(value)) table.put(put) ``` 2. 使用 HBase Connector: ``` // 使用 Spark SQL 写入 HBase spark.sql("CREATE TABLE hbase_table USING org.apache.spark.sql.execution.datasources.hbase OPTIONS ('table' 'table_name', 'family' 'column_family', 'rowkey' 'row_key_column')") df.write.format("org.apache.spark.sql.execution.datasources.hbase").save() // 使用 Hive 写入 HBase INSERT INTO TABLE hbase_table SELECT * FROM hive_table; ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值