Java写入ClickHouse

文章介绍了如何在Java项目中添加ClickhouseJDBC依赖,创建实体类,并实现数据插入功能。通过BalancedClickhouseDataSource建立连接,预编译SQL语句,将对象数据批量插入到Clickhouse的person表中。

一、添加依赖

在pom.xml 增加clickhouse 客户端依赖

<dependency>
    <groupId>ru.yandex.clickhouse</groupId>
    <artifactId>clickhouse-jdbc</artifactId>
    <version>0.2.4</version>
</dependency>

二、sink实现

1、实体类

package bean;

public class Person {
    public int id;
    public String name;
    public int age;

    public Person(int id, String name, int age) {
        this.id = id;
        this.name = name;
        this.age = age;
    }
}

2、sink代码

import bean.Person;
import ru.yandex.clickhouse.BalancedClickhouseDataSource;
import ru.yandex.clickhouse.ClickHouseConnection;
import ru.yandex.clickhouse.settings.ClickHouseProperties;

import java.lang.reflect.Field;
import java.sql.PreparedStatement;
import java.sql.SQLException;

public class ClickHouseSink{

    private static final ClickHouseProperties properties = new ClickHouseProperties();
    private static BalancedClickhouseDataSource ds;
    private static ClickHouseConnection connection;
    private static PreparedStatement ps;
    //插入语句
    private static final String SQL = "insert into test.person(id,name,age) values(?,?,?)";

    /**
     * 初始化配置
     */
    private static void initialize() {
        try {
            properties.setUser("distributed-write");
            properties.setPassword("CloudMinds#");
            ds = new BalancedClickhouseDataSource("jdbc:clickhouse://172.16.32.96:9090/ceph_meta", properties);
            connection = ds.getConnection();
        } catch (Exception e) {
            e.printStackTrace();
        }
    }

    /**
     * 关闭连接
     */
    private static void close() {
        if (ps != null) {
            try {
                ps.close();
            } catch (SQLException e) {
                e.printStackTrace();
            }
        }
        if (connection != null) {
            try {
                connection.close();
            } catch (SQLException e) {
                e.printStackTrace();
            }
        }
    }

    public static void main(String[] args) {
        initialize();
        Person person = new Person(10,"王五",15);
        insertData(SQL,person);
    }

    /**
     * 插入数据到clickhouse
     */
    public static <T> void insertData(String sql,T line ) {
        try {
            ps = connection.prepareStatement(sql);
            Field[] fields = line.getClass().getDeclaredFields();
            for (int i = 0; i < fields.length; i++) {
                Field field = fields[i];
                try {
                    Object o = field.get(line);
                    ps.setObject(i + 1, o);
                } catch (IllegalAccessException e) {
                    e.printStackTrace();
                }
            }
            ps.addBatch();
            ps.executeBatch();
            ps.clearBatch();
            close();
            connection.close();
        } catch (SQLException e) {
            e.printStackTrace();
        }
    }
通过 Kafka 将数据写入 ClickHouse 主要有以下两种常见方法: ### 使用 Flink 实现 利用 Flink 作为数据处理的桥梁,从 Kafka 消费数据,然后将数据写入 ClickHouse。具体步骤如下: 1. **导入相关依赖**:在项目中添加 Flink 和 ClickHouse 相关的依赖。 2. **代码实现**: - 配置资源文件,如 `appconfig.yml`、`log4j.properties` 等。 - 编写工具类,如 `DBConn`、`CommonUtils`、`RemoteConfigUtil`、`ClickhouseUtil` 等。 - 实现 `FlatMapFunction` 对数据进行处理。 - 创建 `ClickHouseCatalog` 作为数据写入的目标。 - 编写主程序 `Kafka2chApp` 或 `Kafka2Ck - ODS` 完成从 Kafka 到 ClickHouse 的数据流转。 示例代码结构如下: ```java import org.apache.flink.streaming.api.datastream.DataStream; import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment; import org.apache.flink.streaming.connectors.kafka.FlinkKafkaConsumer; import java.util.Properties; public class Kafka2ClickHouse { public static void main(String[] args) throws Exception { StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment(); // 配置 Kafka 消费者 Properties properties = new Properties(); properties.setProperty("bootstrap.servers", "localhost:9092"); properties.setProperty("group.id", "test-group"); FlinkKafkaConsumer<String> consumer = new FlinkKafkaConsumer<>("test-topic", new SimpleStringSchema(), properties); DataStream<String> stream = env.addSource(consumer); // 这里可以添加对数据的处理逻辑,如调用 FlatMapFunction // 将数据写入 ClickHouse // 这里需要实现 ClickHouse写入逻辑 env.execute("Kafka to ClickHouse"); } } ``` ### 使用 ClickHouse Kafka 表引擎 ClickHouse 的 Kafka 表引擎可以直接消费 Kafka 中的数据并写入 ClickHouse。使用时主要在解析 `message` 部分,将 `message` 拆分成固定的结构,常用函数有 `splitByString`、`visitParamExtractRaw` 等。 示例建表语句如下: ```sql CREATE TABLE kafka_table ( -- 定义表的字段 column1 String, column2 Int32 ) ENGINE = Kafka() SETTINGS kafka_broker_list = 'localhost:9092', kafka_topic_list = 'test-topic', kafka_group_name = 'test-group', kafka_format = 'JSONEachRow'; -- 创建目标表 CREATE TABLE target_table ( column1 String, column2 Int32 ) ENGINE = MergeTree() ORDER BY column1; -- 将 Kafka 表中的数据插入到目标表 INSERT INTO target_table SELECT * FROM kafka_table; ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值