- 博客(2)
- 资源 (1)
- 收藏
- 关注
原创 222222
首先,我们需要创建一个Java项目并添加Flink、Kafka、Avro和Elasticsearch的相关依赖。用于将数据写入Elasticsearch。在这个示例中,我们使用了一个自定义的。
2023-06-12 22:39:07
71
1
原创 【无标题】
需要注意的是,在使用 Avro 格式的 Kafka 数据时,我们需要确保 Avro Schema 在 Kafka 生产者和消费者之间是一致的。如果 Avro Schema 发生了变化,可能会导致生产者无法将数据序列化为正确的格式,或者消费者无法正确地反序列化数据。因此,我们需要使用一个 Avro Schema Registry 来管理 Avro Schema 的演化和版本控制。,它接受一个 Avro 对象作为参数,并将其转换为 Elasticsearch 索引请求。在上面的代码中,我们使用。
2023-06-12 22:26:04
61
1
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人