准备工作:搭建Hadoop、kafka、zk集群等(略)。
脚本启动集群后,开启kafka主题消费:
bin/kafka-console-consumer.sh --bootstrap-server hadoop002:9092 --from-beginning --topic GoodmeODS_orderMaster

kafka_sink_kafka_ods代码如下:
import java.time.Duration
import org.apache.flink.streaming.api.{
CheckpointingMode, TimeCharacteristic}
import org.apache.flink.streaming.api.environment.{
ExecutionCheckpointingOptions, StreamExecutionEnvironment}
import org.apache.flink.table.api.{
EnvironmentSettings, SqlDialect}
import org.apache.flink.table.api.bridge.java.StreamTableEnvironment
import org.apache.flink.table.

本文介绍了如何在Flink中实现从Kafka消费数据,并将数据写入Hive的ODS层,涉及Hadoop、Kafka、Zookeeper集群的搭建以及Kafka消费脚本的编写和执行。
最低0.47元/天 解锁文章
882

被折叠的 条评论
为什么被折叠?



