1 Flink Table与Kafka集成案例
1.1 需求
需求:Flink Table从kafka消费点击日志(JSON),转化为CSV格式之后输出到Kafka。
1.2 添加Maven依赖
FlinkTable集成Kafka需引入如下依赖:
<dependency>
<groupId>org.apache.flink</groupId>
<artifactId>flink-connector-kafka_${scala.binary.version}</artifactId>
<version>${flink.version}</version>
</dependency>
1.3 代码实现
Flink Table API实现Kafka生产者与消费者的完整代码如下所示。
package com.bigdata.chap02;
import org.apache.flink.table.api.*;
import static org.apache.flink.table.api.Expressions.$;
public class FlinkTableAPIKafka2Kafka {
public static final String input_topic = "clicklog_input";
public static final String out_topic = "clicklog_output";
public static void main(String[] args) {
//1、创建TableEnvironment
EnvironmentSettings settings = EnvironmentSettings
.newInstance()
.build();
Tabl

最低0.47元/天 解锁文章
842

被折叠的 条评论
为什么被折叠?



