FlinkSQL Kafka to Kafka

Apache Kafka SQL Connector


FlinkSql 读 Kafka

import org.apache.flink.streaming.api.scala._
import org.apache.flink.table.api.EnvironmentSettings
import org.apache.flink.table.api.bridge.scala.StreamTableEnvironment
import org.apache.flink.types.Row

/**
  * flink sql read kafka
  *
  * create by LiuJinHe 2020/8/12
  */
object FlinkSqlReadKafka {

  def main(args: Array[String]): Unit = {
    // 初始化 stream 环境
    // 本地测试,需要 flink-runtime-web 依赖
    val env = StreamExecutionEnvironment.createLocalEnvironmentWithWebUI()
    env.setParallelism(1)
    //    val env = StreamExecutionEnvironment.getExecutionEnvironment

    // 创建 streamTable 环境
    val settings: EnvironmentSettings = EnvironmentSettings
      .newInstance()
      .useBlinkPlanner()
      .inStreamingMode()
      .build()

    val tableEnv: StreamTableEnvironment = StreamTableEnvironment.create(env, settings)
    val kafkaSql =
      """
        |create temporary table kafkaTable (
        | user_name string,
        | user_id bigint,
        | item_id bigint
        |) with (
        | 'connector' = 'kafka',
        | 'topic' = 'flink_test',
        | 'properties.bootstrap.servers' = 'localhost:9092',
        | 'properties.group.id' = 'flink-test-group',
        | 'format' = 'json',
        | 'scan.startup.mode' = 'latest-offset'
        |)
      """.stripMargin

    tableEnv.executeSql(kafkaSql)

    val table = tableEnv.from("kafkaTable")
    //  val table = tableEnv.sqlQuery("select * from kafkaTable")

    val resultDStream = tableEnv.toAppendStream[Row](table)
    
    resultDStream.print()

    env.execute("flink sql read kafka")
  }
}

读写 Kafka

import org.apache.flink.api.common.restartstrategy.RestartStrategies
import org.apache.flink.streaming.api.{CheckpointingMode, TimeCharacteristic}
import org.apache.flink.streaming.api.environment.
在Flink中,使用SQL实现Kafka作为数据源(KafkaSource)和Kafka作为数据汇(KafkaSink)是非常常见且高效的操作。以下是如何使用Flink SQL实现KafkaSource和KafkaSink的步骤: ### 1. 配置Kafka连接器 首先,需要确保Flink集群中已经包含了Kafka连接器。可以通过以下命令启动Flink集群并加载Kafka连接器: ```shell ./bin/start-cluster.sh ./bin/sql-client.sh embedded -j path/to/flink-sql-connector-kafka.jar ``` ### 2. 创建Kafka源表 使用SQL语句创建一个Kafka源表。假设Kafka的主题名为`input_topic`,并且使用JSON格式的数据: ```sql CREATE TABLE kafka_source ( id INT, name STRING, age INT, proctime AS PROCTIME() ) WITH ( 'connector' = 'kafka', 'topic' = 'input_topic', 'properties.bootstrap.servers' = 'kafka_broker1:9092,kafka_broker2:9092', 'properties.group.id' = 'flink_group', 'format' = 'json', 'scan.startup.mode' = 'earliest-offset' ); ``` ### 3. 创建Kafka汇表 使用SQL语句创建一个Kafka汇表。假设Kafka的主题名为`output_topic`,并且使用JSON格式的数据: ```sql CREATE TABLE kafka_sink ( id INT, name STRING, age INT ) WITH ( 'connector' = 'kafka', 'topic' = 'output_topic', 'properties.bootstrap.servers' = 'kafka_broker1:9092,kafka_broker2:9092', 'format' = 'json' ); ``` ### 4. 编写并执行查询 编写一个简单的查询,将数据从`kafka_source`表读取并写入`kafka_sink`表: ```sql INSERT INTO kafka_sink SELECT id, name, age FROM kafka_source WHERE age > 30; ``` ### 5. 运行查询 执行上述查询语句,Flink将会启动一个流处理作业,将数据从Kafka源表读取并写入Kafka汇表。 ### 总结 通过以上步骤,你可以使用Flink SQL实现Kafka作为数据源和汇表的数据流处理。Flink SQL的简洁性和强大的流处理能力使得数据处理任务变得更加高效和易于维护。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

訾零

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值