flink的几种source来源

这篇博客总结了Flink接入数据的各种来源,重点介绍了如何配置和使用Kafka作为数据输入源。强调了不同Kafka版本参数的区别,如新版本使用`bootstrap.servers`,而旧版本使用`zookeeper`节点。指出Flink与低版本Kafka配合可能出现TimeoutException问题,并推荐使用v2.8.1版本。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

 简单的总结了flink的几种source来源,可以参考下

package com.atguigu.apitest


import java.util.Properties

import org.apache.flink.api.common.serialization.SimpleStringSchema
import org.apache.flink.streaming.api.functions.source.SourceFunction
import org.apache.flink.streaming.api.scala._
import org.apache.flink.streaming.connectors.kafka.FlinkKafkaConsumer011

import scala.util.Random


/**
  * 功能:演示 flink的source来源
  *
  */

// 定义样例类,温度传感器
case class SensorReading(id:String, timestamp: Long,temmperature:Double )


object SourceTest {
  def main(args: Array[String]): Unit = {
    // 创建执行环境
    val env=StreamExecutionEnvironment.getExecutionEnvironment
    env.setParallelism(1)

   // 1 从集合中读取数据
    val dataList=List(
      SensorReading("sensor_1", 1547718199, 35.8),
      SensorReading("sensor_6", 1547718201, 15.4),
      SensorReading("sensor_7", 1547718202, 6.7),
      SensorReading("sensor_10", 1547718205, 
### Flink 扫描机制及使用场景 #### 什么是 Flink 的扫描机制? Flink 是一种分布式流处理框架,支持高吞吐量、低延迟和精确一次的状态管理。它的扫描机制主要用于读取外部数据源中的增量变化并将其转化为流式数据供下游计算使用。这种机制的核心在于 **CDC(Change Data Capture)** 和 **Lookup Join** 技术。 - **Flink CDC** 提供了从数据库捕获变更的能力,可以将数据库的 Binlog 转化为流式事件[^4]。 - **Lookup Join** 则允许实时关联动态更新的数据与静态维度表或其他流式数据[^1]。 #### Flink 扫描机制的技术特点 1. **增量扫描** 增量扫描是指只获取数据源中发生变化的部分而非全量重载。这种方式减少了资源消耗,并提高了系统的响应速度。例如,在 MySQL 数据库中,可以通过解析 Binlog 来实现增量同步[^4]。 2. **Watermark 控制乱序** Watermark 是用于控制事件时间语义下的乱序程度的一种机制。它定义了一个阈值,超过此阈值后未到达的数据会被认为丢失或忽略。因此,在实际应用中,watermark 配置直接影响到性能优化和延迟容忍度的选择[^2]。 3. **状态管理和 Checkpointing** 当前版本的 Flink 支持多种存储后端来保存中间状态信息以便于失败恢复时重新加载这些状态继续执行任务而无需重启整个流程。这使得即使面对大规模数据集也能够保持高效稳定运行[^3]。 #### 使用场景分析 以下是几个典型的应用案例展示了如何利用 flink 的强大功能解决业务需求: 1. **电商领域用户行为追踪** 实现方式:通过采集用户的每一次页面访问记录并与注册资料相结合形成完整的画像描述;借助 lookup join 功能快速匹配相应的会员等级优惠策略等附加属性字段完成个性化推荐服务构建过程[^1]。 2. **金融行业反欺诈检测** 方法论概述:基于历史交易流水建立模型预测潜在风险点所在位置并通过设定预警规则触发报警动作提醒相关人员采取措施加以防范规避损失发生可能性增加安全性保障水平提升整体风控效果明显优于传统批量作业形式[^3]。 3. **物联网设备监控平台搭建** 设计思路说明文档链接地址如下所示: ```plaintext https://example.com/design-docs/iot-monitor-platform-flink.pdf ``` 主要依靠传感器上传来的原始数值经过一系列清洗转换操作之后存入目标仓库作为后续报表展示的基础素材来源之一同时也可以用来驱动其他自动化控制系统运作达到降本增效的目的[^2]。 ```python from pyflink.dataset import ExecutionEnvironment from pyflink.table import StreamTableEnvironment, DataTypes from pyflink.table.descriptors import Schema, OldCsv, FileSystem env = ExecutionEnvironment.get_execution_environment() t_env = StreamTableEnvironment.create(env) # 注册输入输出路径 t_env.connect(FileSystem().path('/input')) .with_format(OldCsv() .field('word', DataTypes.STRING())) .with_schema(Schema() .field('word', DataTypes.STRING())) .register_table_source('mySource') t_env.connect(FileSystem().path('/output')) .with_format(OldCsv() .field_delimiter('\t') .field('word', DataTypes.STRING()) .field('count', DataTypes.BIGINT())) .with_schema(Schema() .field('word', DataTypes.STRING()) .field('count', DataTypes.BIGINT())) .register_table_sink('mySink') table = t_env.from_path('mySource').group_by('word').select('word, count(1)') table.insert_into('mySink') t_env.execute("scan_example") ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值