
Flink
Think-More
这个作者很懒,什么都没留下…
展开
-
Flink(十)Flink的重启策略
Flink的重启策略Flink支持不同的重启策略,这些重启策略控制着job失败后如何重启。集群可以通过默认的重启策略来重启,这个默认的重启策略通常在未指定重启策略的情况下使用,而如果Job提交的时候指定了重启策略,这个重启策略就会覆盖掉集群的默认重启策略。一、概览默认的重启策略是通过Flink的flink-conf.yaml来指定的,这个配置参数restart-strategy定义了哪...转载 2019-05-07 15:15:53 · 2111 阅读 · 0 评论 -
Flink(九)Flink自定义Sink注入Spring容器
一、配置Flink相关属性public class FlinkKafkaStreaming { /** * 加载Kafka配置 */ @Autowired private KafkaProperties kafkaProperties; public void main(String[] args) throws Exception { // 流处理 ...原创 2019-05-07 15:15:40 · 6696 阅读 · 9 评论 -
Flink(八)Flink的Parallelism并行度
一、Flink的Parallel Execution实例1.Operator Levelfinal StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();DataStream<String> text = [...]DataStream&...转载 2019-04-18 13:20:54 · 12733 阅读 · 2 评论 -
Flink(七)Flink的Window和Time
一、Flink 自带的 windowFlink DataStream API 提供了 Time 和 Count 的 window,同时增加了基于 Session 的 window。同时,由于某些特殊的需要,DataStream API 也提供了定制化的 window 操作,供用户自定义 window。下面,主要介绍 Time-Based window 以及 Count-Based wind...翻译 2019-04-18 13:20:46 · 852 阅读 · 0 评论 -
Flink(六)Flink自定义Data Sink
前言这篇文章将写一个 demo 教大家将从 Kafka Source 的数据 Sink 到 MySQL 中去。准备工作我们先来看下 Flink 从 Kafka topic 中获取数据的 demo,首先你需要安装好了 Flink 和 Kafka 。运行启动 Flink、Zookepeer、Kafka好了,都启动了!数据库建表DROP TABLE IF EXIST...转载 2019-04-18 13:20:39 · 2105 阅读 · 0 评论 -
Flink(五)Flink的Data Sinks
前言如下图,Source 就是数据的来源,中间的 Compute 其实就是 Flink 干的事情,可以做一系列的操作,操作完后就把计算后的数据结果 Sink 到某个地方。(可以是 MySQL、ElasticSearch、Kafka、Cassandra 等)。这里我说下自己目前做告警这块就是把 Compute 计算后的结果 Sink 直接告警出来了(发送告警消息到钉钉群、邮件、短信等),这个 s...转载 2019-04-18 13:20:30 · 609 阅读 · 0 评论 -
Flink(四)Flink的Transformation
一、前言Flink 程序的结构Flink 应用程序结构就是如上图所示:1、Source: 数据源,Flink 在流处理和批处理上的 source 大概有 4 类:基于本地集合的 source、基于文件的 source、基于网络套接字的 source、自定义的 source。自定义的 source 常见的有 Apache kafka、Amazon Kinesis Streams、Ra...转载 2019-04-18 09:51:44 · 689 阅读 · 0 评论 -
Flink(三)Flink自定义Data Source
一、Flink Kafka source:Flink默认实现的自定义Data Source准备工作我们先来看下 Flink 从 Kafka topic 中获取数据的 demo,首先你需要安装好了 Flink 和 Kafka 。运行启动 Flink、Zookepeer、Kafka好了,都启动了!maven 依赖<!--flink java-->...转载 2019-04-18 09:51:31 · 928 阅读 · 0 评论 -
Flink(二)Flink的Data Sources
一、前言Data Sources 是什么呢?就字面意思其实就可以知道:数据来源。Flink 做为一款流式计算框架,它可用来做批处理,即处理静态的数据集、历史的数据集;也可以用来做流处理,即实时的处理些实时数据流,实时的产生数据流结果,只要数据源源不断的过来,Flink 就能够一直计算下去,这个 Data Sources 就是数据的来源地。Flink 中你可以使用StreamExecu...转载 2019-04-18 09:51:22 · 396 阅读 · 0 评论 -
Flink(一)Flink的简介
一.Flink的引入 这几年大数据的飞速发展,出现了很多热门的开源社区,其中著名的有Hadoop、Storm,以及后来的Spark,他们都有着各自专注的应用场景。Spark掀开了内存计算的先河,也以内存为赌注,赢得了内存计算的飞速发展。Spark的火热或多或少的掩盖了其他分布式计算的系统身影。就像Flink,也就在这个时候默默的发展着。在国外一些社区,有很多人将大...转载 2019-04-18 09:51:11 · 858 阅读 · 0 评论 -
Flink(十一)Flink连接Kafka输出到HDFS
一、配置项目的依赖其中flink-connector-filesystem_2.11是将Hadoop作为Flink的BucketingSink接入,hadoop-hdfs、hadoop-common、hadoop-client解决Jar包依赖的问题,2.7.3为hadoop的版本号。 <dependency> <groupI...原创 2019-05-29 16:02:04 · 4869 阅读 · 1 评论