
flink
380884531
这个作者很懒,什么都没留下…
展开
-
Flink Transformation中map、filter、flatMap算子详细介绍
本文将对Flink Transformation中各算子进行详细介绍,并使用大量例子展示具体使用方法。Transformation各算子可以对Flink数据流进行处理和转化,是Flink流处理非常核心的API。如之前文章所述,多个Transformation算子共同组成一个数据流图。[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-UDnkbPZD-1576554022497)(/Users/luweizheng/Documents/iCloud/博文/大数据/Flin...原创 2020-11-11 14:06:08 · 899 阅读 · 0 评论 -
flink中的Watermark
Watermark实时计算可以基于时间属性对数据进行窗口聚合。基于Event Time时间属性的窗口函数作业中,数据源表的声明中需要使用Watermark方法。定义由于实时计算的输入数据是持续不断的,因此我们需要一个有效的进度指标,来帮助我们确定关闭时间窗口的正确时间点,保证关闭窗口后不会再有数据进入该窗口,可以安全输出这个窗口的聚合结果。而Watermark就是一种衡量Event Time进展的有效机制。随着时间的推移,最早流入实时计算的数据会被处理完成,之后流入的数据处于正在处理状态。处于正原创 2020-11-10 22:05:55 · 585 阅读 · 0 评论 -
第四章 Flink 运行架构
Flink 运行时的组件 Flink 运行时架构主要包括四个不同的组件,它们会在运行流处理应用程序时协同工作: 作业管理器(JobManager)、资源管理器(ResourceManager)、任务管理器(TaskManager),以及分发器(Dispatcher)。因为 Flink 是用 Java 和 Scala 实现的,所以所有组件都会运行在Java 虚拟机上。每个组件的职责如下: 作业管理器(JobManager) 控制一个应用程序执行的主进程, 也就是说, 每个应...原创 2020-11-06 13:41:44 · 136 阅读 · 0 评论 -
第三章 Flink 部署
Standalone 模式 安装 解压缩flink-1.10.1-bin-scala_2.12.tgz, 进入 conf 目录中。 修改 flink/conf/flink-conf.yaml 文件: 修改 /conf/slaves 文件: 分发给另外两台机子: 启动: 访问 http://...原创 2020-11-06 13:36:11 · 268 阅读 · 0 评论 -
第二章 flink安装启动,完成批处理、流处理任务
2.1 搭建 maven 工程 FlinkTutorial 2.1.1 pom 文件 <?xml version="1.0" encoding="UTF-8"?><project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://maven.a..原创 2020-11-06 11:51:41 · 282 阅读 · 0 评论 -
第一章 Flink 简介
第一章 Flink 简介 初识Flink Flink 起源于 Stratosphere 项目,Stratosphere 是在 2010~2014 年由 3 所地处柏林的大学和欧洲的一些其他的大学共同进行的研究项目, 2014 年 4 月 Stratosphere 的代码被复制并捐赠给了 Apache 软件基金会, 参加这个孵化项目的初始成员是Stratosphere 系统的核心开发人员, 2014 年 12 月, Flink 一跃成为 Apache 软件基金会的顶级项目。在德语中,Fl原创 2020-11-06 11:19:00 · 172 阅读 · 0 评论 -
大数据文章汇总-Hadoop、MapReduce、Storm、Spark、Flink
Hadoop生态,包括HDFS、MapReduce、YARN、HBase等等。大数据、Hadoop核心框架和MapReduce原理CentOS 7 单机安装最新版Hadoop v3.1.2以及配置和简单测试Hadoop v3.1.2 伪分布式安装(Pseudo-Distributed Operation)Hadoop生态系统-新手快速入门(含HDFS、HBase系统架构)HBase v2.1.4 最新版安装-单机模式(CentOS 7)HBase 常用的Shell命令(操作演示截图)原创 2020-11-06 10:47:27 · 345 阅读 · 1 评论 -
聊聊Hadoop、Storm、Spark Streaming、Flink在大数据领域的现状
Hadoop 生态组件竞争激烈,Spark 优势明显,MapReduce 已进入维护模式曾有开发人员表示,Hadoop 主要是被 MapReduce 拖累了,其实 HDFS 和 YARN 都还不错。堵俊平( 腾讯云专家研究员)则认为 MapReduce 拖累 Hadoop 的说法并不准确:首先 MapReduce 还是有应用场景,只是越来越窄,它仍然适合某些超大规模数据处理的批量任务,且任务运行非常稳定;其次,Hadoop 社区对于 MapReduce 的定位就是进入维护模式, 并不追求任何新的原创 2020-11-06 10:45:37 · 704 阅读 · 0 评论 -
Apache Flink-基于Java项目模板创建Flink应用(流计算和批计算)
Apache Flink创建模板项目有2种方式:1. 通过Maven archetype命令创建;2. 通过Flink 提供的Quickstart shell脚本创建;关于Apache Flink的环境搭建,请参考相关链接:Apache Flink快速入门-基本架构、核心概念和运行流程Apache Flink v1.8 本地单机环境安装和运行Flink应用1. 通过Maven archetype创建Flink项目#使用Maven创建mvn archetype:generat原创 2020-11-06 10:41:54 · 1999 阅读 · 0 评论 -
Apache Flink v1.8 本地单机环境安装和运行Flink应用
Flink 运行环境Flink 执行环境分为:本地单机环境和集群环境本地单机环境:主要是为了方便用户编写、调试代码使用。集群环境:用于正式环境,可以借助Hadoop YARN、Mesos、Kubernetes等不同的资源管理器部署自己的应用。搭建本地单机环境(CentOS 7)Flink可以在Linux、Mac OS X和Windows上运行,要求安装Java 8.x。java -versionFlink 官网查看最新版本:http://flink...原创 2020-11-06 10:37:55 · 806 阅读 · 0 评论 -
Apache Flink v1.9-SNAPSHOT 源码编译
Apache Flink v1.9-SNAPSHOT 源码编译下载源码Flink 源码可以从官方 github repository上下载。git clone https://github.com/apache/flink.git下载时间会比较长,慢慢等吧。编译源码Flink源码编译依赖于 JDK和Maven的环境,JDK 必须在1.8 版本之上,Maven必须在 3.0版本以上,否则编译会出错。进入flink目录:cd flink编译打包:..原创 2020-11-06 10:35:18 · 178 阅读 · 0 评论