
Flink高手之路
文章平均质量分 93
仅供参考
W_chuanqi
QQ:30951 98523
展开
-
Flink高手之路6-Flink四大基石
Spark最近在实现Continue streaming,Continue streaming的目的是为了降低处理的延时,其也需要提供这种一致性的语义,最终也采用了Chandy-Lamport这个算法,说明Chandy-Lamport算法在业界得到了一定的肯定。提供了一致性的语义之后,Flink为了让用户在编程时能够更轻松、更容易地去管理状态,还提供了一套非常简单明了的State API,包括ValueState、ListState、MapState,BroadcastState。原创 2023-04-20 23:19:20 · 1073 阅读 · 0 评论 -
Flink高手之路5-Table API & SQL
Flink的Table模块包括 Table API 和 SQL:Table API 是一种类SQL的API,通过Table API,用户可以像操作表一样操作数据,非常直观和方便SQL作为一种声明式语言,有着标准的语法和规范,用户可以不用关心底层实现即可进行数据的处理,非常易于上手Flink Table API 和 SQL 的实现上有80%左右的代码是公用的。作为一个流批统一的计算引擎,Flink 的 Runtime 层是统一的。原创 2023-04-20 23:16:18 · 1259 阅读 · 0 评论 -
Flink高手之路4-Flink流批一体
env.fromElements(可变参数)env.fromCollection(各种集合)env.generateSequence(开始,结束)env.fromSequence(开始,结束SourceFunction:非并行的随机数据源(并行度为1)RichSourceFunction:丰富的非并行的随机数据源(并行度为1)ParallelSourceFunction:并行的随机数据源(并行度可以大于等于1)原创 2023-04-20 21:12:28 · 1969 阅读 · 0 评论 -
Flink高手之路3-Flink的入门案例
查看官网案例:https://nightlies.apache.org/flink/flink-docs-release-1.16/docs/dev/dataset/overview/对于DataSet的数据结果如果使用print,就不需要execute执行。注意:这里建议先关闭 IDEA,然后重新打开。yarn的web ui查看。原创 2023-03-30 11:00:35 · 2783 阅读 · 0 评论 -
Flink高手之路2-Flink集群的搭建
准备好数据文件上传hdfs首先要确保 hdfs 集群已经启动发现我们以前已经上传过了提交命令这个错误需要把flink-1.16.1与hadoop3进行集成。查看 flink web ui查看 hdfs web UI点击一个文件查看重启集群删除hdfs上以前创建的output文件夹提交任务,使用之前上传的数据查看结果杀掉hadoop001的master进程,并再次提交任务再次删除hdfs上之前创建的output文件夹再次提交任务,可以正常运行并查看结果,说明高可用搭建成功。原创 2023-03-23 22:07:46 · 4632 阅读 · 2 评论 -
Flink高手之路1一Flink的简介
大数据的计算引擎,发展过程有四个阶段第一代:Hadoop的MapReduce,批处理,中间结果放在HDFS上也就是硬盘上,速度很慢,效率很低第二代:支持DAG(有向无环图),Tez和Oozie,批处理第三代:内存计算,Spark,支持批处理和流(实时)处理,比MR快100倍以上第四代:Flink,真正的流批一体,比Spark更快Apache Flink是由Apache软件基金会开发的开源流处理框架,其核心是用Java和Scala编写的分布式流数据流引擎。原创 2023-02-25 08:13:12 · 899 阅读 · 0 评论