
flink
zhoucs86
这个作者很懒,什么都没留下…
展开
-
运行flink on yarn遇到的一些问题
1,根据hadoop的版本在flink的页面上下载对应于hadoop版本和scala版本的flink的包2,使用start-yarn.sh在集群上运行yarn,启动后可以在8088上面找到yarn的web界面需要注意的是,需要将resourcemanager的地址指向master的地址<property> <name>yarn.nodemanager....原创 2019-04-08 10:35:38 · 2281 阅读 · 1 评论 -
sqoop 的一些命令和一个坑
qoop-import --as-avrodatafile --table film --target-dir /input --connect jdbc:mysql://192.168.13.128/sakila?tinyInt1isBit=false --username root --password 123sqoop import -Dmapreduce.job.user.cl...原创 2019-06-05 18:55:16 · 687 阅读 · 0 评论 -
flink 于 kafka互操作
final StreamExecutionEnvironment env = StreamExecutionEnvironment .getExecutionEnvironment(); JSONKeyValueDeserializationSchema schema = new JSONKeyValueDeserializationSchema...原创 2019-06-06 18:17:31 · 630 阅读 · 0 评论 -
转发 flink的 memorysegment
如今,大数据领域的开源框架(Hadoop,Spark,Storm)都使用的 JVM,当然也包括 Flink。基于 JVM 的数据分析引擎都需要面对将大量数据存到内存中,这就不得不面对 JVM 存在的几个问题:Java 对象存储密度低。一个只包含 boolean 属性的对象占用了16个字节内存:对象头占了8个,boolean 属性占了1个,对齐填充占了7个。而实际上只需要一个bit(1/8字节)...转载 2019-06-06 20:17:35 · 1160 阅读 · 1 评论 -
flink 基本
flink run /opt/flink-1.7.2/examples/batch/WordCount.jar -input hdfs://192.168.13.128:9000/input/myfile.txt -output hdfs://192.168.13.128:9000/output/result.txtflink run ./SocketWindowWordCount.jar -...原创 2019-06-02 17:10:51 · 224 阅读 · 0 评论 -
flink 相关
计算flink的时候可以有一个旁流的概念使用底层的process算子,就可以获取到一个ctx 的,可以在map的时候往里写东西在 main stream上面可以通过 getSideOutput 来获取到这个流,对他进行流的处理===============================tumbling timeWindowtimeWindow(Time.minut...原创 2019-06-19 14:32:44 · 145 阅读 · 0 评论 -
flink runtime network related
* An input gate consumes one or more partitions of a single produced intermediate result.** <p>Each intermediate result is partitioned over its producing parallel subtasks; each of these*...原创 2019-06-09 20:14:25 · 157 阅读 · 0 评论 -
ByteBuf 详解
@author 鲁伟林记录《Netty 实战》中各章节学习过程,写下一些自己的思考和总结,帮助使用Netty框架的开发技术人员们,能够有所得,避免踩坑。本博客目录结构将严格按照书本《Netty 实战》,省略与Netty无关的内容,可能出现跳小章节。本博客中涉及的完整代码:GitHub地址: https://github.com/thinkingfioa/netty-learning/tre...转载 2019-06-25 00:16:05 · 3126 阅读 · 0 评论 -
flink 源码第二轮
BasicTypeInfo: 任意Java 基本类型(装箱的)或 String 类型。BasicArrayTypeInfo: 任意Java基本类型数组(装箱的)或 String 数组。WritableTypeInfo: 任意 Hadoop Writable 接口的实现类。TupleTypeInfo: 任意的 Flink Tuple 类型(支持Tuple1 to Tuple25)。Flink ...原创 2019-06-28 18:18:13 · 366 阅读 · 0 评论