- 博客(5)
- 资源 (6)
- 收藏
- 关注
原创 Flink的StreamingFileSink自定义DateTimeBucket
用flink消费kafka内容,通过清洗、转换、过滤后,要sink到parquet文件,需要按照事件的event进行分区生产需要写入的文件夹,如event1的发生时间在2018-03-19,而event2的发生时间在2018-03-20,这就涉及到extract它的eventtime,并生产parquet文件的bucktId,具体代码如下:/* * Licensed to the A...
2019-03-20 11:14:46
4111
1
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人