
基础
liuchangxus
这个作者很懒,什么都没留下…
展开
-
flume-kafka-flink的处理信息
flink接收kafka的数据信息可连接flume及端口原创 2020-12-22 08:43:05 · 295 阅读 · 0 评论 -
flink的时间窗口和计数窗口
val env = StreamExecutionEnvironment.getExecutionEnvironmentenv.setParallelism(1)val inputdata: DataStream[String] = env.socketTextStream("hadoop102", 6666)//时间窗口 滚动窗口 10秒执行一次每次执行10以内的数据 数据执行不重叠inputdata.map(p=>{ val s = p.split(",") (原创 2020-12-22 08:23:29 · 1192 阅读 · 0 评论 -
ES(elasticsearch)搜索引擎 - 配置整合
<dependency> <groupId>org.elasticsearch</groupId> <artifactId>elasticsearch</artifactId> <version>5.6.8</version> </dependency> <dependency> <groupId>org.elasticsearch.client&...原创 2020-10-17 10:34:14 · 414 阅读 · 0 评论 -
redis与kafka基础
初识Redis一. 为什么在多线程并发情况下,以Redis实现的“自增ID工具”能保证ID按顺序自增长且不重复:此处的自增ID工具用的是redis的增加score方法 , 每调用一次 , redis的key ‘id’ 就自增1 , 返回值为增加后的数值 , 故获取id的动作不会有重复值./** * “自增ID工具” * @description: * @author: Jeff * @date: 2020年9月21日 * @return */public Long getId(){原创 2020-09-28 00:01:38 · 211 阅读 · 0 评论