
elasticsearch
文章平均质量分 51
流萤灯
这个作者很懒,什么都没留下…
展开
-
Elasticsearch及Kibana的时区问题解决方式(kibana中的数据晚8个小时)
问题描述使用ES保存日志数据,当天插入的数据在kibana中虽然可以通过开发工具的DSL查询到,但是却无法在日志展示中看到,要到第二天才可以看到。问题原因ES保存数据时,如果date类型的字段没有指定时区,它会认为其为UTC时间,也就是零时区时间。当检索时,kibana会根据浏览器时区对ES中保存的时间进行转化,以我们东八区为例,会自动将日期减去八小时,因此查询到当前的数据就无法检索到刚插入的数据,要到第二天才可以看。解决方式在保存时,直接使用UTC时间保存时间时指定时区,如2018-01-原创 2022-03-14 22:47:14 · 5426 阅读 · 0 评论 -
使用filbeat从kafka中消费json格式日志并发送到ElasticSearch
环境filbeat 7.10kafka 2.1elasticsearch 7.4.2windows 10需求描述Java程序生产Json格式的日志发送到kafka中,再由filebeat从kafka中消费日志,存储到ElasticSearch中。设置kafkakafka需要在配置文件server.properties中设置listeners才可以被外界访问:listeners=PLAINTEXT://host:9092# Hostname and port the broker wi原创 2020-12-16 16:04:38 · 1565 阅读 · 0 评论 -
filebeat使用kafka作为input(filebeat从kafka中读取数据)报错解决
项目场景:filebeat 7.10kafka 0.11windows 10filebeat使用kafka作为input,从kafka读取数据到ElasticSearch官方文档问题描述:根据kafka input 官方文档配置好filebeat.yml,并启动filbeat从指定kafka的某topic读取数据。 kafka的配置是正常的,已经在其它环境尝试过生产\消费数据。filbeat报如下错误: ERROR [kafka input] kafka/input.go:155原创 2020-12-16 10:51:51 · 3466 阅读 · 1 评论 -
filebeat采集Json格式日志发送到ElasticSearch的方法,并将@timestamp字段更换为日志时间戳
环境filebeat 7.10ES 7.4.2需求描述我想做的是使用filebeat从log文件中采集json格式的日志,并发送到ES中,并在ES中显示json日志的各字段和数据。问题一:如何让采集Json格式的日志在filebeat.yml文件中进行相应的配置:- type: log enabled: true paths: - E:\testjson.log json: keys_under_root: true overwrite_keys: tru原创 2020-12-14 16:39:08 · 4700 阅读 · 1 评论