ELK+Kafka+Beats实现海量日志收集平台(三)

本文详细介绍如何使用ELK+Kafka+Beats搭建日志收集平台,包括配置Elasticsearch集群、Kibana展示及Logstash日志处理流程。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

          ELK+Kafka+Beats实现海量日志收集平台(三)

目录

六、将日志数据存储到Elasticsearch

七、Kibana展示  


六、将日志数据存储到Elasticsearch

  通过前面的步骤实现了日志数据的生产、收集和过滤。接下来就将收集之后的日志数据信息持久化到ElasticSearch上,然后在结合Kibana最终显示。

  启动ElasticSearch集群,之前提供的ES集群安装链接是7.6.2版本,所以要自己替换版本到6.6.0进行安装,6.6.0的安装配置和7.6.2版本的有些区别,配置信息如下:  

       

  搭建好之后的信息如下:

  

  Elasticsearch Head 插件显示如下:

  

七、Kibana展示  

  启动Kibana,进如Kibana安装过后的目录下使用如下命令启动

     nohup ../bin/kibana & 

  紧接着来修改一下logstash的配置文件,在之前的基础上我们将收集到的日志数据输出控制台上了,现在我们要将日志数据存储到ES集群上。打开logstash配置文件添加如下:

  

  在配置文件中,配置了输出到Elasticsearch上。重启logstash,可以看到启动日志输出如下表明logstash连接ES成功。

  

  接着通过访问 /err 、/index两个方法来产生日志信息,随后利用Elasticsearch head插件查看ES集群信息如下:

  

  发现建立了两个索引,err-log-demo-* 、all-log-demo-* 这两个索引分别就是之前设置的错误日志索引和全量日志索引。

  再进入到Kibana界面查看,安装下列步骤进入界面

  

  随后,看到如下界面:

  

  创建index,比如all-log-demo* 如果有对应的索引就会进行匹配

  

  接着下一步:

  

  同理创建err-log-demo*,随后按照如下操作进行查看:

  

  查看的是err-log-demo*,这里其实就记录了我们访问demo.jar 的 /err 方法产生的那条错误日志。

  

  至此,咋们的ELK环境搭建及日志收集彻底实现了。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值