1. 环境规划:
| 主机名 | IP地址 | 角色 |
| node1 | 192.168.56.111 |
ElasticSearch(master) Zookeeper Kafka |
| node2 | 192.168.56.112 |
ElasticSearch(slave) Kibana Zookeeper Kafka |
| node3 | 192.168.56.113 |
ElasticSearch(slave) Zookeeper Kafka |
| node4 | 192.168.56.114 |
Logstash Filebeat |
2. 安装Kibana:
[root@node2 ~]# yum localinstall kibana-7.2.0-x86_64.rpm
3. 配置Kibana:
[root@node2 ~]# cd /etc/kibana/
[root@node2 kibana]# vim kibana.yml
server.port: 5601 ##kibana默认监听的端口
server.host: "0.0.0.0" ##表示可以通过任意地址访问kibana
##和elasticsearch联系,es主机,可以都写上也可以就写一台
elasticsearch.hosts: ["http://192.168.56.111:9200"]
kibana.index: ".kibana ##在elasticsearch中添加.kibana索引,可以自定义
4. 启动Kibana:
[root@node2 kibana]# systemctl enable kibana.service --now
5. 访问Kibana," http://192.168.56.112:5601 ",启动时间较慢。

6. Kibana展示ElasticSearch中的日志:


最后选择一个默认展示的索引日志即可。将ES上的三个索引全部创建。


本文档介绍了在一个多节点环境中如何配置和安装Elasticsearch、Kibana,以及如何设置Kibana以连接到Elasticsearch进行日志可视化。在节点上分别部署了Elasticsearch作为master和slave角色,Kibana用于数据展示,Logstash和Filebeat负责日志收集。通过修改kibana.yml文件并启动服务,最终实现了通过IP地址访问Kibana并展示Elasticsearch中的日志。
963

被折叠的 条评论
为什么被折叠?



