elasticsearch+kibana搭建

filebeat+elasticsearch+kibana搭建:

elastic官网:
https://www.elastic.co/downloads

filebeat:

Filebeat是一个日志文件托运工具,在你的服务器上安装客户端后,filebeat会监控日志目录或者指定的日志文件,追踪读取这些文件,并且转发这些信息到elasticsearch或者logstarsh中存放。

下载地址(注意和elasticsearch版本保持一致):

https://artifacts.elastic.co/downloads/beats/filebeat/filebeat-5.6.7-x86_64.rpm

https://artifacts.elastic.co/downloads/beats/filebeat/filebeat-5.6.7-amd64.deb

rpm -i filebeat-5.6.7-x86_64.rpm

vi /etc/filebeat/filebeat.yml (Elasticsearch output)

username: "elastic"
password: "changeme"
:wq

service filebeat restart

elasticsearch:

Elasticsearch是一个分布式搜索服务

下载网址:
https://www.elastic.co/downloads/past-releases/elasticsearch-5-6-7

yum install java-1.8.0-openjdk

rpm -i elasticsearc-5.6.7-x86_64.rpm

/usr/share/elasticsearch/bin/elasticsearch-plugin install x-pack

service elasticsearch start

chkconfig --level 35 elasticsearch on

curl http://localhost:9200

elastic账号的默认密码为changeme

导入filebeat模板:

curl -u elastic -XPUT 'http://localhost:9200/_template/filebeat?pretty' -d@/etc/filebeat/filebeat.template.json

查看所有index:

curl http://localhost:9200/_cat/indices?v

创建icinga2索引:

curl -XPUT http://localhost:9200/icinga2

删除icinga2索引:

curl -XDELETE http://localhost:9200/icinga2

kibana(kibana需和elasticsearch版本保持一致):

Kibana是一套分析与可视化平台,构建于Elasticsearch之上,旨在帮助用户更好地实现数据理解。

下载网址:
https://artifacts.elastic.co/downloads/kibana/kibana-5.6.7-x86_64.rpm

rpm -i kibana-5.6.7-x86_64.rpm

/usr/share/kibana/bin/kibana-plugin install x-pack

vi /etc/kibana/kibana.yml

server.port: 5601 (默认为注释掉的)

server.host: "10.0.0.2" (默认为注释掉的,并改为ip)

elasticsearch.url: "http://localhost:9200" (默认为注释掉的)

kibana.index: ".kibana" (默认为注释掉的)

:wq

service kibana restart

页面访问:http://10.0.0.2:5601 (用户名:elastic 密码:changeme)

本文转自linux博客51CTO博客,原文链接http://blog.51cto.com/yangzhiming/2070665如需转载请自行联系原作者


yangzhimingg

### ELK Stack 导出日志的方法 ELK Stack 是一套由 Elasticsearch、Logstash 和 Kibana 组成的日志管理和分析平台[^2]。其中,Elasticsearch 负责存储和索引日志数据,Logstash 提供日志采集与处理能力,而 Kibana 则用于可视化展示这些数据[^3]。 #### 方法一:通过 Logstash 输出插件导出日志 Logstash 支持多种输出插件来实现日志的导出功能。常见的输出目标包括文件、数据库或其他第三方服务。以下是配置 Logstash 使用 `output` 插件的一个简单示例: ```ruby input { elasticsearch { hosts => ["http://localhost:9200"] index => "your-index-name" } } filter { # 进行必要的过滤操作(可选) } output { file { path => "/path/to/output/logs.txt" } } ``` 上述脚本会从指定的 Elasticsearch 索引中读取日志,并将其保存到本地文件 `/path/to/output/logs.txt` 中[^1]。 #### 方法二:利用 Elasticsearch API 手动查询并下载日志 可以直接调用 Elasticsearch 的 RESTful 接口获取所需日志记录。例如,执行以下命令可以检索最近一天内的所有文档并将结果保存至 CSV 文件: ```bash curl -X GET 'http://localhost:9200/your_index/_search?pretty&q=@timestamp:[now-1d TO now]' \ | jq -r '.hits.hits[] | [.fields["@timestamp"], .fields["message"]] | @csv' > logs.csv ``` 这里使用了 `jq` 工具解析返回的 JSON 数据结构,并提取时间戳字段 (`@timestamp`) 和消息体字段 (`message`) 来构建最终的 CSV 行条目。 #### 方法三:借助 Kibana Saved Objects 功能批量导出 如果已经在 Kibana 上创建了一些自定义仪表板或者发现特定模式下的异常事件,则可以通过其内置机制分享这些成果给其他同事或团队成员查看。具体步骤如下: 1. 登录到您的 Kibana 实例; 2. 浏览至 “Management -> Advanced Settings” 页面下找到关于对象导入/导出选项卡; 3. 按照提示选择希望打包的内容类别(如搜索条件、图表布局等),然后点击按钮生成 ZIP 归档包即可完成整个过程。 以上三种方式分别适用于不同场景需求,在实际应用过程中可以根据具体情况灵活选用最合适的方案来进行ELK stack上的日志导出了。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值