filebeat、logstash安装与使用

本文详细介绍如何在Linux环境下安装并配置ELK Stack组件,包括Filebeat和Logstash。Filebeat用于收集日志数据,Logstash则负责数据的解析与传输。文章提供了具体的下载、解压、启动和关闭步骤,并附上了配置文件的链接。

filebeat安装使用

1. 下载一个filebeat的压缩包
wget https://artifacts.elastic.co/downloads/beats/filebeat/filebeat-6.3.1-linux-x86_64.tar.gz
2. 安装(就是把压缩包解压到随便一个目录)
tar xf filebeat-6.3.1-linux-x86_64.tar.gz
mkdir /home/elk
mv filebeat-6.3.1-linux-x86_64  /home/elk/filebeat
3启动和关闭
启动:nohup /home/elk/filebeat/filebeat -c /home/elk/filebeat/filebeat.yml  
第一个为filebeat安装程序,第二个是给filebeat准备的配置文件
可以有几个配置文件,同时运行几个
查看进程:ps aux |grep filebeat
关闭:kill -9  上述的进程号

4 filebeat常用配置文件

https://blog.youkuaiyun.com/xushiyu1996818/article/details/84029395

logstash安装使用
1. 下载一个logstash的压缩包
wget https://artifacts.elastic.co/downloads/logstash/logstash-6.3.1.tar.gz
2. 安装(就是把压缩包解压到随便一个目录)
tar xf logstash-6.3.1.tar.gz
mkdir /home/elk
mv logstash-6.3.1  /home/elk/logstash
3启动和关闭
启动:
nohup /home/elk/logstash/bin/logstash -f /home/elk/logstash/logstash.conf  & --path.data=/home/elk/logstash-6.3.1/xsytest &
第一个为logstash安装程序,第二个是给logstash准备的配置文件,第三个是logstash的日志文件的位置,名字为nohup.out
查看进程:ps aux |grep logstash
关闭:kill -9  上述的进程号

4 logstash常用配置文件

https://blog.youkuaiyun.com/xushiyu1996818/article/details/84030000

### 配置 Filebeat Logstash、Elasticsearch 和 Kibana 的集成 #### 安装和配置 Elasticsearch 为了确保整个系统的正常运行,先安装并配置 Elasticsearch。解压下载的 Elasticsearch 文件包,并将其移动到合适的位置: ```bash tar zxvf elasticsearch-7.3.0-linux-x86_64.gz mv elasticsearch-7.3.0 /usr/local/elasticsearch mkdir -p /data/{es-data,es-logs} ``` 编辑 `elasticsearch.yml` 文件来调整必要的设置[^2]。 使 Elasticsearch 开机自动启动并且立刻启动服务: ```bash systemctl enable elasticsearch.service --now ``` #### 安装和配置 Filebeat 接下来,在目标机器上部署 Filebeat 并对其进行适当配置以便能够发送数据给 Logstash 或者直接至 Elasticsearch。对于连接到 Logstash 来说,需修改 `/etc/filebeat/filebeat.yml` 中的相关部分指向本地或远程的 Logstash 实例地址以及端口。 如果选择让 Filebeat 直接向 ES 发送事件,则应指定相应的主机名和集群名称等参数[^1]。 #### 设置 Logstash 输入插件接收来自 Filebeat 的消息 在 Logstash 上创建一个新的配置文件用于处理由 Filebeat 转发过来的日志条目。通常情况下是在 `/etc/logstash/conf.d/` 下新建 `.conf` 文件定义输入源为 Beats 协议监听特定端口号上的 TCP 连接请求;接着可以添加过滤器解析原始日志格式转换成结构化 JSON 对象再通过输出阶段存入 Elasticsearch 数据库中等待后续分析查询操作完成可视化呈现工作流闭环构建。 一个简单的 Logstash 配置例子如下所示: ```ruby input { beats { port => "5044" } } filter {} output { elasticsearch { hosts => ["http://localhost:9200"] index => "%{[@metadata][beat]}-%{+YYYY.MM.dd}" } } ``` #### 使用 Kibana 可视化数据分析结果 最后一步就是利用 Kibana 创建仪表板监控收集的数据集。登录 Web UI 后导航至 “Management -> Index Patterns”,按照提示建立索引模式匹配之前设定好的模板字符串(例如 filebeat-*),之后就能自由设计图表组件展现各类统计指标变化趋势了。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值