ELFK集群部署

目录

一、ELFK集群部署(Filebeat+ELK)

实验环境

实验步骤:

1 安装 Filebeat(在apache节点操作)

2 设置 filebeat 的主配置文件

3 在 Logstash 组件所在节点上新建一个 Logstash 配置文件

4、浏览器访问

二、Logstash的过滤模块

1 Logstash配置文件中的模块

2 Filter(过滤模块)中的插件


一、ELFK集群部署(Filebeat+ELK)

ELFK= ES + logstash+filebeat+kibana

实验环境

node1节点:192.168.121.10,JDK、elasticsearch-6.7.2、kibana-6.7.2,2核4G

node2节点:192.168.121.20,JDK、elasticsearch-6.7.2,2核4G

apache节点:192.168.121.30,JDK、apache、logstash-6.7.2、filebeat-6.7.2,2核4G

注意:ELFK各安装包的版本要一致,或相近。

实验步骤:

1 安装 Filebeat(在apache节点操作)

 #上传软件包 filebeat-6.2.4-linux-x86_64.tar.gz 到/opt目录
 tar zxvf filebeat-6.2.4-linux-x86_64.tar.gz
 mv filebeat-6.2.4-linux-x86_64/ /usr/local/filebeat

2 设置 filebeat 的主配置文件

 cd /usr/local/filebeat
 ​
 vim filebeat.yml
 filebeat.prospectors:
 - type: log         #指定 log 类型,从日志文件中读取消息
   enabled: true
   paths:
     - /var/log/messages       #指定监控的日志文件
     - /var/log/*.log
   tags: ["sys"]     #设置索引标签
   fields:           #可以使用 fields 配置选项设置一些参数字段添加到 output 中
     service_name: filebeat
     log_type: syslog
     from: 192.168.121.30
 ​
 --------------Elasticsearch output-------------------
 (全部注释掉)
 ​
 ----------------Logstash output---------------------
 output.logstash:
   hosts: ["192.168.121.30:5044"]      #指定 logstash 的 IP 和端口
 ​
 #启动 filebeat
 nohup ./filebeat -e -c filebeat.yml > filebeat.out &
 #-e:输出到标准输出,禁用syslog/文件输出
 #-c:指定配置文件
 #nohup:在系统后台不挂断地运行命令,退出终端不会影响程序的运行

3 在 Logstash 组件所在节点上新建一个 Logstash 配置文件

 cd /etc/logstash/conf.d
 ​
 vim filebeat.conf
 input {
     beats {
         port => "5044"
     }
 }
 output {
     elasticsearch {
         hosts => ["192.168.121.10:9200","192.168.121.20:9200"]
         index => "%{[fields][service_name]}-%{+YYYY.MM.dd}"
     }
     stdout {
         codec => rubydebug
     }
 }
 ​
 #启动 logstash
 logstash -f filebeat.conf

4、浏览器访问

浏览器访问 http://192.168.121.10:5601 登录 Kibana,  单击“Create Index Pattern”按钮添加索引“filebeat-*”,单击 “create” 按钮创建,单击 “Discover” 按钮可查看图表信息及日志信息。

二、Logstash的过滤模块

1 Logstash配置文件中的模块

input {}

  • 指定输入流,通过file、beats、kafka、redis中获取数据

filter {}

常用插件:

  • grok:对若干个大文本字段进行再分割,分割成一些小字段 (?<字段名>正则表达式) 字段名:正则表示匹配到的内容
  • date:对数据中的时间进行统一格式化
  • mutate:对一些无用的字段进行剔除,或增加字段
  • mutiline:对多行数据进行统一编排,多行合并和拆分

ourput {}

  • elasticsearch stdout

2 Filter(过滤模块)中的插件

而对于 Logstash 的 Filter,这个才是 Logstash 最强大的地方。Filter 插件也非常多,我们常用到的 grok、date、mutate、mutiline 四个插件。

filter 的各个插件执行流程:

 grok插件(通过grok插件实现对字段的分割,使用通配符)

这里就要用到 logstash 的 filter 中的 grok 插件。filebeat 发送给 logstash 的日志内容会放到message 字段里面,logstash 匹配这个 message 字段就可以了。

格式:

匹配格式:(?<字段名>正则表达式)
 ​
 # 字段名:正则表达式匹配到的内容

实例1:

(?<remote_addr>%{IPV6}|%{IPV4} )(?<other_info>.+)
 #对数据进行分割ip字段名为remote_addr, 其他字段名为other_info

实例2:

 (?<remote_addr>%{IPV6}|%{IPV4} )[\s-]+[(?<log_time>.+)](?<other_info>.+)
 #添加匹配时间字段

实例3:

#分割多个字段
 (?<remote_addr>%{IPV6}|%{IPV4})[\s-]+[(?<log_time>.+)]\s+"(?<http_method>\S+)\s+(?<url-path>.+)"\s+(?<rev_code>\d+)(?<other_info>.+)

 

实例4:

 cd /etc/logstash/conf.d/
 cp filebeat.conf filter.conf
 ​
 vim filter.conf
 input {
     beats {
         port => "5044"
     }
 }
 filter {
   grok {
      match =>["message","(?<remote_addr>%{IPV6}|%{IPV4} )[\s-]+[(?<log_time>.+)]\s+"(?<http_method>\S+)\s+(?<url-path>.+)"\s+(?<rev_code>\d+)(?<other_info>.+)"]
   }
 }
 output {
     elasticsearch {
         hosts => ["192.168.121.10:9200","192.168.121.20:9200"]
         index => "{[filter][service_name]}-%{+YYYY.MM.dd}"
     }
     stdout {
         codec => rubydebug
     }
 }
  logstash -f filter.conf   #启动

### Linux ELF 文件格式详解 #### ELF 文件概述 在Linux操作系统中,可执行文件遵循ELF(Executable and Linkable Format)标准。这种格式不仅用于最终的可执行文件,还适用于其他类型的二进制对象,如可重定位的目标文件、共享库以及核心转储文件[^1]。 #### ELF 文件分类 根据用途不同,ELF文件主要分为四类: - **可执行文件 (Executable Files)**:可以直接运行的应用程序。 - **可重定位目标文件 (Relocatable Object Files)**:由编译器生成,链接器处理后形成完整的程序或库[^2]。 - **共享目标文件 (Shared Object Files)**:即动态链接库(.so),供多个进程共同加载使用。 - **核心转储文件 (Core Dump Files)**:当应用程序异常终止时创建,包含当时内存映像和其他调试信息。 #### ELF 文件结构组成 一个典型的ELF文件通常包括以下几个部分: - **文件头 (File Header, Elf32_Ehdr/Elf64_Ehdr)**:描述整个文件的基本属性,例如魔数(Magic Number)、字节序(Byte Order)等基本信息。 - **段表 (Program Headers Table, PT_LOAD entries)**:定义了如何将各个段加载到虚拟地址空间的位置及其权限设置。对于可执行文件而言非常重要,因为它们决定了哪些数据应该被映射入进程中并赋予读写执行权能。 - **节区头部表 (Section Headers Table, SHT)**:提供了关于各节区内存布局的信息,便于链接编辑过程中的符号解析等工作。值得注意的是,并不是所有的ELF文件都含有此表格——只有那些需要参与静态链接的对象才会有详细的分段说明。 - **字符串表 (.strtab 和 .shstrtab)**:用来存储诸如函数名称之类的ASCII串,其中`.strtab`负责全局范围内的命名实体而`.shstrtab`则专属于节区标题本身。这些字符串之间通过NULL字符(`\0`)隔开以便于快速检索访问[^3]. #### 内核对 ELF 的支持机制 为了能够正确识别和装载ELF格式的程序,Linux内核内部实现了专门的数据结构来表示这类二进制形式。具体来说,存在两个重要的C语言结构体: - `struct linux_binprm`: 记录了一个待启动进程所需的基础参数集,比如入口点地址(entry point address)、栈顶指针(stack pointer)等等。 - `struct linux_binfmt`: 定义了一套接口方法集合,允许特定类型的binary handler注册自己特有的操作流程给系统调用层知晓。以ELF为例,在kernel初始化期间就会完成相应handler的安装工作,从而确保后续任何尝试execve()的新实例都能得到恰当的服务[^4]. ```c // 示例代码片段展示linux_binfmt结构的一部分成员变量 struct linux_binfmt { int (*load_binary)(struct linux_binprm *); ... }; ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值