9款日志采集和管理工具对比,选型必备!

本文介绍了多种日志管理工具,包括Filebeat的轻量级特性,Graylog的集成解决方案,LogDNA的SaaS和内部部署选项,Elasticsearch、Logstash和Kibana(ELKstack)的广泛使用,GrafanaLoki的标签索引优化,Datadog的监控和日志管理,Logstash的灵活性,Fluentd的Kubernetes集成,以及Splunk的成熟商业解决方案。每种工具都有其独特的优点和适用场景。

 

 

  • 1、Filebeat

  • 2、Graylog

  • 3、LogDNA

  • 4、Elasticsearch, Logstash and Kibana (ELK stack or Elastic Stack)

  • 5、Grafana Loki

  • 6、Datadog

  • 7、Logstash

  • 8、Fluentd

  • 9、Splunk


简介

对于日志管理当前网络上提供了大量的日志工具,今天就给大家分析总结一下这些常用工具的特点,希望对你们在选型时有所帮助,如果有用记得一键三连。

1、Filebeat

Filebeat是用于转发和集中日志数据的轻量级传送程序。作为服务器上的代理安装,Filebeat监视您指定的日志文件或位置,收集日志事件,并将它们转发到Elasticsearch或Logstash进行索引。

Filebeat的工作方式如下:启动Filebeat时,它将启动一个或多个输入,这些输入将在为日志数据指定的位置中查找。对于Filebeat所找到的每个日志,Filebeat都会启动收集器。每个收集器都读取一个日志以获取新内容,并将新日志数据发送到libbeat,libbeat会汇总事件并将汇总的数据发送到您为Filebeat配置的输出。

图片

1.1 主要特点

  • 轻量级并且易使用

  • 模块可用于常见用例(例如 Apache 访问日志)。您可以使用它们来设置 Filebeat、Ingest 和 Kibana 仪表板,只需几个命令

1.2 价格

免费开源

1.3 优点

  • 资源使用率低

  • 良好的性能

1.4 缺点

有限的解析和丰富功能

2、Graylog

Graylog是一个开源的日志聚合、分析、审计、展现和预警工具。功能上和ELK类似,但又比ELK要简单,依靠着更加简洁,高效,部署使用简单的优势很快受到许多人的青睐。

图片

2.1 主要特点

  • 一个包含日志处理所有要素的软件包:收集、解析、缓冲、索引、搜索、分析。

  • 开源 ELK 堆栈无法提供的其他功能,例如基于角色的访问控制和警报

2.2 价格

免费和开源,不过也有企业版(根据要求提供价格)

2.3 优点

  • 在一个软件包中满足大多数集中式日志管理用例的需求

  • 轻松扩展存储 (Elasticsearch) 和获取通道

2.4 缺点

  • 可视化能力是有限的,至少与ELK的Kibana相比是如此

  • 不能使用整个ELK生态系统,因为他们不能直接访问Elasticsearch API。相反,Graylog有自己的API

3、LogDNA

LogDNA是日志管理领域的新成员。LogDNA可作为SaaS和内部使用,提供所有日志基础:通过syslog和HTTP(S)以及全文搜索和可视化,提供基于代理和无代理的日志收集,并提供清晰且具有竞争力的价格。

图片

3.1 主要特点

  • 用于在组织外部共享日志的嵌入式视图

  • 自动解析常用日志格式

3.2 价格

  • 免费:无存储

  • 收费:付费计划起价为每月每GB 1.50 美元,保留 7 天

3.3 优点

  • 用于搜索日志的简单 UI,类似于 Papertrail

  • 易于理解的计划

3.4 缺点

  • 可视化能力有限

  • 保留期取决于计划(从 7 天到 30 天)。用户数量也是如此(最便宜的计划只允许 5 个)

4、Elasticsearch, Logstash and Kibana (ELK stack or Elastic Stack)

图片

4.1 主要特点

ELK堆栈包含了日志管理解决方案所需的大多数工具:

  • Log shippers:如Logstash和Filebeat

  • Elasticsearch是一个可扩展的搜索引擎

  • Kibana作为搜索日志或构建可视化的UI

它在集中日志方面非常流行,有很多关于如何在网络上使用它的教程。有一个庞大的工具生态系统,您可以在基本设置之上使用这些工具,通过警报、基于角色的访问控制等来增强它。我们将在这篇博文中详细介绍这些额外的附加功能,我们将在其中讨论 Elastic Stack 功能的替代方案。

  • Elasticsearch默认情况下对每个字段进行索引,使搜索速度更快

  • 通过API和Kibana实现实时可视化

  • 索引前的数据解析和充实

4.2 价格

  • 免费和开源。一些公司提供托管 ELK 的形式,见上文。

  • 还有 Elastic Cloud,它是云中 ELK 的一种纯粹形式,您主要需要自己管理。

4.3 优点

  • 可扩展的搜索引擎作为日志存储

  • 成熟的log shippers

  • Kibana 中的 Web UI 和可视化

4.4 缺点

  • 在规模上,它可能变得难以维护。这就是 Sematext 提供 ELK 堆栈咨询、生产支持和培训的原因

  • ELK Stack 的开源版本缺少一些功能,例如基于角色的访问控制和警报。您可以通过商业“Elastic Stack 功能”或其替代品或 Visa Open Distro for Elasticsearch 获得这些功能。

5、Grafana Loki

Loki 及其生态系统是 ELK 堆栈的替代方案,但它做出了不同的权衡。通过仅索引某些字段(标签),它可以具有完全不同的架构。也就是说,主要的写入组件(Ingester)会将大量日志保存在内存中,从而使最近的查询速度更快。

随着块变老,它们被写入两个地方:用于标签的键值存储(例如 Cassandra)和用于块数据的对象存储(例如 Amazon S3)。当您添加数据时,它们都不需要后台维护(例如 Elasticsearch/Solr 需要合并)。

如果您查询较旧的数据,您通常会按标签和时间范围进行过滤。这限制了必须从长期存储中检索的块的数量。

图片

5.1 主要特点

  • 同一 UI 中的日志和指标 (Grafana)

  • Loki 标签可以与 Prometheus 标签保持一致

5.2 价格

  • 免费:免费开源

  • 收费:还有Grafana Cloud,提供Loki的SaaS服务(也有内部部署的选项)。价格从49美元起,包括100GB的日志存储(30天保留)和3000个度量系列

5.3 优点

  • 与 ELK 相比,摄取速度更快:索引更少,无需合并

  • 小存储占用:较小的索引,数据只写入一次到长期存储(通常具有内置复制)

  • 使用更便宜的存储(例如 AWS S3)

5.4 缺点

  • 与 ELK 相比,较长时间范围内的查询和分析速度较慢

  • 与 ELK 相比,log shippers选项更少(例如 Promtail 或 Fluentd)

  • 不如 ELK 成熟(例如更难安装)

6、Datadog

Datadog 是一种 SaaS,最初是作为监控 (APM) 工具,后来还添加了日志管理功能。您可以通过 HTTP(S) 或 syslog,通过现有的日志传送器(rsyslog、syslog-ng、Logstash 等)或通过 Datadog 自己的代理发送日志。

它的特点是 Logging without Limits™,这是一把双刃剑:更难预测和管理成本,但您可以获得即用即付定价(见下文)以及您可以存档和从存档中恢复的事实。

图片

6.1 主要特点

  • 用于解析和丰富日志的服务器端处理管道

  • 自动检测常见的日志模式

  • 可以将日志归档到 AWS/Azure/Google Cloud 存储并在以后重新使用它们

6.2 价格

  • 处理起价为每月每GB 0.10 美元(例如 1GB 每天 3 美元)

  • 处理也适用于从档案中获取,尽管这里的数据是压缩的

  • 100 万个事件的存储起价为 1.59 美元,为期 3 天(例如,47.7 美元,1GB/天,每个 1K,存储 3 天)

6.3 优点

  • 容易搜索,良好的自动完成(基于facet)

  • 与DataDog指标和跟踪的集成

  • 负担得起,特别是对于短期保留和/或如果你依靠存档进行一些搜索

6.4 缺点

  • 现场不可用。一些用户抱怨成本失控(由于定价灵活)。虽然您可以设置每日处理配额

7、Logstash

Logstash 是一个日志收集和处理引擎,它带有各种各样的插件,使您能够轻松地从各种来源摄取数据,将其转换并转发到定义的目的地。它与 Elasticsearch 和 Kibana 一起是 Elastic Stack 的一部分,这就是为什么它最常用于将数据传送到 Elasticsearch。

图片

7.1 主要特点

  • 许多内置的输入、过滤/转换和输出插件

  • 灵活的配置格式:您可以添加内联脚本,包括其他配置文件等

7.2 价格

  • 免费开源

7.3 优点

  • 容易开始和移动到复杂的配置

  • 灵活:Logstash用于各种日志记录用例,甚至用于非日志记录数据

  • 写得很好的文档和大量的操作指南

7.4 缺点

  • 与其他日志shippers相比,资源使用率高

  • 与替代品相比,性能较低

8、Fluentd

作为一个很好的 Logstash 替代品,Fluentd 是 DevOps 的最爱,特别是对于 Kubernetes 部署,因为它具有丰富的插件库。与 Logstash 一样,它可以将数据结构化为 JSON,并涉及日志数据处理的所有方面:收集、解析、缓冲和输出跨各种来源和目的地的数据。

图片

8.1 主要特点

  • 与库和Kubernetes的良好集成

  • 大量的内置插件,很容易编写新的

8.2 价格

  • 免费开源

8.3 优点

  • 良好的性能和资源使用

  • 良好的插件生态系统

  • 易于使用的配置

  • 良好的文档

8.4 缺点

  • 解析前没有缓冲,可能会导致日志管道出现背压

  • 对转换数据的支持有限,就像您可以使用 Logstash 的 mutate 过滤器或 rsyslog 的变量和模板一样

9、Splunk

Splunk 是最早的商业日志集中工具之一,也是最受欢迎的。典型的部署是本地部署 (Splunk Enterprise),尽管它也作为服务提供 (Splunk Cloud)。您可以将日志和指标发送到 Splunk 并一起分析它们。

图片

9.1 主要特点

  • 用于搜索和分析的强大查询语言

  • 搜索时字段提取(在摄取时解析之外)

  • 自动将经常访问的数据移动到快速存储,将不经常访问的数据自动移动到慢速存储

9.2 价格

  • 免费:每天 500MB 数据

  • 付费计划可应要求提供,但常见问题解答建议 1GB 的起价为 150 美元/月

9.3 优点

  • 成熟且功能丰富

  • 对于大多数用例来说,良好的数据压缩(假设有有限的索引,正如推荐的那样)

  • 日志和度量在一个屋檐下

9.4 缺点

  • 对于较长的时间范围,查询速度较慢(建议使用有限的索引)

  • 用于度量存储的效率低于专注于监控的工具

## 什么是graylog Graylog 是一个简单易用、功能较全面的日志管理工具,相比 ELK 组合, 优点: - 部署维护简单 - 查询语法简单易懂(对比ES的语法…) - 内置简单的告警 - 可以将搜索结果导出为 json - 提供简单的聚合统计功能 - UI 比较友好 - 当然, 拓展性上比 ELK 差很多。 整套依赖: - Graylog 提供 graylog 对外接口 - Elasticsearch 日志文件的持久化存储检索 - MongoDB 只是存储一些 Graylog 的配置 ## 安装 > 可以是裸机安装,也可以是docker安装,这里用docker安装 环境要求: - centos7.4 - cpu2个 内存2G 参考: https://hub.docker.com/r/graylog2/graylog/ ### 环境准备 ``` mkdir /root/graylog && cd /root/graylog //挂载目录 mkdir -p mongo_data graylog_journal es_data //配置文件目录 mkdir -p ./graylog/config cd ./graylog/config wget https://raw.githubusercontent.com/Graylog2/graylog-docker/3.0/config/graylog.conf wget https://raw.githubusercontent.com/Graylog2/graylog-docker/3.0/config/log4j2.xml //提前准备镜像 docker pull mongo:3 docker pull graylog/graylog:3.0 docker pull elasticsearch:5.6.9 ``` ### docker-compose.yml ``` version: &#39;2&#39; services: # MongoDB: https://hub.docker.com/_/mongo/ mongo: image: mongo:3 volumes: - ./mongo_data:/data/db - /etc/localtime:/etc/localtime # Elasticsearch: https://www.elastic.co/guide/en/elasticsearch/reference/5.5/docker.html elasticsearch: image: elasticsearch:5.6.9 volumes: - ./es_data:/usr/share/elasticsearch/data - /etc/localtime:/etc/localtime environment: - http.host=0.0.0.0 - transport.host=localhost - network.host=0.0.0.0 # Disable X-Pack security: https://www.elastic.co/guide/en/elasticsearch/reference/5.5/security-settings.html#general-security-settings - xpack.security.enabled=false - "ES_JAVA_OPTS=-Xms512m -Xmx512m" ulimits: memlock: soft: -1 hard: -1 mem_limit: 1g # Graylog: https://hub.docker.com/r/graylog/graylog/ graylog: image: graylog/graylog:3.0 volumes: - ./graylog_journal:/usr/share/graylog/data/journal - ./graylog/config:/usr/share/graylog/data/config - /etc/localtime:/etc/localtime environment: # CHANGE ME! - GRAYLOG_PASSWORD_SECRET=somepasswordpepper # Password: admin - GRAYLOG_ROOT_PASSWORD_SHA2=8c6976e5b5410415bde908bd4dee15dfb167a9c873fc4bb8a81f6f2ab448a918 # 这里需要修改为要暴露的机器的地址 - GRAYLOG_HTTP_EXTERNAL_URI=http://10.121.60.2:9000/ links: - mongo - elasticsearch ports: # Graylog web interface and REST API - 9000:9000 # Syslog TCP - 514:514 # Syslog UDP - 514:514/udp # GELF TCP - 12201:12201 # GELF UDP - 12201:12201/udp # GELF HTTP - 12202:12202 ``` ### 启动 `docker-compose -f docker-compose.yml up -d` 通过http://10.121.60.2:9000/访问web,admin/admin ### 修改配置 - email相关(告警需要) ``` transport_email_enabled = true transport_email_hostname = smtp.163.com transport_email_port = 994 transport_email_use_auth = true transport_email_use_tls = true transport_email_use_ssl = true transport_email_auth_username = 17191093767@163.com transport_email_auth_password = zhim123456 transport_email_subject_prefix = [graylog] transport_email_from_email = 17191093767@163.com transport_email_web_interface_url = http://10.121.60.2:9000 ``` ## 使用 ### 配置添加Inputs > Graylog 节点能够接受数据的类型称之为input,常见的有GELF TCP, GELF UDP, GELF HTTP. 说明:GELF TCP, GELF UDP可以使用同一个端口,HTTP需要另起端口,原因不解释。 - 添加三个input,过程略,tcp,udp端口使用默认的12201,http端口使用12202。 - 验证 ``` // udp echo -n &#39;{ "version": "1.1", "host": "example.org", "short_message": "A short message info with udp", "level": 1, "_some_info": "foo", "_tag": "test11" }&#39; | nc -w10 -u 10.121.60.2 12201 // tcp echo -n -e &#39;{ "version": "1.1", "host": "example.org", "short_message": "A short message with tcp", "level": 1, "_some_info": "foo" }&#39;"\0" | nc -w10 10.121.60.2 12201 //http curl -X POST -H &#39;Content-Type: application/json&#39; -d &#39;{ "version": "1.1", "host": "example.org", "short_message": "A short message with http", "level": 5, "_some_info": "foo" }&#39; &#39;http://10.121.60.2:12202/gelf&#39; ``` ### docker 日志添加到graylog ``` docker run --log-driver=gelf \ --log-opt gelf-address=udp://10.121.60.2:12201 \ --log-opt tag=test1 \ -v /etc/localtime:/etc/localtime \ -it nginx /bin/bash ``` docker-compose.yaml ``` services: mongo: logging: driver: "gelf" options: gelf-address: "udp://10.121.60.2:12201" tag: mongo volumes: - /etc/localtime:/etc/localtime ``` ### java日志直接发送到graylog > 使用logback ``` 10.121.60.2 12201 <!--An example of overwriting the short message pattern--> %ex{short}%.100m <!-- Use HTML output of the full message. Yes, any layout can be used (please don&#39;t actually do this)--> %d{MM-dd HH:mm:ss.SSS} [%thread] %-5level \(%F:%L\) - %msg %n true true true true requestId:long <!--Facility is not officially supported in GELF anymore, but you can use staticFields to do the same thing--> tag business-server ``` ## 系统使用 功能菜单说明 - search 日志查询面板 ![](assets/2018-07-10-11-52-07.png) - streams 将日志对象按照filed定义为stream,默认的stream为all messages ![](assets/2018-07-10-11-52-22.png) - alerts 告警相关,选择一个stream对象定义告警条件通知方式,当stream里面的日志满足条件时候告警并通知 ![](assets/2018-07-10-11-52-35.png) - dashboards 图形面板 ![](assets/2018-07-10-11-52-53.png) - source 告警所在主机 ![](assets/2018-07-10-11-53-37.png) - system 系统配置 ![](assets/2018-07-10-11-53-52.png) ### 查询条件 [官方说明文档](http://docs.graylog.org/en/3.0/pages/queries.html) > 关键字不分大小写 - 单个关键字查询 `ssh` - 多关键字查询,含有ssh or login `ssh login` - 含有某个字符串查询 `ssh login` - 同时含有多个关键字查询 `opening index" AND db` - 根据字段值查询 `tag:couchdb.peer0.org1.ygsoft.com` - 含有多个tag的查询,某条记录只要其中一个字段满足即可 ``` tag: (orderer.ygsoft.com couchdb.peer0.org1.ygsoft.com) or tag: orderer.ygsoft.com couchdb.peer0.org1.ygsoft.com ``` - 含有完全匹配字段 `tag:"ssh login"` - 含有某个字段的记录: `_exists_:tag` - 不含有某个字段的记录: `NOT _exists_:tag` - AND OR `"ssh login" AND source:example.org` `("ssh login" AND (source:example.org OR source:another.example.org)) OR _exists_:always_find_me` - NOT ``` "ssh login" AND NOT source:example.org NOT example.org ``` 注意: AND, OR, and NOT 只能大写. - 通配符 ? 表示单个字符 星号表示0个多个字符 ``` source:*.org source:exam?le.org source:exam?le.* ``` 注意:默认首字母不能使用通配符,因为这样会使用大量的内存;强行开启修改配置文件`allow_leading_wildcard_searches = true` - 当某关键字不确认顺序的时候使用~ ``` ssh logni~ source:exmaple.org~ 结果可以匹配 ssh login and example.org ``` - 以下字符在使用的时候必须用反斜杠转义 ``` && || : \ / + - ! ( ) { } [ ] ^ " ~ * ? Example: resource:\/posts\/45326 ``` ### 查询条件可以保存下来 使用 save search criteria 按钮
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值